TE
科技回声
首页
24小时热榜
最新
最佳
问答
展示
工作
中文
GitHub
Twitter
首页
OpenHermesPreferences: Dataset of ~1M AI preferences from teknium/OpenHermes-2.5
7 点
作者
kashifr
大约 1 年前
1 comment
kashifr
大约 1 年前
The dataset can be used for training preference models or aligning language models through techniques like Direct Preference Optimization (DPO).