TE
科技回声
首页
24小时热榜
最新
最佳
问答
展示
工作
中文
GitHub
Twitter
返回个人资料
rasbt 的提交内容
1
Training and aligning LLMs with RLHF and RLHF alternatives
102 点
作者
rasbt
超过 1 年前
14 条评论
2
Understanding Llama 2 and the New Code Llama LLMs
170 点
作者
rasbt
超过 1 年前
34 条评论
3
Llama 2, CodeLlama, and GPT-4 performance: recent LLM developments and research
1 点
作者
rasbt
超过 1 年前
暂无评论
4
AI Research Highlights in 3 Sentences or Less (July-August 2023)
1 点
作者
rasbt
将近 2 年前
暂无评论
5
NeurIPS 2023 LLM Efficiency Challenge Starter Guide
2 点
作者
rasbt
将近 2 年前
暂无评论
6
Does it beat LLMs? NN+Gzip method reimplemented and explained step-by-step
3 点
作者
rasbt
将近 2 年前
暂无评论
7
AI and DL paper highlights June-July 2023
1 点
作者
rasbt
将近 2 年前
暂无评论
8
State of Computer Vision 2023
2 点
作者
rasbt
将近 2 年前
暂无评论
9
Optimizing Memory Usage for Training LLMs and Vision Transformers in PyTorch
1 点
作者
rasbt
将近 2 年前
暂无评论
10
Accelerating PyTorch Model Training 10x (With Mixed-Precision and FSDP)
2 点
作者
rasbt
将近 2 年前
暂无评论
11
Understanding Encoder and Decoder LLMs
5 点
作者
rasbt
将近 2 年前
暂无评论
12
New book on more advanced concepts in machine learning, deep learning, and AI
2 点
作者
rasbt
将近 2 年前
暂无评论
13
AI Research Highlights in 3 Sentences or Less (May-June 2023)
2 点
作者
rasbt
将近 2 年前
暂无评论
14
Recapping recent LLM research concerning tuning strategies and data efficiency
2 点
作者
rasbt
将近 2 年前
暂无评论
15
Why the original transformer figure is wrong, and some other tidbits about LLMs
237 点
作者
rasbt
将近 2 年前
49 条评论
16
Finetuning LLMs Efficiently with Adapters
2 点
作者
rasbt
将近 2 年前
1 comment
17
AI Research Highlights in 3 Sentences or Less (April-May 2023)
1 点
作者
rasbt
大约 2 年前
暂无评论
18
Understanding Parameter-Efficient Finetuning of Large Language Models
2 点
作者
rasbt
大约 2 年前
暂无评论
← 上一页
下一页 →