TE
科技回声
首页
24小时热榜
最新
最佳
问答
展示
工作
中文
GitHub
Twitter
首页
QLoRA 4-bit finetuning of LLMs
7 点
作者
kashifr
大约 2 年前
1 comment
kashifr
大约 2 年前
An efficient finetuning approach that reduces memory usage enough to finetune a 65B parameter model on a single 48GB GPU while preserving full 16-bit finetuning task performance!