TE
科技回声
首页
24小时热榜
最新
最佳
问答
展示
工作
中文
GitHub
Twitter
首页
LLaMA Pro: Progressive LLaMA with Block Expansion
1 点
作者
cyberninja15
超过 1 年前
1 comment
cyberninja15
超过 1 年前
A new post-pretraining method for LLMs with an expansion of Transformer blocks.