TE
科技回声
首页
24小时热榜
最新
最佳
问答
展示
工作
中文
GitHub
Twitter
首页
Selfhost LLMs like Mixtral 8x7B on the Edge & across devices.
1 点
作者
3Sophons
超过 1 年前
1 comment
3Sophons
超过 1 年前
Fully portable inference app only 2MB. Try it on your Mac with one single command: <a href="https://www.secondstate.io/run-llm/" rel="nofollow">https://www.secondstate.io/run-llm/</a>