TE
科技回声
首页24小时热榜最新最佳问答展示工作
GitHubTwitter
首页

科技回声

基于 Next.js 构建的科技新闻平台,提供全球科技新闻和讨论内容。

GitHubTwitter

首页

首页最新最佳问答展示工作

资源链接

HackerNews API原版 HackerNewsNext.js

© 2025 科技回声. 版权所有。

Show HN: I built an open-source answer engine that runs local LLMs

5 点作者 rashadphil大约 1 年前
hey hn,<p>I built an open-source Perplexity clone that can run local LLMs and cloud LLMs.<p>It&#x27;s fully self-hostable through Docker and uses ollama to support local LLMs.<p>The demo video in the repository shows me running it locally with llama3 on my M1 Macbook Pro.<p>I&#x27;m open to any suggestions or feedback, thanks!

1 comment

rashadphil大约 1 年前
Try out the hosted version here: <a href="https:&#x2F;&#x2F;www.farfalle.dev&#x2F;" rel="nofollow">https:&#x2F;&#x2F;www.farfalle.dev&#x2F;</a> (Cloud models only)
评论 #40408430 未加载