TE
科技回声
首页
24小时热榜
最新
最佳
问答
展示
工作
中文
GitHub
Twitter
首页
Portable LLM Across GPUs/CPUs/OSes: WASM for Cloud-Native and Edge AI [video]
1 点
作者
3Sophons
9 个月前
1 comment
3Sophons
9 个月前
Live demos start from 10:40, • Setting up LlamaEdge API server. • Packaging it as a Wasm container image. • Running the image using Docker. • Deploying in a Kubernetes cluster.