TE
科技回声
首页
24小时热榜
最新
最佳
问答
展示
工作
中文
GitHub
Twitter
首页
Anthropic's Claude 2.1 offers 200k token capacity, more than double of GPT-4
1 点
作者
Beggers1960
超过 1 年前
1 comment
Beggers1960
超过 1 年前
Pretty impressive numbers here. Double the capacity of Claude 2.0, and way more than GPT-4. Also cut hallucinations significantly - this'll get enterprise's attention.