TE
科技回声
首页24小时热榜最新最佳问答展示工作
GitHubTwitter
首页

科技回声

基于 Next.js 构建的科技新闻平台,提供全球科技新闻和讨论内容。

GitHubTwitter

首页

首页最新最佳问答展示工作

资源链接

HackerNews API原版 HackerNewsNext.js

© 2025 科技回声. 版权所有。

FlashAttention-2, 2x faster than FlashAttention

82 点作者 machdiamonds将近 2 年前

4 条评论

whimsicalism将近 2 年前
Does anyone have resources for a good way to get started with this sort of modern GPU systems work?
评论 #36763272 未加载
评论 #36764179 未加载
评论 #36763025 未加载
ternaus将近 2 年前
I would be very greatfull to see how one can leverage it not for LLMs but for Stable Diffusion models
评论 #36763410 未加载
lucidrains将近 2 年前
huge! thank you Tri!
评论 #36762663 未加载
hunkins将近 2 年前
Excellent work by the team on this. Excited to see this applied to the diffusers library.