TE
科技回声
首页24小时热榜最新最佳问答展示工作
GitHubTwitter
首页

科技回声

基于 Next.js 构建的科技新闻平台,提供全球科技新闻和讨论内容。

GitHubTwitter

首页

首页最新最佳问答展示工作

资源链接

HackerNews API原版 HackerNewsNext.js

© 2025 科技回声. 版权所有。

Faster and smaller Hugging Face BERT on CPU via compound sparsification

2 点作者 danielcampos93超过 3 年前

1 comment

danielcampos93超过 3 年前
combining multiple sparsification methods to improve the Hugging Face BERT base model (uncased) performance on CPUs. We combine distillation with both unstructured pruning and structured layer dropping. This “compound sparsification” technique enables up to 14x faster and 4.1x smaller BERT on CPUs depending on accuracy constraints.