全部 ♥ 收藏 36氪 - AI Anthropic Research Google AI Blog HackerNews Best Hugging Face Blog LangChain Blog Lilian Weng's Blog MIT Tech Review - AI OpenAI Blog The Verge - AI 机器之心 李沐 稚晖君 量子位
Hugging Face Blog ★★★★☆ 2021-01-26

Hugging Face Transformers 中更快的 TensorFlow 模型

推荐理由:涉及热门 AI 工具库的性能升级,对开发者有实用价值

Hugging Face Transformers 库新增对 TensorFlow 模型的性能优化,提升推理速度并简化部署流程,适用于 NLP 和多模态任务。

Hugging Face Blog ★★★★☆ 2020-11-03

将 fairseq wmt19 翻译系统迁移到 transformers

推荐理由:涉及主流AI工具库迁移实践,对NLP开发者有实用价值

本文介绍了如何将基于 fairseq 的 WMT19 机器翻译系统迁移到 Hugging Face Transformers 库,涵盖模型转换、配置适配及推理优化等关键技术步骤。

Hugging Face Blog ★★★★☆ 2020-11-02

使用 Transformers 和 Ray Tune 进行超参数搜索

推荐理由:实用的AI模型调优工具链教程,适合开发者提升训练效率。

本文介绍如何结合 Hugging Face Transformers 与 Ray Tune 实现高效的超参数优化,涵盖分布式调参、早停策略及实际代码示例。

Hugging Face Blog ★★★☆☆ 2020-10-10

Transformer-based Encoder-Decoder Models

推荐理由:涵盖主流AI模型架构,对理解大模型基础有帮助

文章介绍基于Transformer的编码器-解码器模型架构,包括其在序列到序列任务中的应用、关键组件及典型变体。

Hugging Face Blog ★★★★☆ 2020-09-10

用于更小更快语言模型的块稀疏矩阵

推荐理由:涉及AI模型优化技术,有助于提升模型效率和落地应用

文章探讨如何利用块稀疏矩阵技术压缩和加速大语言模型,提升推理效率并减少内存占用,适用于部署资源受限场景。

Hugging Face Blog ★★★★☆ 2020-07-03

Reformer:突破语言模型的极限

推荐理由:介绍高效大模型架构,属AI模型技术进展

Reformer是一种高效Transformer变体,通过局部敏感哈希和可逆残差层显著降低内存与计算开销,适用于长序列建模。

← 上一页 34 / 34