创建一个包含 PyTorch 和 TensorFlow 的基础深度学习环境。
阅读全文
Photo by Damian Patkowski on Unsplash
阅读全文
Photo by Josh Sorenson on Unsplash
阅读全文
BERT 表示 Bidirectional Encoder Representations from Transformers,是 Google 于 2018 年发布的一种语言表示模型。该模型一经发布便成为争相效仿的对象,相信大家也都多少听说过研究过了。本文主要聚焦于 BERT 的分词方法,模型实现细节解读见 BERT 是如何构建模型的。
阅读全文
阅读全文译者注:
- 本文翻译自 Sebastian Ruder 于 2018 年 4 月 16 日发表的文章 Text Classification with TensorFlow Estimators,文章和 Julian Eisenschlos 共同撰写,原先发表在 TensorFlow 博客。
- 文中括号或者引用块中的 斜体字 为对应的英文原文或者我自己注释的话(会标明「译者注」),否则为原文中本来就有的话。
- 目录保留英文原文。
- 你如果对 TensorFlow 中的 Datasets 和 Estimators 还不是很了解,那么可以参考我写的理解 Estimators 和 Datasets。
- 本人水平有限,如有错误欢迎指出。
译者注:
阅读全文
译者注:
阅读全文
原文作者简介:Sebastian Ruder 是我非常喜欢的一个博客作者,是 NLP 方向的博士生,目前供职于一家做 NLP 相关服务的爱尔兰公司 AYLIEN,博客主要是写机器学习、NLP 和深度学习相关的文章。
阅读全文
阅读全文译者注:这篇文章是对 PythonWeekly 推荐的一篇讲集成模型的文章的翻译,原文为 Ensemble Learning to Improve Machine Learning Results,由 Vadim Smolyakov 于 2017 年 8 月 22 日发表在 Medium 上,Vadim Smolyakov 是一名 MIT 的研究生。水平有限,如有错误,欢迎评论区或者邮件或者私信指出。建议阅读英文原文。