MARC状态:订购 文献类型:中文图书 浏览次数:1
- 题名/责任者:
- BERT基础教程:Transformer大模型实战/(印) 苏达哈尔桑·拉维昌迪兰著 周参译
- 出版发行项:
- 北京:人民邮电出版社,2023.02
- ISBN及定价:
- 978-7-115-60372-2/CNY89.80
- 载体形态项:
- 266页:图;23cm
- 其它题名:
- Transformer大模型实战
- 个人责任者:
- 拉维昌迪兰 (Ravichandiran, Sudharsan) 著
- 个人次要责任者:
- 周参 译
- 学科主题:
- 自然语言处理
- 中图法分类号:
- TP391
- 出版发行附注:
- 由Packt Publishing授权出版
- 责任者附注:
- 苏达哈尔桑·拉维昌迪兰, 热爱开源社区的数据科学家, 研究方向为深度学习和强化学习的实际应用, 在自然语言处理和计算机视觉等领域都颇有建树。周参, 就职于谷歌, 任软件工程师, 研究方向为自然语言处理。
- 提要文摘附注:
- 本书聚焦谷歌公司开发的BERT自然语言处理模型, 由浅入深地介绍了BERT的工作原理、BERT的各种变体及其应用。本书呈现了大量示意图、代码和实例, 详细解析了如何训练BERT模型、如何使用BERT模型执行自然语言推理任务、文本摘要任务、问答任务、命名实体识别任务等各种下游任务, 以及如何将BERT模型应用于多种语言。
全部MARC细节信息>>