| 暂存书架(0) | 登录

MARC状态:订购 文献类型:中文图书 浏览次数:1

题名/责任者:
BERT基础教程:Transformer大模型实战/(印) 苏达哈尔桑·拉维昌迪兰著 周参译
出版发行项:
北京:人民邮电出版社,2023.02
ISBN及定价:
978-7-115-60372-2/CNY89.80
载体形态项:
266页:图;23cm
并列正题名:
Getting started with google bert
其它题名:
Transformer大模型实战
个人责任者:
拉维昌迪兰 (Ravichandiran, Sudharsan)
个人次要责任者:
周参
学科主题:
自然语言处理
中图法分类号:
TP391
出版发行附注:
由Packt Publishing授权出版
责任者附注:
苏达哈尔桑·拉维昌迪兰, 热爱开源社区的数据科学家, 研究方向为深度学习和强化学习的实际应用, 在自然语言处理和计算机视觉等领域都颇有建树。周参, 就职于谷歌, 任软件工程师, 研究方向为自然语言处理。
提要文摘附注:
本书聚焦谷歌公司开发的BERT自然语言处理模型, 由浅入深地介绍了BERT的工作原理、BERT的各种变体及其应用。本书呈现了大量示意图、代码和实例, 详细解析了如何训练BERT模型、如何使用BERT模型执行自然语言推理任务、文本摘要任务、问答任务、命名实体识别任务等各种下游任务, 以及如何将BERT模型应用于多种语言。
全部MARC细节信息>>
此书刊没有复本
此书刊可能正在订购中或者处理中
显示全部馆藏信息
借阅趋势

同名作者的其他著作(点击查看)
-->
姓名:
手机号:
送 书 地:
收藏到: 管理书架