机读格式显示(MARC)
- 010 __ |a 978-7-121-46705-9 |d CNY109.00
- 100 __ |a 20240102d2024 em y0chiy50 ea
- 200 1_ |a 大规模语言模型 |A da gui mo yu yan mo xing |e 从理论到实践 |f 张奇[等]著
- 210 __ |a 北京 |c 电子工业出版社 |d 2024
- 215 __ |a 14,306页 |c 图 |d 24cm
- 225 2_ |a 通用智能与大模型丛书 |A Tong Yong Zhi Neng Yu Da Mo Xing Cong Shu
- 314 __ |a 张奇,复旦大学计算机科学技术学院教授、博士生导师。主要研究方向是自然语言处理和信息检索。兼任中国中文信息学会理事,中国中文信息学会信息检索专委会常务委员,中国人工智能学会青年工作委员会常务委员。桂韬,复旦大学自然语言处理实验室副研究员、硕士生导师。研究领域为预训练模型、信息抽取和鲁棒模型。在高水平国际学术期刊和会议上发表论文40余篇,主持国家自然科学基金、计算机学会、人工智能学会的多个基金项目。郑锐,复旦大学计算机科学技术学院博士生,导师为张奇教授。研究兴趣包括大模型对齐、鲁棒性等。
- 330 __ |a 本书详细介绍了构建大语言模型的四个主要阶段:预训练、有监督微调、奖励建模和强化学习。每个阶段都有算法、代码、数据、难点及实践经验的详细讨论。本书以大语言模型的基础理论开篇,探讨了大语言模型预训练数据的构建方法,以及大语言模型如何理解并服从人类指令,介绍了大语言模型的扩展应用和评估方法,为读者提供了更全面的视野。
- 461 _0 |1 2001 |a 通用智能与大模型丛书
- 606 0_ |a 自然语言处理 |A Zi Ran Yu Yan Chu Li
- 701 _0 |a 张奇 |A zhang qi |4 著
- 701 _0 |a 桂韬 |A gui tao |4 著
- 701 _0 |a 郑锐 |A zheng rui |4 著
- 801 _0 |a CN |b LIB |c 20250701
- 905 __ |a LIB |d TP391/154