机读格式显示(MARC)
- 010 __ |a 978-7-115-64440-4 |d CNY59.80
- 099 __ |a CAL 012024117846
- 100 __ |a 20240828e20252024em y0chiy50 ea
- 200 1_ |a MindSpore大语言模型实战 |A Mindspore Da Yu Yan Mo Xing Shi Zhan |f 陈雷编著
- 210 __ |a 北京 |c 人民邮电出版社 |d 2024 |h 2025重印
- 215 __ |a 161页 |c 图 |d 26cm
- 225 2_ |a MindSpore计算与应用丛书 |A Mindspore Ji Suan Yu Ying Yong Cong Shu
- 330 __ |a 本书通过深入的实践和以MindSpore为实现框架的引导,全面剖析当前大模型的基础原理,涵盖诸如Transformer、预训练与微调等关键概念,协助读者深入了解大模型的实现路径和关键技术,使读者能够迅速、熟练地将大模型应用于实际项目中。在当今AI领域,随着如ChatGPT等大模型的迅猛发展,大模型已经成为AI领域发展的快车道,不同领域涌现出各种强大的大模型。对于开发者来说,除了惊叹于大模型展示出的强大能力,更为关键的是理解大模型的实现框架和基础原理,并能够独立构建、部署符合自身需求的大模型。本书首先详细讲解Transformer的基本原理、架构及实现方法;然后介绍由Encoder-Only到Decoder-Only的技术路线发展过程中对应的BERT、GPT等大模型;接下来介绍大模型在部署、训练、调优过程中涉及的各种关键的技术,如自动并行、预训练与微调、RLHF等,并提供相应的实践指导;最后以开源大模型BLOOM、LLaMA为样例介绍整个架构和实现过程,帮助读者理解并构建、部署自己的大模型。
- 333 __ |a 本书适合人工智能、智能科学与技术、计算机科学与技术人员
- 410 _0 |1 2001 |a MindSpore计算与应用丛书
- 606 0_ |a 自然语言处理 |A Zi Ran Yu Yan Chu Li
- 701 _0 |a 陈雷 |A Chen Lei |4 编著
- 801 _0 |a CN |b SEU |c 20241021
- 905 __ |a XATU |d TP391/380