TOP TOP
一键检索,随时阅读,随时收藏 登录 注册
My JSP 'login_div.jsp' starting page
引导绑定成员馆

注册成功!

绑定图书馆后将获得以下功能

  • 1.向绑定的图书馆荐购图书
  • 2.查看图书在图书馆的馆藏信息
  • 3.借阅图书馆的电子书并下载到移动端进行全文阅读
展开引导图▼

GPT图解(大模型是怎样构建的)

作者:黄佳
责编:蒋艳

ISBN:9787115623683

单价:79.8

出版年月:2023-12-01 00:00:00.0

出版社:人民邮电出版社

币制:CNY

图书分类:科学技术

分类号: TP18-64

语种:CHI

页数:254

装帧:平装

开本:16开

读者对象:本书适用于人工智能从业者

展开▼

评分:0.0

(本馆/总:0/0人荐购)

目录

序章 看似寻常最奇崛,成如容易却艰辛
GPT-4:点亮人工通用智能的火花
人工智能演进之路:神经网络两落三起
现代自然语言处理:从规则到统计
何为语言?信息又如何传播?
NLP是人类和计算机沟通的桥梁
NLP技术的演进史
大规模预训练语言模型:BERT与GPT争锋
语言模型的诞生和进化
统计语言模型的发展历程
基于Transformer架构的预训练模型
“预训练+微调大模型”的模式
以提示指令模式直接使用大模型
从初代GPT到ChatGPT,再到GPT-
GPT作为生成式模型的天然优势
ChatGPT背后的推手——OpenAI
从初代GPT到ChatGPT,再到GPT-4的进化史
第1课 高楼万丈平地起:语言模型的雏形N-Gram和简单文本表示Bag-of-Words
1.1 N-Gram模型
1.2 “词”是什么,如何“分词”
1.3 创建一个Bigram字符预测模型
1.4 词袋模型
1.5 用词袋模型计算文本相似度
小结
思考
第2课 问君文本何所似:词的向量表示Word2Vec和Embedding
2.1 词向量≈词嵌入
2.2 Word2Vec:CBOW模型和Skip-Gram模型
2.3 Skip-Gram模型的代码实现
2.4 CBOW模型的代码实现
2.5 通过nn.Embedding来实现词嵌入
小结
思考
第3课 山重水复疑无路:神经概率语言模型和循环神经网络
3.1 NPLM的起源
3.2 NPLM的实现
3.3 循环神经网络的结构
3.4 循环神经网络实战
小结
思考
第4课 柳暗花明又一村:Seq2Seq编码器-解码器架构
4.1 Seq2Seq架构
4.2 构建简单Seq2Seq架构
小结
思考
第5课 见微知著开慧眼:引入注意力机制
5.1 点积注意力
5.2 缩放点积注意力
5.3 编码器-解码器注意力
5.4 注意力机制中的Q、K、V
5.5 自注意力
5.6 多头自注意力
5.7 注意力掩码
5.8 其他类型的注意力
小结
思考
第6课 层峦叠翠上青天:搭建GPT核心组件Transformer
6.1 Transformer架构剖析
6.1.1 编码器-解码器架构
6.1.2 各种注意力的应用
6.1.3 编码器的输入和位置编码
6.1.4 编码器的内部结构
6.1.5 编码器的输出和编码器-解码器的连接
6.1.6 解码器的输入和位置编码
6.1.7 解码器的内部结构
6.1.8 解码器的输出和Transformer的输出头
6.2 Transformer代码实现
6.3 完成翻译任务
6.3.1 数据准备
6.3.2 训练Transformer模型
6.3.3 测试Transformer模型
小结
思考
第7课 芳林新叶催陈叶:训练出你的简版生成式GPT
7.1 BERT与GPT争锋
7.2 GPT:生成式自回归模型
7.3 构建GPT模型并完成文本生成任务
7.3.1 搭建GPT模型(解码器)
7.3.2 构建文本生成任务的数据集
7.3.3 训练过程中的自回归
7.3.4 文本生成中的自回归(贪婪搜索)
7.4 使用WikiText2数据集训练Wiki-GPT模型
7.4.1 用WikiText2构建Dataset和DataLoader
7.4.2 用DataLoader提供的数据进行训练
7.4.3 用Evaluation Dataset评估训练过程
7.4.4 文本生成中的自回归(集束搜索)
小结
思考
第8课 流水后波推前波:ChatGPT基于人类反馈的强化学习
8.1 从GPT到ChatGPT
8.2 在Wiki-GPT基础上训练自己的简版ChatGPT
8.3 用Hugging Face预训练GPT微调ChatGPT
8.4 ChatGPT的RLHF实战
8.4.1 强化学习基础知识
8.4.2 简单RLHF实战
小结
思考
第9课 生生不息的循环:使用强大的GPT-4 API
9.1 强大的OpenAI API
9.2 使用GPT-4 API
小结
思考
后记 莫等闲,白了少年头

展开▼

内容简介

人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2S),注意力机制,Transformer,从初代GPT到ChatGPT再到GPT-4等一系列突破性技术的诞生与演进。 本书将以生动活泼的笔触,将枯燥的技术细节化作轻松幽默的故事和缤纷多彩的图画,引领读者穿梭于不同技术的时空,见证自然语言处理技术的传承、演进与蜕变。在这场不断攀登技术新峰的奇妙之旅中,读者不仅能深入理解自然语言处理技术的核心原理,还能自己动手,从零开始搭建起一个又一个语言模型。 无论你是在校学生还是人工智能从业者,这本书都将成为一盏明灯,照亮你探索人工智能无限奥秘的道路。

展开▼

作者简介

黄佳,人称咖哥,埃森哲公司资深顾问,在IT界耕耘近二十载,自诩为一朵有“后浪”心态的“前浪”。为人谦虚,好学,有时也好为人师。曾撰写一系列SAPERP书籍,启蒙了大批中国早期ABAP技术人才。近年来投身数据科学、人工智能及云计算领域,愿将自己的所学所感与大家分享。

展开▼

相关图书

荐购本书

推荐等级:

确定 取消

加入书架:修改

确定 取消

加入书架:我想读这本书

确定 取消

分类:创建分类

确定 取消

分类:修改分类

确定 取消

分类:修改分类

确定 取消

个人笔记:我要写笔记

确定 取消

all rights reserved Powered by 浙江省新华书店集团有限公司 杭州爱书得科技有限公司()
浙B2-20110302号 馆员登录

置顶