GPT圖解

GPT圖解 pdf epub mobi txt 电子书 下载 2025

黃佳
圖書標籤:
想要找书就要到 求知書站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!
序章 看似寻常最奇崛,成如容易却艰辛 001
GPT-4:点亮人工通用智能的火花 002
人工智能演进之路:神经网络两落三起 004
现代自然语言处理:从规则到统计 007
何为语言?信息又如何传播? 008
NLP是人类和计算机沟通的桥梁 009
NLP技术的演进史 010
大规模预训练语言模型:BERT与GPT争锋 012
语言模型的诞生和进化 012
统计语言模型的发展历程 014
基于Transformer架构的预训练模型 016
“预训练+微调大模型”的模式 018
以提示/指令模式直接使用大模型 019
从初代GPT到ChatGPT,再到GPT-4 021
GPT作为生成式模型的天然优势 022
ChatGPT背后的推手——OpenAI 023
从初代GPT到ChatGPT,再到GPT-4的进化史 024
第1课 高楼万丈平地起:语言模型的雏形N-Gram和简单文本表示Bag-of-Words 026
1.1 N-Gram模型 026
1.2 “词”是什么,如何“分词” 030
1.3 创建一个Bigram字符预测模型 032
1.4 词袋模型 036
1.5 用词袋模型计算文本相似度 037
小结 042
思考 043
第2课 问君文本何所似: 词的向量表示Word2Vec和Embedding 044
2.1 词向量 ≈ 词嵌入 045
2.2 Word2Vec:CBOW模型和Skip-Gram模型 047
2.3 Skip-Gram模型的代码实现 050
2.4 CBOW模型的代码实现 061
2.5 通过nn.Embedding来实现词嵌入 063
小结 067
思考 068
第3课 山重水复疑无路:神经概率语言模型和循环神经网络 069
3.1 NPLM的起源 070
3.2 NPLM的实现 072
3.3 循环神经网络的结构 079
3.4 循环神经网络实战 082
小结 086
思考 087
第4课 柳暗花明又一村:Seq2Seq编码器-解码器架构 088
4.1 Seq2Seq架构 089
4.2 构建简单Seq2Seq架构 092
小结 103
思考 103
第5课 见微知著开慧眼:引入注意力机制 104
5.1 点积注意力 105
5.2 缩放点积注意力 114
5.3 编码器-解码器注意力 116
5.4 注意力机制中的Q、K、V 122
5.5 自注意力 125
5.6 多头自注意力 126
5.7 注意力掩码 129
5.8 其他类型的注意力 131
小结 132
思考 132
第6课  层峦叠翠上青天:搭建GPT核心组件Transformer 133
6.1 Transformer架构剖析 133
6.1.1 编码器-解码器架构 135
6.1.2 各种注意力的应用 135
6.1.3 编码器的输入和位置编码 140
6.1.4 编码器的内部结构 141
6.1.5 编码器的输出和编码器-解码器的连接 142
6.1.6 解码器的输入和位置编码 143
6.1.7 解码器的内部结构 145
6.1.8 解码器的输出和Transformer的输出头 146
6.2 Transformer代码实现 148
6.3 完成翻译任务 176
6.3.1 数据准备 177
6.3.2 训练Transformer模型 179
6.3.3 测试Transformer模型 179
小结 181
思考 182
第7课 芳林新叶催陈叶:训练出你的简版生成式GPT 183
7.1 BERT与GPT争锋 184
7.2 GPT:生成式自回归模型 188
7.3 构建GPT模型并完成文本生成任务 191
7.3.1 搭建GPT模型(解码器)    192
7.3.2 构建文本生成任务的数据集    195
7.3.3 训练过程中的自回归    198
7.3.4 文本生成中的自回归(贪婪搜索)    200
7.4 使用WikiText2数据集训练Wiki-GPT模型 201
7.4.1 用WikiText2构建Dataset和DataLoader    202
7.4.2 用DataLoader提供的数据进行训练    206
7.4.3 用Evaluation Dataset评估训练过程    207
7.4.4 文本生成中的自回归(集束搜索)    209
小结 212
思考 213
第8课 流水后波推前波:ChatGPT基于人类反馈的强化学习 214
8.1 从GPT到ChatGPT 215
8.2 在Wiki-GPT基础上训练自己的简版ChatGPT 218
8.3 用Hugging Face预训练GPT微调ChatGPT 225
8.4 ChatGPT的RLHF实战 233
8.4.1 强化学习基础知识    235
8.4.2 简单RLHF实战    237
小结 243
思考 244
第9课 生生不息的循环:使用强大的GPT-4 API 245
9.1 强大的OpenAI API 245
9.2 使用GPT-4 API 249
小结 251
思考 252
后 记 莫等闲,白了少年头 253
· · · · · · (收起)

具体描述

人工智能(AI),尤其是生成式語言模型和生成式人工智能(AIGC)模型,正以驚人的速度改變著我們的世界。駕馭這股潮流的關鍵,莫過於探究自然語言處理(NLP)技術的深奧秘境。本書將帶領讀者踏上一段扣人心弦的探索之旅,讓其親身感受,並動手搭建語言模型。本書主要內容包括N-Gram,詞袋模型(BoW),Word2Vec(W2V),神經概率語言模型(NPLM),循環神經網絡(RNN),Seq2Seq(S2S),注意力機製,Transformer,從初代GPT到ChatGPT再到GPT-4等一係列突破性技術的誕生與演進。

本書將以生動活潑的筆觸,將枯燥的技術細節化作輕鬆幽默的故事和繽紛多彩的圖畫,引領讀者穿梭於不同技術的時空,見證自然語言處理技術的傳承、演進與蛻變。在這場不斷攀登技術新峰的奇妙之旅中,讀者不僅能深入理解自然語言處理技術的核心原理,還能自己動手,從零開始搭建起一個又一個語言模型。

無論你是在校學生還是人工智能從業者,這本書都將成為一盞明燈,照亮你探索人工智能無限奧秘的道路。

用户评价

评分

评分

评分

##如果看过咖哥的其它书, 对于他的文风应该会有所了解, 我读过他所著的《数据分析咖哥十话》, 所以开篇就是满目的熟悉感. 那些文学味很浓的画龙点睛的标题, 以及浅显的方式讲述复杂技术的详细内容, 都能吸引我! 技术书以这样的方式呈现背后一定是个有趣的灵魂!! 大家何不一睹为快啊!

评分

##之前看过黄佳的数据分析书,觉得属于深入浅出且图文并茂,很符合我的口味。现在又出了一本书,算是GPT的前因后果大剖析,从GPT的前世今生都给我们介绍了。对于我学习AI有一种见树木又见森林的感觉。我觉得如果你想入门,了解GPT的发展,这本书不容错过。

评分

评分

评分

##书的封面很好看,看到第一眼就被封面上的小人吸引了,好奇书里的内容,买回来发现确实是我想要的图解书了。图书内容也是轻松易读,感觉很不错呢

评分

评分

本站所有內容均為互聯網搜索引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 tushu.tinynews.org All Rights Reserved. 求知書站 版权所有