图书目录

目    录

第1章  高性能注意力与多模态融合 1

1.1  从涌现到飞跃:高性能大模型的崛起 1

1.1.1  大模型的“涌现” 2

1.1.2  大模型的发展历程 3

1.1.3  高性能大模型的崛起 4

1.2  大模型的内功:高性能注意力机制的崛起 5

1.2.1  注意力机制的基本原理 5

1.2.2  注意力机制的变革与发展 6

1.2.3  高性能注意力机制崛起:GQA与MLA 6

1.3  大模型的外拓:多模态融合 7

1.3.1  多模态外拓及其挑战 7

1.3.2  融合策略与技术概览 7

1.3.3  深度学习在多模态融合中的应用场景 9

1.4  高性能注意力与多模态融合的未来展望 10

1.4.1  融合技术的创新方向 11

1.4.2  注意力机制的前沿探索 11

1.5  本章小结 12

第2章  PyTorch深度学习环境搭建 13

2.1  安装Python开发环境 13

2.1.1  Miniconda的下载与安装 13

2.1.2  PyCharm的下载与安装 16

2.1.3  计算softmax函数练习 20

2.2  安装PyTorch 2.0 21

2.2.1  NVIDIA 10/20/30/40系列显卡选择的GPU版本 21

2.2.2  PyTorch 2.0 GPU NVIDIA运行库的安装 21

2.2.3  Hello PyTorch 24

2.3  多模态大模型DeepSeek初探与使用 24

2.3.1  DeepSeek模型简介 25

2.3.2  DeepSeek带来的技术创新 26

2.3.3  DeepSeek的第三方服务与使用示例 27

2.4  本章小结 29

第3章  注意力机制详解之基础篇 30

3.1  注意力机制与模型详解 30

3.1.1  注意力机制详解 31

3.1.2  自注意力(Self-Attention)机制 32

3.1.3  自注意力的代码实现 37

3.1.4  ticks和Layer Normalization 38

3.1.5  多头自注意力 39

3.2  注意力机制的应用实践:编码器 42

3.2.1  自编码器的总体架构 42

3.2.2  回到输入层:初始词向量层和位置编码器层 43

3.2.3  前馈层的实现 46

3.2.4  将多层模块融合的TransformerBlock层 47

3.2.5  编码器的实现 48

3.3  基础篇实战:自编码架构的拼音汉字生成模型 53

3.3.1  汉字拼音数据集处理 54

3.3.2  搭建文本与向量的桥梁—Embedding 56

3.3.3  自编码模型的确定 58

3.3.4  模型训练部分的编写 59

3.4  本章小结 60

第4章  注意力机制详解之进阶篇 62

4.1  注意力机制的第二种形态:自回归架构 62

4.1.1  自回归架构重大突破:旋转位置编码 63

4.1.2  添加旋转位置编码的注意力机制与现有库包的实现 64

4.1.3  新型的激活函数SwiGLU详解 66

4.1.4  “因果掩码”与“错位”输入输出格式详解 67

4.2  进阶篇实战1:无须位置表示的酒店评论情感判断 69

4.2.1  数据集的准备与读取 69

4.2.2  使用sentencepiece建立文本词汇表 70

4.2.3  编码情感分类数据集 71

4.2.4  基于新架构文本分类模型设计 72

4.2.5  情感分类模型的训练与验证 75

4.3  进阶篇实战2:基于自回归模型的酒店评论生成 77

4.3.1  数据集的准备与读取 77

4.3.2  基于自回归文本生成模型的设计 78

4.3.3  评论生成模型的训练 82

4.3.4  使用训练好的模型生成评论 83

4.4  本章小结 83

第5章  注意力机制详解之高级篇 85

5.1  替代前馈层的混合专家模型详解 86

5.1.1  混合专家模型的基本结构 86

5.1.2  混合专家模型中的“专家”与“调控”代码实现 87

5.2  高级篇实战1:基于混合专家模型的情感分类实战 91

5.2.1  基于混合专家模型的MoE评论情感分类实战 91

5.2.2  混合专家模型中负载平衡的实现 94

5.2.3  修正后的MoE门控函数 96

5.3  带有MoE的注意力模型 97

5.3.1  注意力机制中的前馈层不足 98

5.3.2  MoE天然可作为前馈层 101

5.3.3  结合MoE的注意力机制 104

5.4  高级篇实战2:基于通道注意力的图像分类 105

5.4.1  数据集的准备 105

5.4.2  图像识别模型的设计 107

5.4.3  结合通道注意力图像分类模型 108

5.4.4  图像识别模型SENet的训练与验证 110

5.5  高级篇实战3:基于MoE与自注意力的图像分类 111

5.5.1  基于注意力机制的ViT模型 112

5.5.2  Patch和Position Embedding 114

5.5.3  可视化的V-MoE详解 116

5.5.4  V-MoE模型的实现 118

5.5.5  基于图像识别模型V-MoE的训练与验证 119

5.5.6  使用已有的库包实现MoE 121

5.6  本章小结 122

第6章  注意力机制详解之调优篇 124

6.1  注意力模型优化方案讲解 124

6.1.1  注意力模型优化1:MQA模型 125

6.1.2  注意力模型优化2:MLA模型 127

6.1.3  注意力模型优化3:GQA模型 129

6.1.4  注意力模型优化4:差分注意力模型 134

6.2  调优篇实战1:基于MLA的人类语音情感分类 140

6.2.1  情绪数据的获取与标签的说明 140

6.2.2  情绪数据集的读取 141

6.2.3  语音情感分类模型的设计和训练 143

6.3  本章小结 144

第7章  旅游特种兵迪士尼大作战:DeepSeek API调用与高精准路径优化 146

7.1  基于在线API的大模型调用 147

7.1.1  DeepSeek的注册与API获取 147

7.1.2  带有特定格式的DeepSeek的API调用 149

7.1.3  带有约束的DeepSeek的API调用 150

7.2  智能化DeepSeek工具调用详解 153

7.2.1  Python使用工具的基本原理 154

7.2.2  在DeepSeek中智能地使用工具 154

7.2.3  在DeepSeek中选择性地使用工具 157

7.2.4  DeepSeek工具调用判定依据 165

7.3  旅游特种兵迪士尼大作战:DeepSeek高精准路径优化 170

7.3.1  游乐场数据的准备 170

7.3.2  普通大模型的迪士尼游玩求解攻略 173

7.3.3  基于动态规划算法的迪士尼游玩求解攻略 174

7.3.4  基于DeepSeek的旅游特种兵迪士尼大作战 176

7.4  本章小结 178

第8章  广告文案撰写实战:多模态DeepSeek本地化部署与微调 179

8.1  多模态DeepSeek-VL2本地化部署与使用 180

8.1.1  Linux版本DeepSeek-VL2代码下载与图像问答 180

8.1.2  Windows版本DeepSeek-VL2代码下载 182

8.2  广告文案撰写实战1:PEFT与LoRA详解 183

8.2.1  微调的目的:让生成的结果更聚焦于任务目标 183

8.2.2  微调经典方法LoRA详解 185

8.2.3  适配DeepSeek微调的辅助库PEFT详解 187

8.3  广告文案撰写实战2:本地化DeepSeek-VL2微调 190

8.3.1  数据的准备 190

8.3.2  微调模型的训练 192

8.3.3  微调模型的使用与推断 194

8.4  本章小结 196

第9章  注意力与特征融合范式1:Diffusion可控图像生成 197

9.1  Diffusion生成模型精讲 197

9.1.1  Diffusion Model的精讲 198

9.1.2  直接运行的经典DDPM的模型训练实战 199

9.1.3  DDPM的模型基本模块说明 202

9.1.4  DDPM加噪与去噪详解:结合成功运行的扩散模型代码 205

9.1.5  DDPM的损失函数:结合成功运行的Diffusion Model代码 210

9.2  可控图像生成实战:融合特征的注意力机制 211

9.2.1  扩散模型可控生成的基础:特征融合 212

9.2.2  注意力MQA中的可控特征融合 212

9.2.3  基于注意力的扩散模型的设计 214

9.2.4  图像的加噪与模型训练 217

9.2.5  基于注意力模型的可控图像生成 220

9.3  本章小结 223

第10章  注意力与特征融合范式2:多模态图文理解与问答 224

10.1  多模态图文问答实战 224

10.1.1  一种新的多模态融合方案 225

10.1.2  数据集的设计与使用 228

10.1.3  多模态融合数据集的训练 229

10.1.4  多模态图文问答的预测 230

10.2  更多的多模态融合方案 231

10.2.1  一种截断的多模态融合方案 231

10.2.2  截断后多模态模型的训练与预测 234

10.2.3  一种加法基础的多模态融合方案 235

10.3  本章小结 237

第11章  注意力与特征融合范式3:交叉注意力语音转换 239

11.1  端到端语音识别任务简介 239

11.1.1  端到端的语音识别 240

11.1.2  中文语音文本数据集说明 241

11.2  端到端音频特征提取库librosa的使用 243

11.2.1  音频信号的基本读取方法 243

11.2.2  多特征音频抽取 246

11.3  端到端语音识别任务简介 248

11.3.1  全中文音频数据集的准备 248

11.3.2  音频特征的提取与融合 250

11.3.3  基于生成模型的端到端语音识别任务 253

11.3.4  端到端语音识别任务的训练与预测 255

11.4  基于PyTorch的数据处理与音频特征融合 257

11.4.1  THCHS30数据集的处理 257

11.4.2  基于torchaudio的音频预处理 258

11.4.3  基于不同角度的音频特征获取和简单融合 260

11.4.4  关于特征融合的讲解 261

11.5  用于特征融合的交叉注意力 262

11.5.1  交叉注意力详解 262

11.5.2  带有掩码的交叉注意力 265

11.5.3  完整的带有掩码的交叉注意力端到端语音识别 267

11.5.4  基于交叉注意力的端到端语音识别的训练与预测 269

11.5.5  基于连接concat的端到端语音识别模型 269

11.6  本章小结 271

第12章  多模态特征token压缩 272

12.1  图像特征压缩的多种实现 272

12.1.1  Pixel-Shuffle的token压缩 272

12.1.2  Cross-layer Token Fusion压缩 274

12.1.3  AvgPool的token压缩 277

12.2  基于AvgPool与自编码器的语音识别 278

12.2.1  修改后的AvgPool函数 278

12.2.2  自编码器语音识别模型1:数据准备 279

12.2.3  自编码器语音识别模型2:模型设计 280

12.2.4  自编码器语音识别模型3:模型的训练与预测 281

12.3  本章小结 282

第13章  从二维到一维:图像编码器详解与图形重建实战 283

13.1  图像编码器 284

13.1.1  从自然语言处理讲起 284

13.1.2  图像的编码与解码VQ-VAE 285

13.1.3  为什么VQ-VAE采用离散向量 285

13.1.4  VQ-VAE的核心实现 287

13.2  基于VQ-VAE的手写体生成 289

13.2.1  图像的准备与超参数设置 289

13.2.2  VQ-VAE的编码器与解码器 291

13.2.3  VQ-VAE的模型设计 295

13.2.4  VQ-VAE的训练与预测 297

13.2.5  获取编码后的离散token 299

13.3  基于FSQ的人脸生成 300

13.3.1  FSQ算法简介与实现 301

13.3.2  人脸数据集的准备 303

13.3.3  基于FSQ的人脸重建方案 304

13.3.4  基于FSQ的人脸输出与离散token 306

13.4  基于FSQ算法的语音存储 307

13.4.1  无监督条件下的语音存储 307

13.4.2  可作为密码机的离散条件下的语音识别 308

13.5  本章小结 309

第14章  基于PyTorch的端到端视频分类实战 310

14.1  视频分类数据集的准备 310

14.1.1  HMDB51数据集的准备 311

14.1.2  视频抽帧的处理 312

14.1.3  基于PyTorch的数据输入 314

14.2  注意力视频分类实战 315

14.2.1  对于视频的Embedding编码器 316

14.2.2  视频分类模型的设计 317

14.2.3  视频分类模型的训练与验证 320

14.3  使用预训练模型的视频分类 321

14.3.1  torchvision简介 321

14.3.2  基于torchvision的端到端视频分类实战 324

14.4  本章小结 326

第15章  基于DeepSeek的跨平台智能客服开发实战 328

15.1  智能客服的设计与基本实现 328

15.1.1  智能客服搭建思路 329

15.1.2  商品介绍数据的格式与说明 329

15.1.3  基于DeepSeek的智能客服设计 334

15.2  带有跨平台客户端的智能客服开发实战 337

15.2.1  跨平台客户端Gradio使用详解 337

15.2.2  一个简单的Gradio示例 343

15.2.3  基于DeepSeek的跨平台智能客服实现 343

15.3  本章小结 346