图书前言

前言

深度学习由著名计算机科学家Geoffrey Hinton等在2006年提出,是基于机器学习延伸出来的一个新领域。它是以神经网络算法为起源,伴随大数据的出现和计算机算力的提升而产生的一系列新的模型与算法。深度学习已成功应用在自然语言处理、语音识别、图像处理与计算机视觉等领域,并在研究与应用上取得了突破性的进展。

人工神经网络是基于生理学的仿真模型,它通过调整其内部大量节点之间的相互连接来达到信息处理的目的,并具有自学习和自适应的能力,是连接主义学派的典型代表。

深度学习的出现基本上解决了一对一映射的问题,因此出现了AlexNet里程碑式的研究成果。但是,单一的深度学习不能解决序列决策问题,强化学习的出现使序列决策问题的解决取得了新的进展。

深度学习利用深度神经网络特有的感知能力对目标的特征进行提取与识别,其卷积核等同于滤波器,从而完成对物体的分类和检测等。深度学习与强化学习融合产生了深度强化学习。深度强化学习结合了深度学习的感知能力和强化学习的决策能力,克服了强化学习只适用于状态为离散而且低维的缺陷,可直接从高维原始数据学习控制策略。但是,深度强化学习过度依赖巨量的训练,并且需要精确的奖赏。然而对于现实世界的很多问题,并没有好的奖赏,也没办法无限量训练,而是需要快速学习的方法。

为了降低深度神经网络模型训练所需的数据量,引入了迁移学习的思想,从而诞生了深度迁移学习技术。深度迁移学习是指利用数据、任务或模型之间的相似性,将在源领域学习过的模型,应用于新领域的一种学习过程。通过将训练好的模型迁移到类似场景,实现只需少量的训练数据就可以达到较好的效果。

元学习是学习的学习,深度元学习面向的不是学习的结果,而是学习的过程。其学习的不是一个直接用于预测的模型,而是学习如何更快更好地学习一个模型。在模型比较中,一个良好的模型能够很好地适应或推广到在训练期间从未遇到过的新任务和新环境,这就是元学习也称为学习的学习的原因。

正在发展中的脉冲神经网络是源于生物启发的新一代人工神经网络模型,属于深度学习的子集,且具有较强的生物基础支撑。脉冲神经网络中的动态神经元不是在每一次迭代传播中都被激活,而是在它的膜电位达到某一个特定值时被激活。当一个神经元被激活时,它将产生一个信号传递给其他神经元,同时提高或降低自身的膜电位。众多学者对深度学习的发展做出了卓越的贡献,他们研发出了卷积神经网络、Transformer模型和深度信念网络等优秀模型,这些模型的出现推动了深度学习的发展。由于篇幅所限,本书仅介绍主要的深度神经网络模型。

大语言模型可以处理多种自然语言任务,如文本分类、问答、翻译等,是通向人工智能的重要途径之一。本书第15章简要介绍了大语言模型的结构与应用。

本书从教材角度构建了内容与体例。全书共15章,分别为概述、前馈神经网络、卷积神经网络、循环神经网络、深度残差神经网络、Transformer模型、生成对抗网络、深度信念网络、胶囊神经网络、自编码器、强化学习、脉冲神经网络、迁移学习、元学习和大语言模型。本书注重基本概念、基本方法、基本模型和基本应用的介绍。如果需要更深入地学习与了解深度学习,可以参考更深入、更全面的有关文献。

本书在结构上呈积木状,各章内容独立论述。由于作者水平有限,书中不足之处在所难免,敬请读者批评指正。

2025年2月