图书目录

目录

注: 加*号的部分均已电子化,可扫描二维码下载并使用。

第1章绪论

1.1图像工程的发展

1.1.1基本概念和定义

概括

1.1.2图像工程发展情况

回顾

1.2图像理解及相关学科

1.2.1图像理解

1.2.2计算机视觉

1.2.3其他相关学科

1.2.4图像理解的应用领域

1.3图像理解理论框架

1.3.1马尔视觉计算理论

1.3.2对马尔理论框架的

改进

1.3.3关于马尔重建理论

的讨论

1.3.4新理论框架的研究

1.3.5从心理认知出发的

讨论

1.4深度学习简介

1.4.1图像理解中的深度

学习

1.4.2卷积神经网络的基本

概念

1.4.3深度学习核心技术

1.4.4深度学习的应用

1.5内容框架和特点

总结和复习*

随堂测试*

第1单元采 集 表 达

第2章摄像机成像和标定

2.1视觉过程

2.2亮度成像模型

2.2.1光度学和光源

2.2.2从亮度到照度

2.3空间成像模型

2.3.1基本摄像机模型

2.3.2近似投影模式

2.3.3一般摄像机模型

2.3.4透镜畸变

2.3.5通用成像模型

2.4摄像机标定

2.4.1标定方法分类

2.4.2标定程序和参数

2.4.3两级标定法

2.4.4精度提升

2.5在线摄像机外参数标定

方法

2.5.1车道线检测与数据

筛选

2.5.2优化重投影误差

2.6自标定方法

2.7结构光主动视觉系统的

标定

2.7.1投影模型和标定

2.7.2图案分离

2.7.3计算单应性矩阵

2.7.4计算标定参数

总结和复习*

随堂测试*

第3章压缩感知与成像

3.1压缩感知概述

3.2稀疏表达

3.3测量矩阵及特性

3.3.1采样/测量模型

3.3.2测量矩阵特性

3.4解码重构

3.4.1重构原理

3.4.2测量矩阵的校准

3.4.3典型重构算法

3.4.4基于深度学习的重构

算法

3.5稀疏编码与字典学习

3.5.1字典学习与矩阵

分解

3.5.2非负矩阵分解

3.5.3端元提取

3.5.4稀疏编码

3.6压缩感知的成像应用

3.6.1单像素相机

3.6.2压缩感知磁共振

成像

总结和复习*

随堂测试*

第4章深度信息采集

4.1高维图像和成像方式

4.1.1高维图像种类

4.1.2本征图像和非本征

图像

4.1.3深度成像方式

4.2双目成像模式

4.2.1双目横向模式

4.2.2双目会聚横向模式

4.2.3双目轴向模式

4.3深度图像直接采集

4.3.1飞行时间法

4.3.2结构光法

4.3.3莫尔等高条纹法

4.3.4深度和亮度图像同时

采集

4.4显微镜3D分层成像

4.4.1景深和焦距

4.4.2显微镜3D成像

4.4.3共聚焦显微镜3D

成像

4.5等基线多摄像机组

4.5.1图像采集

4.5.2图像合并方法

4.6单摄像机多镜反射折射

系统

4.6.1总体系统结构

4.6.2成像和标定模型

总结和复习*

随堂测试*

第5章3D景物表达

5.1曲线和曲面的局部特征

5.1.1曲线局部特征

5.1.2曲面局部特征

5.23D表面表达

5.2.1参数表达

5.2.2表面朝向表达

5.3等值面的构造和表达

5.3.1行进立方体算法

5.3.2覆盖算法

5.3.3两种算法比较

5.4从并行轮廓插值3D表面

5.53D实体表达

5.5.1基本表达方案

5.5.2广义圆柱体表达

总结和复习*

随堂测试*

第2单元景 物 重 建

第6章双目立体视觉

6.1立体视觉模块

6.2基于区域的双目立体匹配

6.2.1模板匹配

6.2.2立体匹配

6.3基于特征的双目立体匹配

6.3.1基本步骤

6.3.2尺度不变特征

变换

6.3.3加速鲁棒性特征

6.3.4动态规划匹配

6.4基于深度学习的立体匹配

6.4.1方法分类

6.4.2立体匹配网络

6.4.3基于特征级联CNN的

匹配

6.5视差图误差检测与校正

总结和复习*

随堂测试*

第7章多目立体视觉

7.1水平多目立体匹配

7.1.1水平多目图像

7.1.2倒距离

7.2正交三目立体匹配

7.2.1基本原理

7.2.2基于梯度分类的正交

匹配

7.3多目立体匹配

7.3.1任意排列三目立体

匹配

7.3.2正交多目立体匹配

7.4亚像素级视差

7.4.1统计分布模型

7.4.2亚像素级视差计算

总结和复习*

随堂测试*

第8章单目多图像景物恢复

8.1单目景物恢复

8.2光度立体法

8.2.1景物亮度和图像

亮度

8.2.2表面反射特性和

亮度

8.2.3景物表面朝向

8.2.4反射图和亮度约束

方程

8.2.5光度立体法求解

8.3光度立体法进展

8.3.1光源标定

8.3.2非朗伯表面反射

模型

8.3.3彩色光度立体法

8.3.43D重建方法

8.4基于GAN的光度立体法

标定

8.4.1网络结构

8.4.2损失函数

8.5从运动求取结构

8.5.1光流和运动场

8.5.2光流方程求解

8.5.3光流与表面取向

8.5.4光流与相对深度

8.6从分割剪影恢复形状

总结和复习*

随堂测试*

第9章单目单图像景物恢复

9.1单幅图像深度估计

9.1.1有监督学习方法

9.1.2无监督学习方法

9.1.3半监督学习方法

9.2从影调恢复形状

9.2.1影调与形状

9.2.2亮度方程求解

9.3混合表面透视投影下的

SFS

9.3.1改进的Ward反射

模型

9.3.2透视投影下的图像亮度

约束方程

9.3.3图像亮度约束方程

求解

9.3.4基于BlinnPhong反射

模型

9.3.5新图像亮度约束方程

求解

9.4纹理与表面朝向

9.4.1单目成像和畸变

9.4.2由纹理变化恢复

朝向

9.4.3检测线段纹理消

失点

9.4.4确定图像外消

失点

9.5由焦距确定深度

9.6根据三点透视估计位姿

总结和复习*

随堂测试*

第3单元场 景 解 释

第10章知识表达和推理

10.1知识概述

10.2场景知识

10.2.1模型

10.2.2属性超图

10.2.3基于知识的

建模

10.3过程知识

10.4知识表达

10.4.1知识表达要求

10.4.2知识表达类型

10.4.3基本知识表达

方案

10.4.4人工智能中的知识

表达

10.4.5图像理解系统中的

知识模块

10.5逻辑系统

10.5.1谓词演算规则

10.5.2利用定理证明

推理

10.5.3推理方法分类

10.6语义网

10.7产生式系统

总结和复习*

随堂测试*

第11章广义匹配

11.1匹配概述

11.1.1匹配策略和

类别

11.1.2匹配和配准

11.1.3匹配评价

11.2目标匹配

11.2.1对应点匹配

11.2.2字符串匹配

11.2.3惯量等效椭圆

匹配

11.2.4形状矩阵匹配

11.2.5结构匹配和

量度

11.3动态模式匹配

11.4关系匹配

11.5图同构匹配

11.5.1图论简介

11.5.2图同构和匹配

11.6线条图标记和解释

11.6.1轮廓标记

11.6.2结构推理

11.6.3回溯标记

11.7借助匹配实现配准

11.7.1基于特征匹配的异构

遥感图像配准

11.7.2基于空间关系推理的

图像匹配

11.8多模态图像匹配

11.8.1基于区域的

技术

11.8.2基于特征的

技术

总结和复习*

随堂测试*

第12章场景分析和语义解释

12.1场景理解概述

12.2模糊推理

12.2.1模糊集合和模糊

运算

12.2.2模糊推理方法

12.3遗传算法图像解释

12.3.1遗传算法原理

12.3.2语义分割和

解释

12.4场景目标标记

12.5场景分类

12.5.1词袋/特征包

模型

12.5.2pLSA模型

12.5.3LDA模型

12.6遥感图像判读

12.6.1遥感图像判读方法

分类

12.6.2遥感图像判读知识

图谱

12.7混合增强视觉认知

12.7.1从计算机视觉感

知到计算机视觉

认知

12.7.2混合增强视觉认知

相关技术

总结和复习*

随堂测试*

第4单元研 究 示 例

第13章同时定位和制图

13.1SLAM概况

13.1.1激光SLAM

13.1.2视觉SLAM

13.1.3对比和结合

13.2激光SLAM算法

13.2.1Gmapping算法

13.2.2Cartographer

算法

13.2.3LOAM算法

13.3视觉SLAM算法

13.3.1ORBSLAM系列

算法

13.3.2LSDSLAM

算法

13.3.3SVO算法

13.4群体机器人和群体

SLAM

13.4.1群体机器人的

特性

13.4.2群体SLAM要解决

的问题

13.5SLAM的新动向

13.5.1SLAM与深度学习

的结合

13.5.2SLAM与多智能体

的结合

总结和复习*

随堂测试*

第14章多传感器图像信息融合

14.1信息融合概述

14.2图像融合

14.2.1图像融合的主要

步骤

14.2.2图像融合的三个

层次

14.2.3图像融合效果

评价

14.3像素级融合方法

14.3.1基本融合方法

14.3.2融合方法的

结合

14.3.3小波融合时的最佳

分解层数

14.3.4压缩感知图像

融合

14.3.5像素级融合

示例

14.4双能透射和康普顿背散射

融合

14.4.1成像技术的互补性

分析

14.4.2互补融合

14.5高光谱图像空间光谱特征

提取

14.5.1传统高光谱特征

提取方法

14.5.2基于深度学习的

空间光谱特征

提取方法

14.6特征级和决策级融合

方法

14.6.1贝叶斯法

14.6.2证据推理法

14.6.3粗糙集理论法

14.7多源遥感图像融合

14.7.19种多源遥感数

据源

14.7.2多源遥感图像融合

文献

14.7.3遥感图像的空间光谱

融合

14.7.4基于深度循环残差

网络的融合

总结和复习*

随堂测试*

第15章基于内容的图像和视频

检索

15.1图像和视频检索原理

15.2视觉特征的匹配和检索

15.2.1颜色特征匹配

15.2.2纹理特征计算

15.2.3多尺度形状

特征

15.2.4综合特征检索

15.3基于运动特征的视频

检索

15.3.1全局运动特征

15.3.2局部运动特征

15.4基于分层匹配追踪的

检索

15.4.1检索框图

15.4.2单层图像特征

提取

15.4.3多层特征提取和

图像检索

15.4.4结合颜色直

方图

15.5视频节目分析和索引

15.5.1新闻视频结

构化

15.5.2体育比赛视频

排序

15.5.3家庭录像视频

组织

15.6语义分类检索

15.6.1基于视觉关键词的

图像分类

15.6.2高层语义与

气氛

15.7基于深度学习的跨模态

检索

15.7.1跨模态检索技术

分类

15.7.2图像标题自动

生成

15.8图像检索中的哈希

15.8.1有监督哈希

15.8.2非对称监督深度离散

哈希

15.8.3跨模态图像检索中的

哈希

总结和复习*

随堂测试*

第16章时空行为理解

16.1时空技术

16.2时空兴趣点

16.3动态轨迹学习和分析

16.3.1自动场景建模

16.3.2学习路径

16.3.3自动活动分析

16.4动作分类和识别

16.4.1动作分类

16.4.2动作识别

16.5结合姿态和上下文的动作

分类

16.5.1基于姿态模型的动作

分类器

16.5.2基于上下文的动作分

类器

16.6活动和行为建模

16.6.1动作建模

16.6.2活动建模和

识别

16.7主体与动作联合建模

16.7.1单标签主体动作

识别

16.7.2多标签主体动作

识别

16.7.3主体动作语义

分割

16.8基于关节点的行为识别

16.8.1使用CNN作为

主干

16.8.2使用RNN作为

主干

16.8.3使用GCN作为

主干

16.8.4使用混合网络作为

主干

16.9异常事件检测

16.9.1异常事件检测方法

分类

16.9.2基于卷积自编码器块

学习的检测

16.9.3基于单类神经网络的

检测

总结和复习*

随堂测试*

附录A视觉和视知觉

A.1视知觉概述

A.2视觉特性

A.2.1视觉的空间特性

A.2.2视觉的时间特性

A.2.3视觉的亮度特性

A.3形状知觉

A.3.1图形和背景

A.3.2轮廓和主观轮廓

A.3.3几何图形错觉

A.4空间知觉

A.4.1两种空间知觉观

A.4.2非视觉性深度

线索

A.4.3双目深度线索

A.4.4单目深度线索

A.5运动知觉

A.6生物视觉与立体视觉

A.6.1生物视觉和双目

视觉

A.6.2从单目到双目

立体

主题索引

部分思考题和练习题解答*

参考文献*