游客,欢迎您!
登录
注册
您的建议
0
高级检索
全部
题名
ISBN
作者
出版社
客户端下载
个人中心
学科
哲学
哲学
经济学
理论经济学
应用经济学
法学
法学
政治学
社会学
民族学
马克思主义理论
公安学
教育学
教育学
心理学
体育学
文学
中国语言文学
外国语言文学
新闻传播学
历史学
考古学
中国史
世界史
理学
数学
物理学
化学
天文学
地理学
大气科学
海洋科学
地球物理学
地质学
生物学
系统科学
科学技术史
生态学
统计学
工学
力学
机械工程
光学工程
仪器科学与技术
材料科学与工程
冶金工程
动力工程及工程热物理
电气工程
电子科学与技术
信息与通信工程
控制科学与工程
计算机科学与技术
建筑学
土木工程
水利工程
测绘科学与技术
化学工程与技术
地质资源与地质工程
矿业工程
石油与天然气工程
纺织科学与工程
轻工技术与工程
交通运输工程
船舶与海洋工程
航空宇航科学与技术
兵器科学与技术
核科学与技术
农业工程
林业工程
环境科学与工程
生物医学工程
食品科学与工程
城乡规划学
风景园林学
软件工程
生物工程
安全科学与工程
公安技术
农学
作物学
园艺学
农业资源利用
植物保护
畜牧学
兽医学
林学
水产
草学
医学
基础医学
临床医学
口腔医学
公共卫生与预防医学
中医学
中西医结合
药学
中药学
特种医学
医学技术
护理学
军事学
军事思想及军事历史
战略学
战役学
战术学
军队指挥学
军制学
军队政治工作学
军事后勤学与军事装备学
军事装备学
军事训练学
管理学
管理科学与工程
工商管理
农林经济管理
公共管理
图书馆、情报与档案管理
艺术学
艺术学理论
音乐与舞蹈学
戏剧与影视学
美术学
设计学
中图法
A 马克思主义、列宁主义、毛泽东思想、邓小平理论
B 哲学、宗教
哲学理论
C 社会科学总论
社会学
D 政治、法律
政治理论
E 军事
军事理论
、
世界军事
F 经济
经济学
、
农业经济
G 文化、科学、教育、体育
H 语言、文字
语言学
、
汉语
I 文学
文学理论
、
世界文学
J 艺术
艺术理论
、
摄影艺术
K 历史、地理
史学理论
N 自然科学总论
系统科学
O 数理科学和化学
数学
P 天文学、地球科学
天文学
Q 生物科学
植物学
、
动物学
R 医药、卫生
医学研究方法
S 农业科学
农业经济
、
园艺
T 工业技术
工业技术理论
U 交通运输
交通运输经济
V 航空、航天
航空、航天医学
X 环境科学、安全科学
Z 综合性图书
丛书
、
辞典
首页
新书专区
专题推荐
排行榜
数字资源平台
>
工学
>
控制科学与工程
>
模式识别与智能系统
>
破解深度学习:模型算法与实现.基础篇
阅读次数:
20
下载次数:
3
荐购次数:
0
收藏次数:
2
破解深度学习:模型算法与实现.基础篇
作者:
瞿炜
,
李力
,
杨洁
著
出版社:
人民邮电出版社
出版时间:
2024.10
ISBN:
978-7-115-64619-4
主题:
机器学习
中图法分类号:
TP181
【中图法分类】
T 工业技术
>
TP自动化技术、计算机技术
>
TP1自动化基础理论
【学科分类】
工学
>
控制科学与工程
>
模式识别与智能系统
交叉学科
>
智能科学与技术(可授理学、工学学位)
工学
>
电子信息
>
人工智能
建议阅读终端:
扫描用手机阅读此书支持Android/iPhone
在线试读
EPUB格式
下载
EPUB下载
分享到
新浪微博
QQ空间
豆瓣网
注:如果您的电脑尚未安装PC客户端,请先
安装客户端
后再下载阅读!
编辑推荐
简介
目录
评论
暂无推荐
简介
本书旨在采用一种符合读者认知角度且能提升其学习效率的方式来讲解深度学习背后的基础知识。本书总计9章,深入浅出地介绍了深度学习的理论与算法基础,从理论到实战全方位展开。前三章旨在帮助读者快速入门,介绍了必要的数学概念和代码工具的使用。后六章沿着深度学习的发展脉络,从最简单的多层感知机开始,讲解了深度神经网络的基本原理、常见问题、优化算法,以及三大典型模型(卷积神经网络、循环神经网络和注意力神经网络)。
目录
封面
版权页
版 权
内 容 提 要
作者简介
前 言
资源与支持
第1章 欢迎来到深度学习的世界
1.1 什么是深度学习
1.2 主要核心模型
1.2.1 卷积神经网络
1.2.2 循环神经网络
1.2.3 注意力机制
1.2.4 深度生成模型
1.2.5 小结
1.3 研究和应用领域
1.3.1 计算机视觉
1.3.2 语音技术
1.3.3 自然语言处理
1.3.4 多模态融合
1.3.5 小结
1.4 使用的技术栈
1.4.1 编程语言
1.4.2 深度学习框架
1.4.3 数据集
1.4.4 代码编辑器
1.4.5 项目IDE
1.4.6 小结
第2章 必要的数学预备知识
2.1 线性代数
2.1.1 学人工智能为什么要学线性代数
2.1.2 线性代数名字的由来
2.1.3 线性代数的本质作用
2.1.4 学线性代数为何总强调几何意义
2.1.5 标量
2.1.6 向量
2.1.7 矩阵
2.1.8 张量
2.1.9 小结
2.2 微积分
2.2.1 极限
2.2.2 导数
2.2.3 微分
2.2.4 偏导数
2.2.5 梯度
2.2.6 链式法则
2.2.7 小结
2.3 概率统计
2.3.1 什么是概率
2.3.2 概率和统计
2.3.3 贝叶斯定理
2.3.4 最大似然估计
2.3.5 小结
第3章 环境安装和工具使用
3.1 配置深度学习环境
3.1.1 CUDA简介
3.1.2 显卡驱动
3.1.3 安装CUDA
3.1.4 安装Anaconda
3.1.5 小结
3.2 conda实用命令
3.2.1 Anaconda 图形化界面介绍
3.2.2 conda的命令行操作
3.2.3 小结
3.3 Jupyter Notebook快速上手
3.3.1 Jupyter Notebook的安装与运行
3.3.2 常用配置项
3.3.3 快捷键
3.3.4 Markdown语法
3.3.5 小结
3.4 安装深度学习框架PyTorch
3.4.1 PyTorch、CUDA与NVIDIA
3.4.2 安装PyTorch
3.4.3 验证安装是否成功
3.4.4 小结
第4章 深度神经网络:误差倒查分解
4.1 神经网络原理
4.1.1 神经元模型
4.1.2 神经网络结构
4.1.3 损失函数
4.1.4 反向传播
4.1.5 小结
4.2 多层感知机
4.2.1 线性模型的局限
4.2.2 多层感知机模型
4.2.3 激活函数
4.2.4 小结
4.3 前向传播和反向传播
4.3.1 前向传播
4.3.2 反向传播
4.3.3 小结
4.4 多层感知机代码实现
4.4.1 搭建神经网络的步骤
4.4.2 代码实现
4.4.3 小结
4.5 回归问题
4.5.1 一元线性回归
4.5.2 多元线性回归
4.5.3 多项式回归
4.5.4 简单理解梯度下降
4.5.5 代码实现
4.5.6 小结
4.6 分类问题
4.6.1 多分类问题的数学表示
4.6.2 Softmax回归
4.6.3 对数损失函数
4.6.4 交叉熵损失函数
4.6.5 代码实现
4.6.6 小结
第5章 常见挑战及对策:一切为了泛化能力
5.1 训练问题分析
5.1.1 模型架构设计
5.1.2 过拟合与欠拟合
5.1.3 代码实现
5.1.4 小结
5.2 过拟合欠拟合应对策略
5.2.1 数据集选择
5.2.2 模型选择
5.2.3 训练策略选择
5.2.4 小结
5.3 正则化
5.3.1 正则化定义
5.3.2 L1正则化
5.3.3 L2正则化
5.3.4 范数惩罚
5.3.5 权重衰减
5.3.6 小结
5.4 Dropout方法及代码实现
5.4.1 基本原理
5.4.2 直观解释
5.4.3 优缺点分析
5.4.4 代码实现
5.4.5 小结
5.5 梯度消失和梯度爆炸
5.5.1 根源分析
5.5.2 梯度消失
5.5.3 梯度爆炸
5.5.4 解决办法
5.5.5 小结
5.6 模型文件的读写
5.6.1 张量的保存和加载
5.6.2 模型参数的保存和加载
5.6.3 小结
第6章 梯度下降算法及变体:高效求解模型参数
6.1 为什么要学最优化
6.1.1 深度学习的最优化
6.1.2 训练误差和泛化误差
6.1.3 常见的优化挑战
6.1.4 小结
6.2 损失函数及其性质
6.2.1 起源和重要性
6.2.2 最大似然估计
6.2.3 最大后验
6.2.4 贝叶斯估计
6.2.5 损失函数的性质
6.2.6 小结
6.3 梯度下降算法
6.3.1 搜索逼近策略
6.3.2 梯度
6.3.3 偏导数链式法则
6.3.4 学习率
6.3.5 梯度下降算法
6.3.6 小结
6.4 梯度下降算法的各种变体
6.4.1 加速版改进:随机梯度下降法
6.4.2 折中版改进:小批量随机梯度下降法
6.4.3 一阶动量改进版:动量法
6.4.4 二阶动量改进版:AdaGrad算法
6.4.5 自动调整学习率:RMSProp和AdaDelta算法
6.4.6 自适应动量:Adam算法
6.4.7 算法大串联及讨论
6.4.8 小结
6.5 梯度下降算法代码实现
6.5.1 梯度下降过程
6.5.2 不同优化器效果对比
6.5.3 小结
6.6 学习率调节器
6.6.1 简介
6.6.2 常见的学习率调节器
6.6.3 代码实现
6.6.4 模型训练对比
6.6.5 常见学习率调节器的实现
6.6.6 小结
第7章 基础卷积神经网络:图像处理利器
7.1 为什么要用卷积神经网络
7.1.1 全连接层的问题
7.1.2 多层感知机的局限
7.1.3 解决思路
7.1.4 小结
7.2 图像卷积
7.2.1 卷积
7.2.2 图像卷积
7.2.3 互相关运算
7.2.4 小结
7.3 卷积层
7.3.1 网络结构
7.3.2 感受野
7.3.3 与全连接层的区别
7.3.4 小结
7.4 卷积层常见操作
7.4.1 填充
7.4.2 步长
7.4.3 卷积常见参数关系
7.4.4 多通道卷积
7.4.5 分组卷积
7.4.6 小结
7.5 池化层
7.5.1 卷积神经网络典型结构
7.5.2 最大池化和平均池化
7.5.3 池化层特点
7.5.4 小结
7.6 卷积神经网络代码实现
7.6.1 LeNet简介
7.6.2 代码实现
7.6.3 模型训练
7.6.4 小结
第8章 基础循环神经网络:为序列数据而生
8.1 序列建模
8.1.1 序列数据
8.1.2 序列模型
8.1.3 小结
8.2 文本数据预处理
8.2.1 预处理流程
8.2.2 去除噪声
8.2.3 分词
8.2.4 去除停用词
8.2.5 标准化
8.2.6 词表
8.2.7 特征提取
8.2.8 小结
8.3 循环神经网络
8.3.1 核心思想
8.3.2 展开计算图
8.3.3 RNN结构
8.3.4 训练模式
8.3.5 小结
8.4 RNN的反向传播
8.4.1 沿时间反向传播
8.4.2 参数梯度
8.4.3 小结
8.5 时间序列数据预测
8.5.1 数据集准备
8.5.2 构建模型
8.5.3 小结
8.6 编解码器思想及Seq2Seq模型
8.6.1 编解码器思想
8.6.2 序列到序列学习
8.6.3 编码器
8.6.4 解码器
8.6.5 模型训练
8.6.6 束搜索算法
8.6.7 小结
8.7 Seq2Seq模型代码实现
8.7.1 模型架构
8.7.2 Seq2Seq模型简单实现
8.7.3 小结
第9章 注意力神经网络:赋予模型认知能力
9.1 注意力机制的原理
9.1.1 生物学中的注意力
9.1.2 深度学习中的注意力机制
9.1.3 编解码器思想和注意力机制的结合
9.1.4 注意力的计算
9.1.5 全局注意力、局部注意力和自注意力
9.1.6 注意力机制与Transformer
9.1.7 注意力机制的应用
9.1.8 小结
9.2 复杂注意力机制
9.2.1 经典注意力机制计算的局限性
9.2.2 键值对注意力
9.2.3 多头注意力
9.2.4 自注意力
9.2.5 小结
9.3 注意力池化及代码实现
9.3.1 注意力可视化
9.3.2 注意力池化
9.3.3 小结
9.4 Transformer模型
9.4.1 模型结构
9.4.2 编码器结构
9.4.3 多头自注意力层
9.4.4 位置嵌入
9.4.5 残差结构
9.4.6 解码器
9.4.7 编解码器的协同工作
9.4.8 线性层和Softmax层
9.4.9 优缺点
9.4.10 小结
9.5 Transformer模型的代码实现
9.5.1 任务数据
9.5.2 Transformer模型
9.5.3 小结
封底
展开 ∨
评论
评分:
1
2
3
4
5
评价:
请输入评论信息
5
0
/255
我要评论
全部评论(0)
默认排序
默认排序
最新排序
相关推荐
零基础开发AI Agent:手把手教你用扣子做智能体
叶涛,管锴,张心雨著
Sora革命:重塑人工智能
林富荣编著
人工智能关键技术的应用与发展研究
黄飞挺,赵盛萍著
如何教人工智能说人话?
徐英瑾著
具身智能
刘志毅著
具身智能:从虚拟AI到现实AI
杜雨,张孜铭著
大模型与超级平台
段永朝主编
基于微粒群的神经网络预测控制理论及应用
韩敏编著
AI Agent应用与项目实战
唐宇迪,尹泽明主编
大模型实战:微调、优化与私有化部署
庄建等著
请输入图形验证码
换一换
Loading...