數據科學的理論基礎是數學。本書共六章。前三章系統(tǒng)介紹了數據科學里廣泛使用的線性代數、概率論、微積分以及最優(yōu)化理論的相關基礎知識;后三章簡練闡述了網絡分析、量子算法、大模型的基本數學原理和一些代表性算法。書中部分應用案例源自作者的原創(chuàng)性工作,通過發(fā)現問題、分析問題、解決問題的邏輯鏈條,生動展示了數據建模在解決實際問題中的應用路徑。
更多科學出版社服務,請掃碼獲取。
蘭州大學碩士,北京理工大學博士1997年起在鄭州大學工作,2006年破格評為教授,2008年起被聘為博士生導師,2015年起被聘為河南省特聘教授。研究方向為應用數學和數據科學,擅長基于問題驅動的數學研究,在Acta Mater., Appl. Phys. Lett., Info. Sci., J. Stat. Phys., J. Stat. Mech., J. Nonlinear Sci., Phys. Rev. B和Phys. Rev. E.等數學、統(tǒng)計、力學、物理、材料類期刊發(fā)表SCI論文八十多篇,其中《中國科學數學》、《中國科學物理(英文版)》、《中國科學材料(英文版)》各一篇。中國工業(yè)與應用數學學會理事,SCI期刊Discrete and Continuous Dynamical Systems-S編委
目錄
前言
第1章 線性代數 1
1.1 線性代數的基本概念 1
1.1.1 線性空間 1
1.1.2 正交性 4
1.1.3 格拉姆–施密特過程 9
1.1.4 特征值和特征向量 9
1.2 線性回歸 14
1.2.1 QR分解 14
1.2.2 最小二乘問題 15
1.2.3 線性回歸與最小二乘問題的關系 17
1.3 主成分分析 18
1.3.1 奇異值分解 18
1.3.2 低秩矩陣逼近 20
1.3.3 主成分分析方法 21
1.4 習題 26
第2章 概率論 28
2.1 概率分布 28
2.1.1 概率公理 28
2.1.2 條件概率 29
2.1.3 離散型隨機變量 30
2.1.4 連續(xù)型隨機變量 33
2.2 獨立變量和隨機抽樣 36
2.2.1 聯合概率分布 36
2.2.2 相關性和依賴性 39
2.2.3 隨機抽樣 41
2.3 最大似然估計 42
2.3.1 隨機抽樣的最大似然估計 42
2.3.2 最小二乘問題的概率表示 43
2.4 習題 44
第3章 微積分與優(yōu)化 45
3.1 連續(xù)性和導數 45
3.1.1 極限與連續(xù)性 45
3.1.2 導數 47
3.1.3 泰勒定理 54
3.2 無約束最優(yōu)化.56
3.2.1 局部最小值的充分必要條件 56
3.2.2 凸性和全局最小值 59
3.2.3 梯度下降 64
3.3 logistic回歸 65
3.4 k均值 67
3.5 支持向量機 69
3.6 神經網絡 71
3.6.1 數學公式 71
3.6.2 激活函數 73
3.6.3 代價函數 74
3.6.4 反向傳播概念 74
3.6.5 反向傳播算法 75
3.7 習題 76
第4章 網絡分析 77
4.1 圖模型 77
4.2 譜圖二分類 84
4.3 網絡嵌入 89
4.4 基于網絡的流感預測 90
4.4.1 流感及其預測的背景 90
4.4.2 基于空間網絡的數據分析 93
4.4.3 ANN 方法用于預測 97
4.5 基于稀疏識別的材料微觀結構研究 106
4.5.1 材料背景介紹 106
4.5.2 稀疏識別算法 107
4.5.3 模型構建和模型性能 108
4.6 習題.112
第5章 量子計算 114
5.1 基本概念 114
5.1.1 量子比特 114
5.1.2 計算基態(tài) 115
5.1.3 張量積 116
5.2 量子門 117
5.2.1 單量子比特門 117
5.2.2 雙量子比特門 121
5.2.3 多量子比特門 123
5.3 量子測量 125
5.4 量子編碼 126
5.4.1 基態(tài)編碼 126
5.4.2 角度編碼 126
5.4.3 振幅編碼 126
5.5 量子電路 127
5.6 量子算法 128
5.6.1 Deutsch算法 128
5.6.2 Deutsch-Jozsa算法 130
5.7 習題.132
第6章 大模型 133
6.1 基本概念 133
6.1.1 大模型與小模型 133
6.1.2 發(fā)展歷程 133
6.1.3 分類 134
6.2 預訓練與微調 135
6.2.1 預訓練階段 135
6.2.2 微調階段 135
6.3 循環(huán)神經網絡 136
6.3.1 RNN的結構 136
6.3.2 RNN的應用 140
6.4 長短期記憶神經網絡 140
6.4.1 LSTM的結構 140
6.4.2 LSTM的應用 142
6.5 Transformer架構 142
6.5.1 自注意力機制 143
6.5.2 多頭注意力機制 145
6.5.3 位置編碼 146
6.5.4 編碼器 146
6.5.5 解碼器 147
6.5.6 交叉注意力機制 149
6.5.7 Transformer架構的應用 150
6.6 習題 151
參考文獻 152