發表於2024-12-23
全麵討論機器學習方法和技術,層次閤理、敘述清晰、難度適中。
涵蓋瞭經典的機器學習算法和理論,同時補充瞭近年來新齣現的機器學習方法。
《機器學習導論(原書第2版)》討論瞭機器學習在統計學、模式識彆、神經網絡、人工智能、信號處理等不同領域的應用,其中涵蓋瞭監督學習、貝葉斯決策理論、參數方法、多元方法、多層感知器、局部模型、隱馬爾可夫模型、分類算法評估和比較以及增強學習。
《機器學習導論(原書第2版)》可供完成計算機程序設計、概率論、微積分和綫性代數課程的高年級本科生和研究生使用,也可供對機器學習感興趣的工程技術人員參考。
Ethem Alpaydin,土耳其伊斯坦布爾博阿齊奇大學(Bogazi?i University)計算機工程係教授。他於1990年在瑞士洛桑聯邦理工學院獲博士學位,1991年在加州大學伯剋利分校國際計算機研究所(ICS, UC Berkeley)做博士後工作;之後作為訪問學者,先後在美國麻省理工學院、加州大學伯剋利分校國際計算機研究所、瑞士戴爾莫爾感知人工智能研究所(IDIAP)從事研究工作。他是土耳其科學院院士,IEEE高級會員,牛津大學齣版社《The Computer Journal》雜誌編委和Elsevier齣版社《Pattern Recognition》雜誌副主編。
Introduction to Machine Learning,Second Edition
齣版者的話
中文版序
譯者序
前言
緻謝
關於第2版
符號錶
第1章 緒論1
1.1 什麼是機器學習1
1.2 機器學習的應用實例3
1.2.1 學習關聯性3
1.2.2 分類3
1.2.3 迴歸6
1.2.4 非監督學習7
1.2.5 增強學習8
1.3 注釋8
1.4 相關資源10
1.5 習題11
1.6 參考文獻12
第2章 監督學習13
2.1 由實例學習類13
2.2 VC維15
2.3 概率逼近正確學習16
2.4 噪聲17
2.5 學習多類18
2.6 迴歸19
2.7 模型選擇與泛化21
2.8 監督機器學習算法的維23
2.9 注釋24
2.10 習題25
2.11 參考文獻25
第3章 貝葉斯決策定理27
3.1 引言27
3.2 分類28
3.3 損失與風險29
3.4 判彆式函數31
3.5 效用理論31
3.6 關聯規則32
3.7 注釋33
3.8 習題33
3.9 參考文獻34
第4章 參數方法35
4.1 引言35
4.2 最大似然估計35
4.2.1 伯努利密度36
4.2.2 多項密度36
4.2.3 高斯(正態)密度37
4.3 評價估計:偏倚和方差37
4.4 貝葉斯估計38
4.5 參數分類40
4.6 迴歸43
4.7 調整模型的復雜度:偏倚/方差兩難選擇45
4.8 模型選擇過程47
4.9 注釋50
4.10 習題50
4.11 參考文獻51
第5章 多元方法52
5.1 多元數據52
5.2 參數估計52
5.3 缺失值估計53
5.4 多元正態分布54
5.5 多元分類56
5.6 調整復雜度59
5.7 離散特徵61
5.8 多元迴歸62
5.9 注釋63
5.10 習題63
5.11 參考文獻64
第6章 維度歸約65
6.1 引言65
6.2 子集選擇65
6.3 主成分分析67
6.4 因子分析71
6.5 多維定標75
6.6 綫性判彆分析77
6.7 等距特徵映射80
6.8 局部綫性嵌入81
6.9 注釋83
6.10 習題84
6.11 參考文獻85
第7章 聚類86
7.1 引言86
7.2 混閤密度86
7.3 k-均值聚類87
7.4 期望最大化算法90
7.5 潛在變量混閤模型93
7.6 聚類後的監督學習94
7.7 層次聚類95
7.8 選擇簇個數96
7.9 注釋96
7.10 習題97
7.11 參考文獻97
第8章 非參數方法99
8.1 引言99
8.2 非參數密度估計99
8.2.1 直方圖估計100
8.2.2 核估計101
8.2.3 k最近鄰估計102
8.3 到多元數據的推廣103
8.4 非參數分類104
8.5 精簡的最近鄰105
8.6 非參數迴歸:光滑模型106
8.6.1 移動均值光滑106
8.6.2 核光滑108
8.6.3 移動綫光滑108
8.7 如何選擇光滑參數109
8.8 注釋110
8.9 習題111
8.10 參考文獻112
第9章 決策樹113
9.1 引言113
9.2 單變量樹114
9.2.1 分類樹114
9.2.2 迴歸樹118
9.3 剪枝119
9.4 由決策樹提取規則120
9.5 由數據學習規則121
9.6 多變量樹124
9.7 注釋125
9.8 習題126
9.9 參考文獻127
第10章 綫性判彆式129
10.1 引言129
10.2 推廣綫性模型130
10.3 綫性判彆式的幾何意義131
10.3.1 兩類問題131
10.3.2 多類問題132
10.4 逐對分離132
10.5 參數判彆式的進一步討論133
10.6 梯度下降135
10.7 邏輯斯諦判彆式135
10.7.1 兩類問題135
10.7.2 多類問題138
10.8 迴歸判彆式141
10.9 注釋142
10.10 習題143
10.11 參考文獻143
第11章 多層感知器144
11.1 引言144
11.1.1 理解人腦144
11.1.2 神經網絡作為並行處理的典範145
11.2 感知器146
11.3 訓練感知器148
11.4 學習布爾函數150
11.5 多層感知器151
11.6 作為普適近似的MLP153
11.7 後嚮傳播算法154
11.7.1 非綫性迴歸154
11.7.2 兩類判彆式157
11.7.3 多類判彆式158
11.7.4 多個隱藏層158
11.8 訓練過程158
11.8.1 改善收斂性158
11.8.2 過分訓練159
11.8.3 構造網絡161
11.8.4 綫索162
11.9 調整網絡規模163
11.10 學習的貝葉斯觀點164
11.11 維度歸約165
11.12 學習時間167
11.12.1 時間延遲神經網絡167
11.12.2 遞歸網絡168
11.13 注釋169
11.14 習題170
11.15 參考文獻170
第12章 局部模型173
12.1 引言173
12.2 競爭學習173
12.2.1 在綫k-均值173
12.2.2 自適應共鳴理論176
12.2.3 自組織映射177
12.3 徑嚮基函數178
12.4 結閤基於規則的知識182
12.5 規範化基函數182
12.6 競爭的基函數184
12.7 學習嚮量量化186
12.8 混閤專傢模型186
12.8.1 協同專傢模型188
12.8.2 競爭專傢模型188
12.9 層次混閤專傢模型189
12.10 注釋189
12.11 習題190
12.12 參考文獻190
第13章 核機器192
13.1 引言192
13.2 最佳分離超平麵193
13.3 不可分情況:軟邊緣超平麵195
13.4 v-SVM197
13.5 核技巧198
13.6 嚮量核199
13.7 定義核200
13.8 多核學習201
13.9 多類核機器202
13.10 用於迴歸的核機器203
13.11 一類核機器206
13.12 核維度歸約208
13.13 注釋209
13.14 習題209
13.15 參考文獻210
第14章 貝葉斯估計212
14.1 引言212
14.2 分布參數的估計213
14.2.1 離散變量213
14.2.2 連續變量215
14.3 函數參數的貝葉斯估計216
14.3.1 迴歸216
14.3.2 基函數或核函數的使用218
14.3.3 貝葉斯分類219
14.4 高斯過程221
14.5 注釋223
14.6 習題224
14.7 參考文獻224
第15章 隱馬爾可夫模型225
15.1 引言225
15.2 離散馬爾可夫過程225
15.3 隱馬爾可夫模型227
15.4 HMM的三個基本問題229
15.5 估值問題229
15.6 尋找狀態序列231
15.7 學習模型參數233
15.8 連續觀測235
15.9 帶輸入的HMM236
15.10 HMM中的模型選擇236
15.11 注釋237
15.12 習題238
15.13 參考文獻239
第16章 圖方法240
16.1 引言240
16.2 條件獨立的典型情況241
16.3 圖模型實例245
16.3.1 樸素貝葉斯分類245
16.3.2 隱馬爾可夫模型246
16.3.3 綫性迴歸248
16.4 d-分離248
16.5 信念傳播249
16.5.1 鏈249
16.5.2 樹250
16.5.3 多樹251
16.5.4 結樹252
16.6 無嚮圖:馬爾可夫隨機場253
16.7 學習圖模型的結構254
16.8 影響圖255
16.9 注釋255
16.10 習題256
16.11 參考文獻256
第17章 組閤多學習器258
17.1 基本原理258
17.2 産生有差異的學習器258
17.3 模型組閤方案260
17.4 投票法261
17.5 糾錯輸齣碼263
17.6 裝袋265
17.7 提升265
17.8 重溫混閤專傢模型267
17.9 層疊泛化268
17.10 調整係綜268
17.11 級聯269
17.12 注釋270
17.13 習題271
17.14 參考文獻272
第18章 增強學習275
18.1 引言275
18.2 單狀態情況:K臂賭博機問題276
18.3 增強學習基礎277
18.4 基於模型的學習278
18.4.1 價值迭代279
18.4.2 策略迭代279
18.5 時間差分學習280
18.5.1 探索策略280
18.5.2 確定性奬勵和動作280
18.5.3 非確定性奬勵和動作282
18.5.4 資格跡283
18.6 推廣285
18.7 部分可觀測狀態286
18.7.1 場景286
18.7.2 例子:老虎問題287
18.8 注釋290
18.9 習題291
18.10 參考文獻292
第19章 機器學習實驗的設計與分析294
19.1 引言294
19.2 因素、響應和實驗策略296
19.3 響應麵設計297
19.4 隨機化、重復和阻止298
19.5 機器學習實驗指南298
19.6 交叉驗證和再抽樣方法300
19.6.1 K-摺交叉驗證300
19.6.2 5×2交叉驗證301
19.6.3 自助法302
19.7 度量分類器的性能302
19.8 區間估計304
19.9 假設檢驗307
19.10 評估分類算法的性能308
19.10.1 二項檢驗308
19.10.2 近似正態檢驗309
19.10.3 t檢驗309
19.11 比較兩個分類算法309
19.11.1 McNemar檢驗310
19.11.2 K-摺交叉驗證配對t檢驗310
19.11.3 5×2交叉驗證配對t檢驗311
19.11.4 5×2交叉驗證配對F檢驗311
19.12 比較多個算法:方差分析312
19.13 在多個數據集上比較315
19.13.1 比較兩個算法315
19.13.2 比較多個算法317
19.14 注釋317
19.15 習題318
19.16 參考文獻319
附錄A 概率論320
索引328
第1章 緒論
1.1 什麼是機器學習
為瞭在計算機上解決問題,我們需要算法。算法是指令的序列,它把輸入變換成輸齣。例如,我們可以為排序設計一個算法,輸入是數的集閤,而輸齣是它們的有序列錶。對於相同的任務可能存在不同的算法,而我們感興趣的是如何找到需要的指令或內存最少,或者二者都最少的最有效算法。
然而,對於某些任務,我們沒有算法;例如,我們沒有將垃圾郵件與正常郵件分開的算法。我們知道輸入是郵件文檔,最簡單的情況是一份字符文件。我還知道輸齣應該是指齣消息是否為垃圾郵件的“是”或“否”,但是我們不知道如何把這種輸入變換成輸齣。所謂的垃圾郵件隨時間而變,因人而異。
我們缺乏的是知識,作為補償我們有數據。我們可以很容易地編輯數以韆計的實例消息,其中一些我們知道是垃圾郵件,而我們要做到的是希望從中“學習”垃圾郵件的結構。換言之,我們希望計算機(機器)自動地為這一任務提取算法。不需要學習如何將數排序,因為我們已經有這樣的算法;但是,對於許多應用而言,我們確實沒有算法,而是有實例數據。
隨著計算機技術的發展,我們現在已經擁有存儲和處理海量數據以及通過計算機網絡從遠程站點訪問數據的能力。目前大多數的數據存取設備都是數字設備,
1記錄的數據也很可靠。以一傢連鎖超市為例,它擁有遍布全國各地的數百傢分店,並且在為數百萬顧客提供數韆種商品的零售服務。銷售點的終端設備記錄每筆交易的詳細資料,包括日期、顧客識彆碼、購買商品和數量、消費總額等。這是典型的每日幾個G字節的數據。連鎖超市希望能夠預測某種産品可能的顧客。對於這一任務,算法同樣並非是顯然的;它隨時間而變,因地域而異。隻有分析這些數據,並且將它轉換為可以利用的信息時,這些存儲的數據纔能變得有用,例如做預測。
我們並不確切地知道哪些人傾嚮於購買這種口味的冰淇淋,或者這位作傢的下一本書是什麼,也不知道誰喜歡看這部新電影、訪問這座城市,或點擊這一鏈接。我們不能確切地知道哪些人比較傾嚮於購買哪種特定的商品,也不知道應該嚮喜歡讀海明威作品的人推薦哪位作者。如果我們知道,我們就不需要任何數據分析;我們隻管供貨並記錄下編碼就可以瞭。但是,正因為我們不知道,所以纔隻能收集數據,並期望從數據中提取這些問題或相似問題的答案。
……
機器學習使用實例數據或過去的經驗訓練計算機,以優化性能標準。當人們不能直接編寫計算機程序解決給定的問題,而是需要藉助於實例數據或經驗時,就需要學習。一種需要學習的情況是人們沒有專門技術,或者不能解釋他們的專門技術。以語音識彆,即將聲學語音信號轉換成ASCII文本為例。看上去我們可以毫無睏難地做這件事,但是我們卻不能解釋我們是如何做的。由於年齡、性彆或口音的差異,不同的人讀相同的詞發音卻不同。在機器學習中,這個問題的解決方法是從不同的人那裏收集大量發音樣本,並學習將它們映射到詞。
另一種需要學習的情況是要解決的問題隨時間變化或依賴於特定的環境。我們希望有一個能夠自動適應環境的通用係統,而不是為每個特定的環境編寫一個不同的程序。以計算機網絡上的包傳遞為例。最大化服務質量的、從源地到目的地的路徑隨網絡流量的改變而改變。學習路由程序能夠通過監視網絡流量自動調整到最佳路徑。另一個例子是智能用戶界麵,它能夠自動適應用戶的生物特徵,即用戶的口音、筆跡、工作習慣等。
機器學習在各個領域都有許多成功的應用:已經有瞭識彆語音和筆跡的商用係統。零售商分析他們過去的銷售數據,瞭解顧客行為,以便改善顧客關係管理。金融機構分析過去的交易,以便預測顧客的信用風險。機器人學習優化它們的行為,以便使用最少的資源來完成任務。在生物信息學方麵,使用計算機不僅可以分析海量數據,而且還可以提取知識。這些隻是我們(即你和我)將在本書討論的應用的一部分。我們隻能想象一下可使用機器學習實現的未來應用:可以在不同的路況、不同的天氣條件下自己行駛的汽車,可以實時翻譯外語的電話,可以在新環境(例如另一個星球的錶麵)航行的自動化機器人。機器學習的確是一個令人激動的研究領域!
本書討論的許多方法都源於各種領域:統計學、模式識彆、神經網絡、人工智能、信號處理、控製和數據挖掘。過去,這些不同領域的研究遵循不同的途徑,側重點也不同。本書旨在把它們組閤在一起,給齣問題的統一處理並提供它們的解。
本書是一本入門教材,用於高年級本科生和研究生的機器學習課程,以及在業界工作、對這些方法的應用感興趣的工程技術人員。預備知識是計算機程序設計、概率論、微積分和綫性代數方麵的課程。本書的目標是充分解釋所有的學習算法,使得從本書給齣的方程到計算機程序隻是一小步。為瞭使這一任務更容易完成,對於某些情況,我們給齣瞭算法的僞代碼。
適當選取一些章節,本書可用作一學期的課程。再額外討論一些研究論文的話,本書也可以用作兩學期的課程,這時每章後的參考文獻將很有用。
我非常喜歡寫這本書,希望你能喜歡讀它。
機器學習導論(原書第2版) [Introduction to Machine Learning,Second Edition] 下載 mobi pdf epub txt 電子書 格式 2024
機器學習導論(原書第2版) [Introduction to Machine Learning,Second Edition] 下載 mobi epub pdf 電子書挺好的挺好的挺好的挺好的挺好的挺好的挺好的挺好的
評分好,送貨快,還沒看書,應該還行
評分買來學習一下,內容很多啊
評分都是正品,發貨也快,真的很不錯
評分好書,要讀很長時間,因為也很難。。。
評分最近對人工智能感興趣,看一下導論的東西
評分雖然晚到瞭幾天,書還是不錯的
評分書的難度較大,選購請注意
評分太薄瞭, 都能看見背麵的字
機器學習導論(原書第2版) [Introduction to Machine Learning,Second Edition] mobi epub pdf txt 電子書 格式下載 2024