機器學習導論(原書第3版)

機器學習導論(原書第3版) 下載 mobi epub pdf 電子書 2024


簡體網頁||繁體網頁
[土耳其] 埃塞姆·阿培丁(EthemAlpaydin) 著,範明 譯



點擊這裡下載
    

想要找書就要到 圖書大百科
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!

發表於2024-11-21

類似圖書 點擊查看全場最低價


圖書介紹

齣版社: 機械工業齣版社
ISBN:9787111521945
版次:1
商品編碼:11857426
品牌:機工齣版
包裝:平裝
叢書名: 計算機科學叢書
開本:16開
齣版時間:2016-01-01
用紙:膠版紙
頁數:356


相關圖書





圖書描述

編輯推薦

  適閤入門學習的機器學習教程,讓你全麵掌握機器學習的方法和技術。

內容簡介

  機器學習的目標是對計算機編程,以便使用樣本數據或以往的經驗來解決給定的問題。已經有許多機器學習的成功應用,包括分析以往銷售數據來預測客戶行為,優化機器人的行為以便使用較少的資源來完成任務,以及從生物信息數據中提取知識的各種係統。本書是關於機器學習的內容全麵的教科書,其中有些內容在一般的在機器學習導論書中很少介紹。主要內容包括監督學習,貝葉斯決策理論,參數、半參數和非參數方法,多元分析,隱馬爾可夫模型,增強學習,核機器,圖模型,貝葉斯估計和統計檢驗。

  機器學習正在迅速成為計算機科學專業的學生必須掌握的一門技能。本書第3版反映瞭這種變化,增加瞭對初學者的支持,包括給齣瞭部分習題的參考答案和補充瞭實例數據集(提供在綫代碼)。其他顯著的變化包括離群點檢測的討論、感知器和支持嚮量機的排名算法、矩陣分解和譜方法、距離估計、新的核算法、多層感知器的深度學習和非參數貝葉斯方法。書中對所有學習算法都進行瞭解釋,以便讀者可以很容易地將書中的公式轉變為計算機程序。本書可以用作高年級本科生和碩士研究生的教材,也可供研究機器學習方法的技術人員參考。

作者簡介

  埃塞姆·阿培丁(Ethem Alpaydin),土耳其伊斯坦布爾博阿齊奇大學計算機工程係的教授。於1990年在洛桑聯邦理工學院獲博士學位,先後在美國麻省理工學院和伯剋利大學工作和進行博士後研究。Ethem博士主要從事機器學習方麵的研究,是劍橋大學《The Computer Journal》雜誌編委和Elsevier《Pattern Recognition》雜誌的副主編。2001年和2002年,Ethem博士先後獲得土耳其科學院青年科學傢奬和土耳其科學與技術研究委員會科學奬。

精彩書評

  本書把機器學習的熱門話題(如Tom Mitchell)與概率論基礎(如Christopher Bishop)很好地融閤在一起。第3版嚮這個重要和迅速發展領域中的學生和研究者介紹瞭機器學習的一些新和重要的課題(例如,譜方法、深度學習和學習排名)。

  —— John W. Sheppard 濛大拿州立大學計算機科學教授


  我已經在機器學習的研究生課程中使用本書多年。這本書很好地平衡瞭理論和實踐,並且在第3版中擴充瞭許多新的先進算法。我期待在我的下一次機器學習課程中使用它。

  —— Larry Holder 華盛頓州立大學電子工程和計算機科學教授


  對於機器學習而言,這是一本完整、易讀的機器學習導論,是這個快速演變學科的“瑞士軍刀”。盡管本書旨在作為導論,但是它不僅對於學生,而且對於尋求這一領域綜閤教程的專傢也是有用的。新人會從中找到清晰解釋的概念,專傢會從中發現新的參考和靈感。

  —— Hilario Gómez-Moreno IEEE高級會員

目錄

齣版者的話

譯者序

前言

符號說明

第1章引言1

1.1什麼是機器學習1

1.2機器學習的應用實例2

1.2.1學習關聯性2

1.2.2分類3

1.2.3迴歸5

1.2.4非監督學習6

1.2.5增強學習7

1.3注釋8

1.4相關資源10

1.5習題11

1.6參考文獻12

第2章監督學習13

2.1由實例學習類13

2.2VC維16

2.3概率近似正確學習16

2.4噪聲17

2.5學習多類18

2.6迴歸19

2.7模型選擇與泛化21

2.8監督機器學習算法的維23

2.9注釋24

2.10習題25

2.11參考文獻26

第3章貝葉斯決策理論27

3.1引言27

3.2分類28

3.3損失與風險29

3.4判彆式函數30

3.5關聯規則31

3.6注釋33

3.7習題33

3.8參考文獻36

第4章參數方法37

4.1引言37

4.2最大似然估計37

4.2.1伯努利密度38

4.2.2多項式密度38

4.2.3高斯(正態)密度39

4.3評價估計:偏倚和方差39

4.4貝葉斯估計40

4.5參數分類42

4.6迴歸44

4.7調整模型的復雜度:偏倚/方差兩難選擇46

4.8模型選擇過程49

4.9注釋51

4.10習題51

4.11參考文獻53

第5章多元方法54

5.1多元數據54

5.2參數估計54

5.3缺失值估計55

5.4多元正態分布56

5.5多元分類57

5.6調整復雜度61

5.7離散特徵62

5.8多元迴歸63

5.9注釋64

5.10習題64

5.11參考文獻66

第6章維度歸約67

6.1引言67

6.2子集選擇67

6.3主成分分析70

6.4特徵嵌入74

6.5因子分析75

6.6奇異值分解與矩陣分解78

6.7多維定標79

6.8綫性判彆分析82

6.9典範相關分析85

6.10等距特徵映射86

6.11局部綫性嵌入87

6.12拉普拉斯特徵映射89

6.13注釋90

6.14習題91

6.15參考文獻92

第7章聚類94

7.1引言94

7.2混閤密度94

7.3k均值聚類95

7.4期望最大化算法98

7.5潛在變量混閤模型100

7.6聚類後的監督學習101

7.7譜聚類102

7.8層次聚類103

7.9選擇簇個數104

7.10注釋104

7.11習題105

7.12參考文獻106

第8章非參數方法107

8.1引言107

8.2非參數密度估計108

8.2.1直方圖估計108

8.2.2核估計109

8.2.3k最近鄰估計110

8.3推廣到多變元數據111

8.4非參數分類112

8.5精簡的最近鄰112

8.6基於距離的分類113

8.7離群點檢測115

8.8非參數迴歸:光滑模型116

8.8.1移動均值光滑116

8.8.2核光滑117

8.8.3移動綫光滑119

8.9如何選擇光滑參數119

8.10注釋120

8.11習題121

8.12參考文獻122

第9章決策樹124

9.1引言124

9.2單變量樹125

9.2.1分類樹125

9.2.2迴歸樹128

9.3剪枝130

9.4由決策樹提取規則131

9.5由數據學習規則132

9.6多變量樹134

9.7注釋135

9.8習題137

9.9參考文獻138

第10章綫性判彆式139

10.1引言139

10.2推廣綫性模型140

10.3綫性判彆式的幾何意義140

10.3.1兩類問題140

10.3.2多類問題141

10.4逐對分離142

10.5參數判彆式的進一步討論143

10.6梯度下降144

10.7邏輯斯諦判彆式145

10.7.1兩類問題145

10.7.2多類問題147

10.8迴歸判彆式150

10.9學習排名151

10.10注釋152

10.11習題152

10.12參考文獻154

第11章多層感知器155

11.1引言155

11.1.1理解人腦155

11.1.2神經網絡作為並行處理的典範156

11.2感知器157

11.3訓練感知器159

11.4學習布爾函數160

11.5多層感知器161

11.6作為普適近似的MLP162

11.7嚮後傳播算法163

11.7.1非綫性迴歸163

11.7.2兩類判彆式166

11.7.3多類判彆式166

11.7.4多個隱藏層167

11.8訓練過程167

11.8.1改善收斂性167

11.8.2過分訓練168

11.8.3構造網絡169

11.8.4綫索169

11.9調整網絡規模170

11.10學習的貝葉斯觀點172

11.11維度歸約173

11.12學習時間174

11.12.1時間延遲神經網絡175

11.12.2遞歸網絡175

11.13深度學習176

11.14注釋177

11.15習題178

11.16參考文獻180

第12章局部模型182

12.1引言182

12.2競爭學習182

12.2.1在綫k均值182

12.2.2自適應共鳴理論184

12.2.3自組織映射185

12.3徑嚮基函數186

12.4結閤基於規則的知識189

12.5規範化基函數190

12.6競爭的基函數191

12.7學習嚮量量化193

12.8混閤專傢模型193

12.8.1協同專傢模型194

12.8.2競爭專傢模型195

12.9層次混閤專傢模型195

12.10注釋196

12.11習題196

12.12參考文獻198

第13章核機器200

13.1引言200

13.2最佳分離超平麵201

13.3不可分情況:軟邊緣超平麵203

13.4v�睸VM205

13.5核技巧205

13.6嚮量核206

13.7定義核207

13.8多核學習208

13.9多類核機器209

13.10用於迴歸的核機器210

13.11用於排名的核機器212

13.12一類核機器213

13.13大邊緣最近鄰分類215

13.14核維度歸約216

13.15注釋217

13.16習題217

13.17參考文獻218

第14章圖方法221

14.1引言221

14.2條件獨立的典型情況222

14.3生成模型226

14.4d分離227

14.5信念傳播228

14.5.1鏈228

14.5.2樹229

14.5.3多樹230

14.5.4結樹232

14.6無嚮圖:馬爾科夫隨機場232

14.7學習圖模型的結構234

14.8影響圖234

14.9注釋234

14.10習題235

14.11參考文獻237

第15章隱馬爾科夫模型238

15.1引言238

15.2離散馬爾科夫過程238

15.3隱馬爾科夫模型240

15.4HMM的三個基本問題241

15.5估值問題241

15.6尋找狀態序列244

15.7學習模型參數245

15.8連續觀測247

15.9HMM作為圖模型248

15.10HMM中的模型選擇250

15.11注釋251

15.12習題252

15.13參考文獻254

第16章貝葉斯估計255

16.1引言255

16.2離散分布的參數的貝葉斯估計257

16.2.1K>2個狀態:狄利剋雷分布257

16.2.2K=2個狀態:貝塔分布258

16.3高斯分布的參數的貝葉斯估計258

16.3.1一元情況:未知均值,已知方差258

16.3.2一元情況:未知均值,未知方差259

16.3.3多元情況:未知均值,未知協方差260

16.4函數的參數的貝葉斯估計261

16.4.1迴歸261

16.4.2具有噪聲精度先驗的迴歸264

16.4.3基或核函數的使用265

16.4.4貝葉斯分類266

16.5選擇先驗268

16.6貝葉斯模型比較268

16.7混閤模型的貝葉斯估計270

16.8非參數貝葉斯建模272

16.9高斯過程272

16.10狄利剋雷過程和中國餐館275

16.11本徵狄利剋雷分配276

16.12貝塔過程和印度自助餐277

16.13注釋278

16.14習題278

16.15參考文獻279

第17章組閤多學習器280

17.1基本原理280

17.2産生有差異的學習器280

17.3模型組閤方案282

17.4投票法282

17.5糾錯輸齣碼285

17.6裝袋286

17.7提升287

17.8重溫混閤專傢模型288

17.9層疊泛化289

17.10調整係綜290

17.10.1選擇係綜的子集290

17.10.2構建元學習器290

17.11級聯291

17.12注釋292

17.13習題293

17.14參考文獻294

第18章增強學習297

18.1引言297

18.2單狀態情況:K臂賭博機問題298

18.3增強學習的要素299

18.4基於模型的學習300

18.4.1價值迭代300

18.4.2策略迭代301

18.5時間差分學習301

18.5.1探索策略301

18.5.2確定性奬勵和動作302

18.5.3非確定性奬勵和動作303

18.5.4資格跡304

18.6推廣305

18.7部分可觀測狀態306

18.7.1場景306

18.7.2例子:老虎問題307

18.8注釋310

18.9習題311

18.10參考文獻312

第19章機器學習實驗的設計與分析314

19.1引言314

19.2因素、響應和實驗策略315

19.3響應麵設計317

19.4隨機化、重復和阻止317

19.5機器學習實驗指南318

19.6交叉驗證和再抽樣方法320

19.6.1K摺交叉驗證320

19.6.25×2交叉驗證320

19.6.3自助法321

19.7度量分類器的性能321

19.8區間估計324

19.9假設檢驗326

19.10評估分類算法的性能327

19.10.1二項檢驗327

19.10.2近似正態檢驗328

19.10.3t檢驗328

19.11比較兩個分類算法329

19.11.1McNemar檢驗329

19.11.2K摺交叉驗證配對t檢驗329

19.11.35×2交叉驗證配對t檢驗330

19.11.45×2交叉驗證配對F檢驗330

19.12比較多個算法:方差分析331

19.13在多個數據集上比較333

19.13.1比較兩個算法334

19.13.2比較多個算法335

19.14多元檢驗336

19.14.1比較兩個算法336

19.14.2比較多個算法337

19.15注釋338

19.16習題339

19.17參考文獻340

附錄A概率論341

索引348

前言/序言

  前言Introduction to Machine Learning,Third Edition機器學習肯定是計算機科學成長最快的領域之一。不僅數據在持續變“大”,而且處理數據並將它轉換成知識的理論也在不斷發展。在科學的各個領域,從天文學到生物學,以及在日常生活中,隨著數字技術日益滲透到我們的日常生活中,隨著數字足跡的深入,更多的數據被源源不斷地産生和收集。無論是科學的還是個人的,被動蟄伏的數據沒有任何用處,而聰明的人們一直在尋找新的方法來利用數據,把它轉換成有用的産品或服務。在這種轉換中,機器學習正發揮著越來越大的作用。

  自從本書第2版2010年麵世以來,數據進化一直在持續,甚至更快。每年,數據集都在變大。不僅觀測的數量在增長,而且觀測屬性的數量也在顯著增加。數據有瞭更多的結構:不再僅僅是數和字符串,而且還有圖像、視頻、音頻、文檔、網頁、點擊日誌、圖等。數據與我們以前常做的參數假設(例如正態性)漸行漸遠。數據常常是動態的,因而存在一個時間維度。有時,我們的觀測是多視圖的——對於相同的對象或事件,我們有來自不同傳感器和不同模式的多個信息源。

  我們相信,在這看似復雜和龐大的數據背後存在簡單的解釋。雖然數據很大,但是它可以使用具有少量隱藏因子及其相互作用的相對簡單的模型來解釋。想想數百萬客戶,他們每天在綫或從當地超市購買數韆種産品。這意味著一個非常大的交易數據庫,但是該數據存在模式。沒有人隨機購物。舉辦酒會的人購買産品的某個子集,傢有嬰兒的人購買産品的不同子集;存在解釋客戶行為的隱藏因子。

  從觀測數據推斷這種隱藏模型是近年來已經做瞭大量研究的領域之一。新版中的修改大部分都與這些進展有關。第6章新增瞭關於特徵嵌入、奇異值分解和矩陣分解、典範相關分析、拉普拉斯特徵映射的內容。

  第8章和關於核機器的第13章新增瞭關於距離估計的內容。維度歸約、特徵提取和距離估計是同一個東西的三個名稱——理想的距離度量定義在理想的隱藏特徵的空間中,而從數量上看,它們少於我們觀測的值。

  重寫並顯著擴充瞭第16章,以便涵蓋生成模型。我們對所有主要的機器學習模型,即對分類、迴歸、混閤模型和維度歸約,討論貝葉斯方法。非參數貝葉斯建模在過去的幾年中日益流行,尤其令人感興趣,因為它允許調整模型的復雜度,以適應數據的復雜度。

  新版各處新增瞭一些章節,主要是突齣相同或非常類似方法的新的不同應用。第8章新增瞭一節離群點檢測。第10和13章新增兩節,分彆討論用於排名的綫性模型和核機器。拉普拉斯特徵映射添加到第6章,還在第7章新增一節討論譜聚類。鑒於深度神經網絡的最近復蘇,有必要在第11章新增一節討論深度學習。第19章新增一節討論方法比較的多元檢驗。

  自第1版麵世以來,許多使用本書自學的讀者提齣索取習題答案的請求。在這個新的版本中,已經包括瞭部分習題的答案。它們有時是完整的答案,有時隻是一個提示,或隻提供多種可能答案中的一種。

  我要 機器學習導論(原書第3版) 下載 mobi epub pdf txt 電子書 格式


機器學習導論(原書第3版) mobi 下載 pdf 下載 pub 下載 txt 電子書 下載 2024

機器學習導論(原書第3版) 下載 mobi pdf epub txt 電子書 格式 2024

機器學習導論(原書第3版) 下載 mobi epub pdf 電子書
想要找書就要到 圖書大百科
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!

用戶評價

評分

有點偏理論,公式特彆多。

評分

經典書籍,值得購買!

評分

現在的外文書很少有翻譯的比較好的,這個也是一樣

評分

工具書很不錯,好多不懂的可以看這個

評分

紙質很好,看起來很舒服,京東送貨也很快,贊

評分

書質量很好的,值得購買。

評分

京東送貨很快,購買很方便,上午買下午到,商品也很好,值得推薦。書很好書很好

評分

正好工作要用到,先學習一下基礎

評分

趁活動買的,滿300-200,美滋滋,買這個很閤適

類似圖書 點擊查看全場最低價

機器學習導論(原書第3版) mobi epub pdf txt 電子書 格式下載 2024


分享鏈接




相關圖書


本站所有內容均為互聯網搜索引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

友情鏈接

© 2024 book.teaonline.club All Rights Reserved. 圖書大百科 版權所有