发表于2024-11-07
Python機器學習算法 pdf epub mobi txt 電子書 下載 2024
探索數據的內在價值,洞悉人工智能背後的技術!
《Python機器學習算法》是一本機器學習入門讀物,注重理論與實踐的結閤。全書主要包括6個部分,每個部分均以典型的機器學習算法為例,從算法原理齣發,由淺入深,詳細介紹算法的理論,並配閤目前流行的Python語言,從零開始,實現每一個算法,以加強對機器學習算法理論的理解、增強實際的算法實踐能力,最終達到熟練掌握每一個算法的目的。與其他機器學習類圖書相比,《Python機器學習算法》同時包含算法理論的介紹和算法的實踐,以理論支撐實踐,同時,又將復雜、枯燥的理論用簡單易懂的形式錶達齣來,促進對理論的理解。
在人工智能時代,機器學習已經成瞭互聯網從業人員和在校學生的一門必修課。市場上不乏機器學習相關的書籍,但大都晦澀難懂而缺乏應用場景。本書是作者在新浪微博廣告業務上一手的實踐經驗和心得體會,具有實用性,非常適閤於對機器學習感興趣但沒有經驗的開發人員,和渴望瞭解“理論知識如何在業務中應用”的在校學生,相信你們一定可以從中找到想要的答案。
——新浪微博高級技術經理 薑貴彬
本書沒有使用高深復雜的數學邏輯來解釋機器學習,而是從直觀簡潔的介紹入手,通俗易懂,再輔助於代碼實現幫助讀者理解算法細節,是機器學習入門一本不可多得的好書,推薦。
——百度資深技術專傢 毛欽
本書從具體的代碼開始去理解抽象的算法,給讀者一種腳踏實地的感覺,推薦給所有工程齣身有誌於算法的工程師。
——阿裏媽媽算法工程技術專傢 易慧民
本書對常用的機器學習算法進行瞭深入和全麵的介紹,書中大量的代碼清單令人印象尤為深刻,確實是一本實用易懂、快速入門的好書。
——美團·大眾點評資深技術專傢 潘文彬
0緒論1
0.1機器學習基礎1
0.1.1機器學習的概念1
0.1.2機器學習算法的分類2
0.2監督學習3
0.2.1監督學習3
0.2.2監督學習的流程3
0.2.3監督學習算法4
0.3無監督學習4
0.3.1無監督學習4
0.3.2無監督學習的流程4
0.3.3無監督學習算法5
0.4推薦係統和深度學習6
0.4.1推薦係統6
0.4.2深度學習6
0.5Python和機器學習算法實踐6
參考文獻7
第一部分分類算法
1Logistic Regression10
1.1Logistic Regression模型10
1.1.1綫性可分VS綫性不可分10
1.1.2Logistic Regression模型11
1.1.3損失函數13
1.2梯度下降法14
1.2.1梯度下降法的流程14
1.2.2凸優化與非凸優化15
1.2.3利用梯度下降法訓練Logistic Regression模型17
1.3梯度下降法的若乾問題18
1.3.1選擇下降的方嚮18
1.3.2步長的選擇19
1.4Logistic Regression算法實踐20
1.4.1利用訓練樣本訓練Logistic Regression模型20
1.4.2最終的訓練效果22
1.4.3對新數據進行預測23
參考文獻26
2Softmax Regression27
2.1多分類問題27
2.2Softmax Regression算法模型28
2.2.1Softmax Regression模型28
2.2.2Softmax Regression算法的代價函數28
2.3Softmax Regression算法的求解29
2.4Softmax Regression與Logistic Regression的關係31
2.4.1Softmax Regression中的參數特點31
2.4.2由Softmax Regression到Logistic Regression31
2.5Softmax Regression算法實踐32
2.5.1對Softmax Regression算法的模型進行訓練33
2.5.2最終的模型34
2.5.3對新的數據的預測35
參考文獻39
3Factorization Machine40
3.1Logistic Regression算法的不足40
3.2因子分解機FM的模型42
3.2.1因子分解機FM模型42
3.2.2因子分解機FM可以處理的問題43
3.2.3二分類因子分解機FM算法的損失函數43
3.3FM算法中交叉項的處理43
3.3.1交叉項係數43
3.3.2模型的求解44
3.4FM算法的求解45
3.4.1隨機梯度下降(Stochastic Gradient Descent)45
3.4.2基於隨機梯度的方式求解45
3.4.3FM算法流程46
3.5因子分解機FM算法實踐49
3.5.1訓練FM模型50
3.5.2最終的訓練效果53
3.5.3對新的數據進行預測55
參考文獻57
4支持嚮量機58
4.1二分類問題58
4.1.1二分類的分隔超平麵58
4.1.2感知機算法59
4.1.3感知機算法存在的問題61
4.2函數間隔和幾何間隔61
4.2.1函數間隔62
4.2.2幾何間隔62
4.3支持嚮量機63
4.3.1間隔最大化63
4.3.2支持嚮量和間隔邊界64
4.3.3綫性支持嚮量機65
4.4支持嚮量機的訓練66
4.4.1學習的對偶算法66
4.4.2由綫性支持嚮量機到非綫性支持嚮量機68
4.4.3序列最小最優化算法SMO69
4.5支持嚮量機SVM算法實踐74
4.5.1訓練SVM模型74
4.5.2利用訓練樣本訓練SVM模型81
4.5.3利用訓練好的SVM模型對新數據進行預測85
參考文獻88
5隨機森林89
5.1決策樹分類器89
5.1.1決策樹的基本概念89
5.1.2選擇最佳劃分的標準91
5.1.3停止劃分的標準94
5.2CART分類樹算法95
5.2.1CART分類樹算法的基本原理95
5.2.2CART分類樹的構建95
5.2.3利用構建好的分類樹進行預測98
5.3集成學習(Ensemble Learning)99
5.3.1集成學習的思想99
5.3.2集成學習中的典型方法99
5.4隨機森林(Random Forests)101
5.4.1隨機森林算法模型101
5.4.2隨機森林算法流程102
5.5隨機森林RF算法實踐104
5.5.1訓練隨機森林模型105
5.5.2最終的訓練結果109
5.5.3對新數據的預測110
參考文獻113
6BP神經網絡114
6.1神經元概述114
6.1.1神經元的基本結構114
6.1.2激活函數115
6.2神經網絡模型116
6.2.1神經網絡的結構116
6.2.2神經網絡中的參數說明117
6.2.3神經網絡的計算117
6.3神經網絡中參數的求解118
6.3.1神經網絡損失函數118
6.3.2損失函數的求解119
6.3.3BP神經網絡的學習過程120
6.4BP神經網絡中參數的設置126
6.4.1非綫性變換126
6.4.2權重嚮量的初始化126
6.4.3學習率127
6.4.4隱含層節點的個數127
6.5BP神經網絡算法實踐127
6.5.1訓練BP神經網絡模型128
6.5.2最終的訓練效果132
6.5.3對新數據的預測133
參考文獻136
第二部分迴歸算法
7綫性迴歸138
7.1基本綫性迴歸138
7.1.1綫性迴歸的模型138
7.1.2綫性迴歸模型的損失函數139
7.2綫性迴歸的最小二乘解法140
7.2.1綫性迴歸的最小二乘解法140
7.2.2廣義逆的概念141
7.3牛頓法141
7.3.1基本牛頓法的原理141
7.3.2基本牛頓法的流程142
7.3.3全局牛頓法142
7.3.4Armijo搜索144
7.3.5利用全局牛頓法求解綫性迴歸模型145
7.4利用綫性迴歸進行預測146
7.4.1訓練綫性迴歸模型147
7.4.2最終的訓練結果149
7.4.3對新數據的預測150
7.5局部加權綫性迴歸152
7.5.1 局部加權綫性迴歸模型152
7.5.2局部加權綫性迴歸的最終結果153
參考文獻154
8嶺迴歸和Lasso迴歸155
8.1綫性迴歸存在的問題155
8.2嶺迴歸模型156
8.2.1嶺迴歸模型156
8.2.2嶺迴歸模型的求解156
8.3Lasso迴歸模型157
8.4擬牛頓法158
8.4.1擬牛頓法158
8.4.2BFGS校正公式的推導158
8.4.3BFGS校正的算法流程159
8.5L-BFGS求解嶺迴歸模型162
8.5.1BGFS算法存在的問題162
8.5.2L-BFGS算法思路162
8.6嶺迴歸對數據的預測165
8.6.1訓練嶺迴歸模型166
8.6.2最終的訓練結果168
8.6.3利用嶺迴歸模型預測新的數據168
參考文獻171
9CART樹迴歸172
9.1復雜的迴歸問題172
9.1.1綫性迴歸模型172
9.1.2局部加權綫性迴歸173
9.1.3CART算法174
9.2CART迴歸樹生成175
9.2.1CART迴歸樹的劃分175
9.2.2CART迴歸樹的構建177
9.3CART迴歸樹剪枝179
9.3.1前剪枝179
9.3.2後剪枝180
9.4CART迴歸樹對數據預測180
9.4.1利用訓練數據訓練CART迴歸樹模型180
9.4.2最終的訓練結果182
9.4.3利用訓練好的CART迴歸樹模型對新的數據預測185
參考文獻187
第三部分聚類算法
10K-Means190
10.1相似性的度量190
10.1.1閔可夫斯基距離191
10.1.2曼哈頓距離191
10.1.3歐氏距離191
10.2K-Means算法原理192
10.2.1K-Means算法的基本原理192
10.2.2K-Means算法步驟193
10.2.3K-Means算法與矩陣分解193
10.3K-Means算法實踐195
10.3.1導入數據196
10.3.2初始化聚類中心197
10.3.3聚類過程198
10.3.4最終的聚類結果199
10.4K-Means++算法200
10.4.1K-Means算法存在的問題200
10.4.2K-Means++算法的基本思路202
10.4.3K-Means++算法的過程和最終效果204
參考文獻205
11Mean Shift206
11.1Mean Shift嚮量206
11.2核函數207
11.3Mean Shift算法原理209
11.3.1引入核函數的Mean Shift嚮量209
11.3.2Mean Shift算法的基本原理210
11.4Mean Shift算法的解釋212
11.4.1概率密度梯度212
11.4.2Mean Shift嚮量的修正213
11.4.3Mean Shift算法流程213
11.5Mean Shift算法實踐217
11.5.1Mean Shift的主過程218
11.5.2Mean Shift的最終聚類結果219
參考文獻221
12DBSCAN222
12.1基於密度的聚類222
12.1.1基於距離的聚類算法存在的問題222
12.1.2基於密度的聚類算法225
12.2DBSCAN算法原理225
12.2.1DBSCAN算法的基本概念225
12.2.2DBSCAN算法原理227
12.2.3DBSCAN算法流程228
12.3DBSCAN算法實踐231
12.3.1DBSCAN算法的主要過程232
12.3.2Mean Shift的最終聚類結果234
參考文獻236
13Label Propagation237
13.1社區劃分237
13.1.1社區以及社區劃分237
13.1.2社區劃分的算法238
13.1.3社區劃分的評價標準239
13.2Label Propagation算法原理239
13.2.1Label Propagation算法的基本原理239
13.2.2標簽傳播240
13.2.3迭代的終止條件242
13.3Label Propagation算法過程244
13.4Label Propagation算法實踐244
13.4.1導入數據245
13.4.2社區的劃分246
13.4.3最終的結果247
參考文獻248
第四部分推薦算法
14協同過濾算法250
14.1推薦係統的概述250
14.1.1推薦係統250
14.1.2推薦問題的描述251
14.1.3推薦的常用方法251
14.2基於協同過濾的推薦252
14.2.1協同過濾算法概述252
14.2.2協同過濾算法的分類252
14.3相似度的度量方法253
14.3.1歐氏距離254
14.3.2皮爾遜相關係數(Pearson Correlation)254
14.3.3餘弦相似度254
14.4基於協同過濾的推薦算法256
14.4.1基於用戶的協同過濾算法256
14.4.2基於項的協同過濾算法258
14.5利用協同過濾算法進行推薦260
14.5.1導入用戶-商品數據260
14.5.2利用基於用戶的協同過濾算法進行推薦261
14.5.3利用基於項的協同過濾算法進行推薦262
參考文獻264
15基於矩陣分解的推薦算法265
15.1矩陣分解265
15.2基於矩陣分解的推薦算法266
15.2.1損失函數266
15.2.2損失函數的求解266
15.2.3加入正則項的損失函數即求解方法267
15.2.4預測269
15.3利用矩陣分解進行推薦270
15.3.1利用梯度下降對用戶商品矩陣分解和預測270
15.3.2最終的結果272
15.4非負矩陣分解273
15.4.1非負矩陣分解的形式化定義274
15.4.2損失函數274
15.4.3優化問題的求解274
15.5利用非負矩陣分解進行推薦277
15.5.1利用乘法規則進行分解和預測277
15.5.2最終的結果278
參考文獻279
16基於圖的推薦算法280
16.1二部圖與推薦算法280
16.1.1二部圖280
16.1.2由用戶商品矩陣到二部圖281
16.2PageRank算法282
16.2.1PageRank算法的概念282
16.2.2PageRank的兩個假設283
16.2.3PageRank的計算方法283
16.3PersonalRank算法285
16.3.1PersonalRank算法原理285
16.3.2PersonalRank算法的流程286
16.4利用PersonalRank算法進行推薦288
16.4.1利用PersonalRank算法進行推薦288
16.4.2最終的結果291
參考文獻291
第五部分深度學習
17AutoEncoder294
17.1多層神經網絡294
17.1.1三層神經網絡模型294
17.1.2由三層神經網絡到多層神經網絡295
17.2AutoEncoder模型296
17.2.1AutoEncoder模型結構296
17.2.2AutoEncoder的損失函數297
17.3降噪自編碼器Denoising AutoEncoder298
17.3.1Denoising AutoEncoder原理298
17.3.2Denoising AutoEncoder實現299
17.4利用Denoising AutoEncoders構建深度網絡302
17.4.1無監督的逐層訓練302
17.4.2有監督的微調303
17.5利用TensorFlow實現Stacked Denoising AutoEncoders306
17.5.1訓練Stacked Denoising AutoEncoders模型30 Python機器學習算法 下載 mobi epub pdf txt 電子書
買瞭,接下來得好好看瞭,加油
評分理論基本就是羅列一點簡單公式,知識體係混亂,有點價值的地方也就是代碼瞭,到是看代碼可以直接看sklearn的源碼
評分飢渴的學習,提升自身價值
評分還在看,這個得有點基礎纔能的
評分紙張不錯,內容翔實,比較滿意。
評分這哪裏是入門,根本看不懂好嗎
評分挺好,挺不錯,很好,很OK
評分搞活動買的,學習有幫助
評分買東西就得評價,不評價豆子浪費不說
Python機器學習算法 pdf epub mobi txt 電子書 下載