-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
線性回歸算法(線性回歸算法原理)
大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于線性回歸算法的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。
開(kāi)始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫(xiě)出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、人工智能包含什么內(nèi)容
人工智能主要包括的內(nèi)容有:python基礎(chǔ)與科學(xué)計(jì)算模塊、AI數(shù)學(xué)知識(shí)、線性回歸算法、線性分類算法、無(wú)監(jiān)督學(xué)習(xí)算法、決策樹(shù)系列算法、Kaggle實(shí)戰(zhàn)、海量數(shù)據(jù)挖掘工具、概率圖模型算法、深度學(xué)習(xí)原理到進(jìn)階實(shí)戰(zhàn)、圖像識(shí)別原理到進(jìn)階實(shí)戰(zhàn)、圖像識(shí)別項(xiàng)目、自然語(yǔ)言處理原理到進(jìn)階實(shí)戰(zhàn)、自然語(yǔ)言處理、數(shù)據(jù)挖掘。
python基礎(chǔ)與科學(xué)計(jì)算模塊主要包括:
Python基礎(chǔ)語(yǔ)法
科學(xué)計(jì)算模塊Numpy
數(shù)據(jù)處理分析模塊Pandas
數(shù)據(jù)可視化模塊
AI數(shù)學(xué)知識(shí)主要包括:
微積分基礎(chǔ)
線性代數(shù)基礎(chǔ)
多元函數(shù)微分學(xué)
線性代數(shù)高級(jí)
概率論
最優(yōu)化
線性回歸算法主要包括:
多元線性回歸
梯度下降法
歸一化
正則化
Lasso回歸、Ridge回歸、多項(xiàng)式回歸
線性分類算法主要包括:
邏輯回歸
Softmax回歸
SVM支持向量機(jī)
SMO優(yōu)化算法
無(wú)監(jiān)督學(xué)習(xí)算法主要包括:
聚類系列算法
PCA降維算法
EM算法
GMM算法
決策樹(shù)系列算法主要有:
決策樹(shù)算法
隨機(jī)森林算法
Adaboost算法
GBDT算法
XGBoost算法
等等等等,因?yàn)閮?nèi)容太多就不一一介紹了。如果想了解,可以私信詢問(wèn)。
工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理和專家系統(tǒng)等。人工智能從誕生以來(lái),理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大,可以設(shè)想,未來(lái)人工智能帶來(lái)的科技產(chǎn)品,將會(huì)是人類智慧的“容器”。人工智能可以對(duì)人的意識(shí)、思維的信息過(guò)程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過(guò)人的智能。
而人工智能的主要應(yīng)用領(lǐng)域有:
深度學(xué)習(xí)
深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要應(yīng)用領(lǐng)域。說(shuō)到深度學(xué)習(xí),大家第一個(gè)想到的肯定是AlphaGo,通過(guò)一次又一次的學(xué)習(xí)、更新算法,最終在人機(jī)大戰(zhàn)中打敗圍棋大師。
對(duì)于一個(gè)智能系統(tǒng)來(lái)講,深度學(xué)習(xí)的能力大小,決定著它在多大程度上能達(dá)到用戶對(duì)它的期待。
深度學(xué)習(xí)的技術(shù)原理:1.構(gòu)建一個(gè)網(wǎng)絡(luò)并且隨機(jī)初始化所有連接的權(quán)重; 2.將大量的數(shù)據(jù)情況輸出到這個(gè)網(wǎng)絡(luò)中; 3.網(wǎng)絡(luò)處理這些動(dòng)作并且進(jìn)行學(xué)習(xí); 4.如果這個(gè)動(dòng)作符合指定的動(dòng)作,將會(huì)增強(qiáng)權(quán)重,如果不符合,將會(huì)降低權(quán)重; 5.系統(tǒng)通過(guò)如上過(guò)程調(diào)整權(quán)重; 6.在成千上萬(wàn)次的學(xué)習(xí)之后,超過(guò)人類的表現(xiàn);
計(jì)算機(jī)視覺(jué)
計(jì)算機(jī)視覺(jué)是指計(jì)算機(jī)從圖像中識(shí)別出物體、場(chǎng)景和活動(dòng)的能力。計(jì)算機(jī)視覺(jué)有著廣泛的細(xì)分應(yīng)用,其中包括,醫(yī)療領(lǐng)域成像分析、人臉識(shí)別、公關(guān)安全、安防監(jiān)控等等。
計(jì)算機(jī)視覺(jué)的技術(shù)原理:計(jì)算機(jī)視覺(jué)技術(shù)運(yùn)用由圖像處理操作及其他技術(shù)所組成的序列來(lái)將圖像分析任務(wù)分解為便于管理的小塊任務(wù)。
語(yǔ)音識(shí)別
語(yǔ)音識(shí)別,是把語(yǔ)音轉(zhuǎn)化為文字,并對(duì)其進(jìn)行識(shí)別、認(rèn)知和處理。語(yǔ)音識(shí)別的主要應(yīng)用包括電話外呼、醫(yī)療領(lǐng)域聽(tīng)寫(xiě)、語(yǔ)音書(shū)寫(xiě)、電腦系統(tǒng)聲控、電話客服等。
語(yǔ)音識(shí)別技術(shù)原理:1、 對(duì)聲音進(jìn)行處理,使用移動(dòng)函數(shù)對(duì)聲音進(jìn)行分幀; 2、 聲音被分幀后,變?yōu)楹芏嗖ㄐ?,需要將波形做聲學(xué)體征提取; 3、 聲音特征提取之后,聲音就變成了一個(gè)矩陣。然后通過(guò)音素組合成單詞;
虛擬個(gè)人助理
蘋(píng)果手機(jī)的Siri,以及小米手機(jī)上的小愛(ài),都算是虛擬個(gè)人助理的應(yīng)用。
虛擬個(gè)人助理技術(shù)原理:(以小愛(ài)為例)1、用戶對(duì)著小愛(ài)說(shuō)話后,語(yǔ)音將立即被編碼,并轉(zhuǎn)換成一個(gè)壓縮數(shù)字文件,該文件包含了用戶語(yǔ)音的相關(guān)信息; 2、由于用戶手機(jī)處于開(kāi)機(jī)狀態(tài),語(yǔ)音信號(hào)將被轉(zhuǎn)入用戶所使用移動(dòng)運(yùn)營(yíng)商的基站當(dāng)中,然后再通過(guò)一系列固定電 線發(fā)送至用戶的互聯(lián)網(wǎng)服務(wù)供應(yīng)商(ISP),該ISP擁有云計(jì)算服務(wù)器; 3、該服務(wù)器中的內(nèi)置系列模塊,將通過(guò)技術(shù)手段來(lái)識(shí)別用戶剛才說(shuō)過(guò)的內(nèi)容。
自然語(yǔ)言處理
自然語(yǔ)言處理(NLP),像計(jì)算機(jī)視覺(jué)技術(shù)一樣,將各種有助于實(shí)現(xiàn)目標(biāo)的多種技術(shù)進(jìn)行了融合,實(shí)現(xiàn)人機(jī)間自然語(yǔ)言的通信。
自然語(yǔ)言處理技術(shù)原理:1、漢字編碼詞法分析; 2、句法分析; 3、語(yǔ)義分析; 4、文本生成; 5、語(yǔ)音識(shí)別;
智能機(jī)器人
智能機(jī)器人在生活中隨處可見(jiàn),掃地機(jī)器人、陪伴機(jī)器人……這些機(jī)器人不管是跟人語(yǔ)音聊天,還是自主定位導(dǎo)航行走、安防監(jiān)控等,都離不開(kāi)人工智能技術(shù)的支持。
智能機(jī)器人技術(shù)原理:人工智能技術(shù)把機(jī)器視覺(jué)、自動(dòng)規(guī)劃等認(rèn)知技術(shù)、各種傳感器整合到機(jī)器人身上,使得機(jī)器人擁有判斷、決策的能力,能在各種不同的環(huán)境中處理不同的任務(wù)。智能穿戴設(shè)備、智能家電、智能出行或者無(wú)人機(jī)設(shè)備其實(shí)都是類似的原理。
引擎推薦
淘寶、京東等商城,以及36氪等資訊網(wǎng)站,會(huì)根據(jù)你之前瀏覽過(guò)的商品、頁(yè)面、搜索過(guò)的關(guān)鍵字推送給你一些相關(guān)的產(chǎn)品、或網(wǎng)站內(nèi)容。這其實(shí)就是引擎推薦技術(shù)的一種表現(xiàn)。
Google為什么會(huì)做免費(fèi)搜索引擎,目的就是為了收集大量的自然搜索數(shù)據(jù),豐富他的大數(shù)據(jù)數(shù)據(jù)庫(kù),為后面的人工智能數(shù)據(jù)庫(kù)做準(zhǔn)備。
引擎推薦技術(shù)原理:推薦引擎是基于用戶的行為、屬性(用戶瀏覽行為產(chǎn)生的數(shù)據(jù)),通過(guò)算法分析和處理,主動(dòng)發(fā)現(xiàn)用戶當(dāng)前或潛在需求,并主動(dòng)推送信息給用戶的瀏覽頁(yè)面。
二、小白也能入門(mén)機(jī)器學(xué)習(xí)-線性回歸
小白也能入門(mén)機(jī)器學(xué)習(xí)-線性回歸
【咱們的目標(biāo)】系列算法講解旨在用最簡(jiǎn)單易懂的故事情節(jié)幫助大家掌握晦澀無(wú)趣的機(jī)器學(xué)習(xí),適合對(duì)數(shù)學(xué)很頭疼的同學(xué)們,小板凳走起!
【什么是線性回歸】今天咱們要來(lái)嘮的是機(jī)器學(xué)習(xí)中最基本也是最重要的算法之一線性回歸,正當(dāng)此時(shí)迪哥正在前往銀行的路上,準(zhǔn)備辦理貸款(低保),到了之后銀行問(wèn)了我兩件事,年齡和工資都多少呀?(特征)當(dāng)?shù)玫搅私Y(jié)果后告訴我我們只能貸給你100塊,別問(wèn)為什么!機(jī)器算的!(機(jī)器你拿毛線算的100快?)這里告訴了我們這樣一件事,我們的輸入就是你的數(shù)據(jù)特征,得出的結(jié)果是一個(gè)連續(xù)區(qū)間上的值,目標(biāo)就是找到我們想要預(yù)測(cè)的值和我們的輸出之間的關(guān)系,接下來(lái)我們的目標(biāo)就放在如何找到這種關(guān)系。
【如何得出結(jié)果】這個(gè)圖就是機(jī)器如何進(jìn)行預(yù)測(cè)的(回歸)它會(huì)根據(jù)一票子兄弟貸款的歷史數(shù)據(jù)(年齡和工資分別對(duì)應(yīng)于X1與X2)找出來(lái)最好的擬合線(面)來(lái)進(jìn)行預(yù)測(cè),這樣你的數(shù)據(jù)來(lái)了之后直接帶入進(jìn)去就可以得出來(lái)該給你多少錢了。
我們用兩個(gè)參數(shù)來(lái)分別對(duì)應(yīng)于工資和年齡,控制它們對(duì)結(jié)果的影響大小,這里做了一個(gè)整合是把偏置項(xiàng)和權(quán)重參數(shù)項(xiàng)放到了一起(加了個(gè)X0讓其都等于1)
要想讓銀行能開(kāi)的下去,那就得少遇到點(diǎn)麻煩,迪哥這么大碗就給我100塊(真實(shí)的指標(biāo)應(yīng)該為200塊)肯定是要砸場(chǎng)子的,所以我們的目標(biāo)是要讓得到的預(yù)測(cè)值跟真實(shí)值越接近越好。機(jī)器學(xué)習(xí)當(dāng)中最核心的一點(diǎn)就在于如何優(yōu)化我們的目標(biāo),可以看到對(duì)于這些點(diǎn)來(lái)說(shuō)有些離我的回歸方程比較近,有些比較遠(yuǎn),最終我們應(yīng)該設(shè)定一個(gè)目標(biāo)讓我們的方程能夠更好的去擬合當(dāng)前的這些數(shù)據(jù)點(diǎn)。
【深入細(xì)節(jié)】既然說(shuō)到誤差了,咱們就來(lái)好好嘮一下,首先銀行的目標(biāo)得讓誤差越小越好,這樣才能夠使得我們的結(jié)果是越準(zhǔn)確的。那么這個(gè)誤差有什么規(guī)律可循嗎?誤差可以說(shuō)是機(jī)器學(xué)習(xí)當(dāng)中最長(zhǎng)聽(tīng)到的一個(gè)詞了,我們可以假想一下,你讓機(jī)器人來(lái)幫你進(jìn)行工作,剛開(kāi)始的時(shí)候它肯定啥都不會(huì),我們得一點(diǎn)點(diǎn)的教它,等他慢慢熟悉我們的工作了(數(shù)據(jù)),也就意味著我們的回歸方程效果會(huì)更好了。
咱們先來(lái)說(shuō)說(shuō)這個(gè)誤差為啥會(huì)服從高斯分布呢,這個(gè)事就得從我們是怎么認(rèn)為一個(gè)事發(fā)生的概率來(lái)說(shuō)了,正常情況下你去銀行貸款差不多都是一個(gè)符合你的數(shù)字吧,極小的情況下能出現(xiàn)類似迪哥的情況(100塊都不給我),還是極小的情況下能像對(duì)待馬云似的給你幾個(gè)億吧,所以銀行給你貸款的誤差項(xiàng)理論上都是在較小范圍內(nèi)浮動(dòng)的,要么多了一點(diǎn),要么少了一點(diǎn)。所以我們認(rèn)為該誤差是可以服從高斯分布的(正太分布)。
那為啥會(huì)獨(dú)立呢?獨(dú)立的意思就是說(shuō)迪哥來(lái)貸款了,恰好馬云也來(lái)了,但是我倆不認(rèn)識(shí)?。ㄆ鋵?shí)他認(rèn)識(shí)我,我不認(rèn)識(shí)他),所以我倆在貸款的時(shí)候不會(huì)因?yàn)轳R云而對(duì)我產(chǎn)生什么影響,也不會(huì)因?yàn)槲覍?duì)馬云產(chǎn)生什么影響,這就是獨(dú)立!
同分布又是啥呢?我和馬云來(lái)的是一家銀行吧,這家銀行的系統(tǒng)只有一個(gè),所以它在預(yù)測(cè)的時(shí)候是按照同樣的方式來(lái)的,這就是我們的數(shù)據(jù)是在同一個(gè)分布下去建模的。
既然誤差服從了高斯分布我們就把它進(jìn)行展開(kāi),上式的意思就是我去貸款,在它這兩組參數(shù)的控制下得到的貸款金額恰好是等于真實(shí)情況下就該給我這么多錢的概率。(預(yù)測(cè)值和真實(shí)值對(duì)應(yīng)的可能性大?。┠敲次覀儺?dāng)然希望這個(gè)概率越大越好呀,越大代表越準(zhǔn)確呀。
(怎么又來(lái)了一堆數(shù)學(xué)。。。沒(méi)人數(shù)學(xué)就不是機(jī)器學(xué)習(xí)啦)咱們繼續(xù)來(lái)看,咋又突然出來(lái)了個(gè)似然函數(shù)呀,咱們先來(lái)說(shuō)一說(shuō)它是個(gè)什么東西。比如說(shuō)你今天去賭場(chǎng)了,然后你不知道能不能贏錢,你就在門(mén)口蹲著,出來(lái)一個(gè)人你就問(wèn)一下,哥們贏錢了嗎(然后挨了一頓揍),連續(xù)出來(lái)5個(gè)人都告訴你贏錢了,那么你就會(huì)認(rèn)為我去賭錢也肯定會(huì)贏錢。這個(gè)的意思就是要利用樣本數(shù)據(jù)去估計(jì)你的參數(shù)應(yīng)該是什么,使得估計(jì)出來(lái)的參數(shù)盡可能的滿足(擬合)你的樣本。
對(duì)數(shù)似然它的意思和目標(biāo)很簡(jiǎn)單,就是為了簡(jiǎn)單求解,所以把比較復(fù)雜的乘法運(yùn)算轉(zhuǎn)換成了比較簡(jiǎn)單的加法運(yùn)算。
【得出目標(biāo)】一頓化簡(jiǎn),其實(shí)就是把原式給展開(kāi)了,然后我們的目標(biāo)是要求最大值吧(什么樣的參數(shù)能夠使得跟我數(shù)據(jù)組合完之后是真實(shí)值的概率越大越好),對(duì)于化簡(jiǎn)后的結(jié)果左邊是一個(gè)常數(shù)不用去管,右邊是一個(gè)恒正的(因?yàn)橛衅椒巾?xiàng))但是前面還有一個(gè)負(fù)號(hào)呀,讓這樣的數(shù)什么時(shí)候能取最大值呀?只有負(fù)號(hào)后面的取最小值才可以呀!
到這里我們終于推導(dǎo)出來(lái)了,銀行只需要做一件事就可以了,那就是最小化這個(gè)函數(shù)(目標(biāo)函數(shù)),其實(shí)說(shuō)白了就是要讓我們的預(yù)測(cè)值和真實(shí)值之間的差異越小越好,這就是最小二乘法!
接下來(lái)就是如何求解呢?通常我們?nèi)デ笃珜?dǎo)就可以了,因?yàn)闃O值點(diǎn)通常都是在偏導(dǎo)處取得,對(duì)我們的目標(biāo)函數(shù)求偏導(dǎo),并且讓其等于0,這樣我們就能找到最終參數(shù)的解應(yīng)該是什么了!到這里小伙伴們可能感覺(jué)到竟然真能求出這個(gè)解,那這個(gè)解不就是我們想要的參數(shù)嘛,得到了它銀行就有救啦!
【總結(jié)】
至此我們通過(guò)了一系列的推導(dǎo)得出了線性回歸的最終解法,路途雖然有點(diǎn)曲折但是其中涉及到的思想還是非常有意思的,這節(jié)課希望大家對(duì)線性回歸有了一個(gè)直觀的認(rèn)識(shí),了解機(jī)器學(xué)習(xí)工作的基本原理與實(shí)際處理方法。但是這個(gè)解可以說(shuō)是數(shù)學(xué)上的一個(gè)巧合,并不是所有問(wèn)題都可以直接求解的,下回咱們?cè)僬務(wù)勅绾伍g接的求最優(yōu)解~
三、人工智能十大算法
人工智能十大算法如下
線性回歸(Linear Regression)可能是最流行的機(jī)器學(xué)習(xí)算法。線性回歸就是要找一條直線,并且讓這條直線盡可能地?cái)M合散點(diǎn)圖中的數(shù)據(jù)點(diǎn)。它試圖通過(guò)將直線方程與該數(shù)據(jù)擬合來(lái)表示自變量(x 值)和數(shù)值結(jié)果(y 值)。然后就可以用這條線來(lái)預(yù)測(cè)未來(lái)的值!
邏輯回歸(Logistic regression)與線性回歸類似,但它是用于輸出為二進(jìn)制的情況(即,當(dāng)結(jié)果只能有兩個(gè)可能的值)。對(duì)最終輸出的預(yù)測(cè)是一個(gè)非線性的 S 型函數(shù),稱為 logistic function, g()。
決策樹(shù)(Decision Trees)可用于回歸和分類任務(wù)。
樸素貝葉斯(Naive Bayes)是基于貝葉斯定理。它測(cè)量每個(gè)類的概率,每個(gè)類的條件概率給出 x 的值。這個(gè)算法用于分類問(wèn)題,得到一個(gè)二進(jìn)制“是 / 非”的結(jié)果??纯聪旅娴姆匠淌?。
支持向量機(jī)(Support Vector Machine,SVM)是一種用于分類問(wèn)題的監(jiān)督算法。支持向量機(jī)試圖在數(shù)據(jù)點(diǎn)之間繪制兩條線,它們之間的邊距最大。為此,我們將數(shù)據(jù)項(xiàng)繪制為 n 維空間中的點(diǎn),其中,n 是輸入特征的數(shù)量。在此基礎(chǔ)上,支持向量機(jī)找到一個(gè)最優(yōu)邊界,稱為超平面(Hyperplane),它通過(guò)類標(biāo)簽將可能的輸出進(jìn)行最佳分離。
K- 最近鄰算法(K-Nearest Neighbors,KNN)非常簡(jiǎn)單。KNN 通過(guò)在整個(gè)訓(xùn)練集中搜索 K 個(gè)最相似的實(shí)例,即 K 個(gè)鄰居,并為所有這些 K 個(gè)實(shí)例分配一個(gè)公共輸出變量,來(lái)對(duì)對(duì)象進(jìn)行分類。
K- 均值(K-means)是通過(guò)對(duì)數(shù)據(jù)集進(jìn)行分類來(lái)聚類的。例如,這個(gè)算法可用于根據(jù)購(gòu)買歷史將用戶分組。它在數(shù)據(jù)集中找到 K 個(gè)聚類。K- 均值用于無(wú)監(jiān)督學(xué)習(xí),因此,我們只需使用訓(xùn)練數(shù)據(jù) X,以及我們想要識(shí)別的聚類數(shù)量 K。
四、機(jī)器學(xué)習(xí)有哪些算法
樸素貝葉斯分類器算法是最受歡迎的學(xué)習(xí)方法之一,按照相似性分類,用流行的貝葉斯概率定理來(lái)建立機(jī)器學(xué)習(xí)模型,特別是用于疾病預(yù)測(cè)和文檔分類。 它是基于貝葉斯概率定理的單詞的內(nèi)容的主觀分析的簡(jiǎn)單分類。
什么時(shí)候使用機(jī)器學(xué)習(xí)算法 - 樸素貝葉斯分類器?
(1)如果您有一個(gè)中等或大的訓(xùn)練數(shù)據(jù)集。
(2)如果實(shí)例具有幾個(gè)屬性。
(3)給定分類參數(shù),描述實(shí)例的屬性應(yīng)該是條件獨(dú)立的。
A.樸素貝葉斯分類器的應(yīng)用
(1)情緒分析 - 用于Facebook分析表示積極或消極情緒的狀態(tài)更新。
(2)文檔分類 - Google使用文檔分類來(lái)索引文檔并查找相關(guān)性分?jǐn)?shù),即PageRank。 PageRank機(jī)制考慮在使用文檔分類技術(shù)解析和分類的數(shù)據(jù)庫(kù)中標(biāo)記為重要的頁(yè)面。
(3)樸素貝葉斯算法也用于分類關(guān)于技術(shù),娛樂(lè),體育,政治等的新聞文章。
(4)電子郵件垃圾郵件過(guò)濾 - Google Mail使用NaïveBayes算法將您的電子郵件歸類為垃圾郵件或非垃圾郵件。
B.樸素貝葉斯分類器機(jī)器學(xué)習(xí)算法的優(yōu)點(diǎn)
(1)當(dāng)輸入變量是分類時(shí),樸素貝葉斯分類器算法執(zhí)行得很好。
(2)當(dāng)樸素貝葉斯條件獨(dú)立假設(shè)成立時(shí),樸素貝葉斯分類器收斂更快,需要相對(duì)較少的訓(xùn)練數(shù)據(jù),而不像其他判別模型,如邏輯回歸。
(3)使用樸素貝葉斯分類器算法,更容易預(yù)測(cè)測(cè)試數(shù)據(jù)集的類。 多等級(jí)預(yù)測(cè)的好賭注。
(4)雖然它需要條件獨(dú)立假設(shè),但是樸素貝葉斯分類器在各種應(yīng)用領(lǐng)域都表現(xiàn)出良好的性能。
Python中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)NaïveBayes - Sci-Kit學(xué)習(xí)
數(shù)據(jù)科學(xué)圖書(shū)館在R實(shí)施樸素貝葉斯 - e1071
3.2 K均值聚類算法
K-means是用于聚類分析的普遍使用的無(wú)監(jiān)督機(jī)器學(xué)習(xí)算法。 K-Means是一種非確定性和迭代的方法。 該算法通過(guò)預(yù)定數(shù)量的簇k對(duì)給定數(shù)據(jù)集進(jìn)行操作。 K Means算法的輸出是具有在簇之間分割的輸入數(shù)據(jù)的k個(gè)簇。
例如,讓我們考慮維基百科搜索結(jié)果的K均值聚類。 維基百科上的搜索詞“Jaguar”將返回包含Jaguar這個(gè)詞的所有頁(yè)面,它可以將Jaguar稱為Car,Jaguar稱為Mac OS版本,Jaguar作為動(dòng)物。 K均值聚類算法可以應(yīng)用于對(duì)描述類似概念的網(wǎng)頁(yè)進(jìn)行分組。 因此,算法將把所有談?wù)摻荼木W(wǎng)頁(yè)作為一個(gè)動(dòng)物分組到一個(gè)集群,將捷豹作為一個(gè)汽車分組到另一個(gè)集群,等等。
A.使用K-means聚類機(jī)學(xué)習(xí)算法的優(yōu)點(diǎn)
(1)在球狀簇的情況下,K-Means產(chǎn)生比層級(jí)聚類更緊密的簇。
(2)給定一個(gè)較小的K值,K-Means聚類計(jì)算比大量變量的層次聚類更快。
B.K-Means聚類的應(yīng)用
K Means Clustering算法被大多數(shù)搜索引擎(如Yahoo,Google)用于通過(guò)相似性對(duì)網(wǎng)頁(yè)進(jìn)行聚類,并識(shí)別搜索結(jié)果的“相關(guān)率”。 這有助于搜索引擎減少用戶的計(jì)算時(shí)間。
Python中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)K均值聚類 - SciPy,Sci-Kit學(xué)習(xí),Python包裝
數(shù)據(jù)科學(xué)庫(kù)中的R實(shí)現(xiàn)K均值聚類 - 統(tǒng)計(jì)
3.3 支持向量機(jī)學(xué)習(xí)算法
支持向量機(jī)是一種分類或回歸問(wèn)題的監(jiān)督機(jī)器學(xué)習(xí)算法,其中數(shù)據(jù)集教導(dǎo)關(guān)于類的SVM,以便SVM可以對(duì)任何新數(shù)據(jù)進(jìn)行分類。 它通過(guò)找到將訓(xùn)練數(shù)據(jù)集分成類的線(超平面)將數(shù)據(jù)分類到不同的類中來(lái)工作。 由于存在許多這樣的線性超平面,SVM算法嘗試最大化所涉及的各種類之間的距離,并且這被稱為邊際最大化。 如果識(shí)別出最大化類之間的距離的線,則增加對(duì)未看見(jiàn)數(shù)據(jù)良好推廣的概率。
A.SVM分為兩類:
線性SVM - 在線性SVM中,訓(xùn)練數(shù)據(jù),即分類器由超平面分離。
非線性SVM在非線性SVM中,不可能使用超平面來(lái)分離訓(xùn)練數(shù)據(jù)。 例如,用于面部檢測(cè)的訓(xùn)練數(shù)據(jù)由作為面部的一組圖像和不是面部的另一組圖像(換句話說(shuō),除了面部之外的所有其他圖像)組成。 在這種條件下,訓(xùn)練數(shù)據(jù)太復(fù)雜,不可能找到每個(gè)特征向量的表示。 將面的集合與非面的集線性分離是復(fù)雜的任務(wù)。
B.使用SVM的優(yōu)點(diǎn)
(1)SVM對(duì)訓(xùn)練數(shù)據(jù)提供最佳分類性能(精度)。
(2)SVM為未來(lái)數(shù)據(jù)的正確分類提供了更高的效率。
(3)SVM的最好的事情是它不對(duì)數(shù)據(jù)做任何強(qiáng)有力的假設(shè)。
(4)它不會(huì)過(guò)度擬合數(shù)據(jù)。
C.支持向量機(jī)的應(yīng)用
(1)SVM通常用于各種金融機(jī)構(gòu)的股票市場(chǎng)預(yù)測(cè)。 例如,它可以用來(lái)比較股票相對(duì)于同一行業(yè)中其他股票的表現(xiàn)的相對(duì)表現(xiàn)。 股票的相對(duì)比較有助于管理基于由SVM學(xué)習(xí)算法做出的分類的投資決策。
(2)Python中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)支持向量機(jī)-SciKit學(xué)習(xí),PyML,SVMStruct Python,LIBSVM
(3)R中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)支持向量機(jī) - klar,e1071
3.4 Apriori機(jī)器學(xué)習(xí)算法
Apriori算法是無(wú)監(jiān)督機(jī)器學(xué)習(xí)算法,其從給定數(shù)據(jù)集生成關(guān)聯(lián)規(guī)則。 關(guān)聯(lián)規(guī)則意味著如果項(xiàng)目A出現(xiàn),則項(xiàng)目B也以一定概率出現(xiàn)。 生成的大多數(shù)關(guān)聯(lián)規(guī)則采用IF_THEN格式。 例如,如果人們買了一個(gè)iPad,他們還買了一個(gè)iPad保護(hù)套。 為了得到這樣的結(jié)論的算法,它首先觀察購(gòu)買iPad的人購(gòu)買iPad的人數(shù)。 這樣一來(lái),比例就像100個(gè)購(gòu)買iPad的人一樣,85個(gè)人還購(gòu)買了一個(gè)iPad案例。
A.Apriori機(jī)器學(xué)習(xí)算法的基本原理:
如果項(xiàng)集合頻繁出現(xiàn),則項(xiàng)集合的所有子集也頻繁出現(xiàn)。
如果項(xiàng)集合不經(jīng)常出現(xiàn),則項(xiàng)集合的所有超集都不經(jīng)常出現(xiàn)。
B.先驗(yàn)算法的優(yōu)點(diǎn)
(1)它易于實(shí)現(xiàn)并且可以容易地并行化。
(2)Apriori實(shí)現(xiàn)使用大項(xiàng)目集屬性。
C.Apriori算法應(yīng)用
檢測(cè)不良藥物反應(yīng)
Apriori算法用于關(guān)于醫(yī)療數(shù)據(jù)的關(guān)聯(lián)分析,例如患者服用的藥物,每個(gè)患者的特征,不良的不良反應(yīng)患者體驗(yàn),初始診斷等。該分析產(chǎn)生關(guān)聯(lián)規(guī)則,其幫助識(shí)別患者特征和藥物的組合 導(dǎo)致藥物的不良副作用。
市場(chǎng)籃子分析
許多電子商務(wù)巨頭如亞馬遜使用Apriori來(lái)繪制數(shù)據(jù)洞察,哪些產(chǎn)品可能是一起購(gòu)買,哪些是最響應(yīng)促銷。 例如,零售商可能使用Apriori預(yù)測(cè)購(gòu)買糖和面粉的人很可能購(gòu)買雞蛋來(lái)烘烤蛋糕。
自動(dòng)完成應(yīng)用程序
Google自動(dòng)完成是Apriori的另一個(gè)流行的應(yīng)用程序,其中 - 當(dāng)用戶鍵入單詞時(shí),搜索引擎尋找人們通常在特定單詞之后鍵入的其他相關(guān)聯(lián)的單詞。
Python中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)Apriori機(jī)器學(xué)習(xí)算法 - 在PyPi中有一個(gè)python實(shí)現(xiàn)Apriori
數(shù)據(jù)科學(xué)庫(kù)在R中實(shí)現(xiàn)Apriori機(jī)器學(xué)習(xí)算法 – arules
3.5 線性回歸機(jī)器學(xué)習(xí)算法
線性回歸算法顯示了2個(gè)變量之間的關(guān)系,以及一個(gè)變量中的變化如何影響另一個(gè)變量。 該算法顯示了在改變自變量時(shí)對(duì)因變量的影響。 自變量被稱為解釋變量,因?yàn)樗鼈兘忉屃艘蜃兞繉?duì)因變量的影響。 依賴變量通常被稱為感興趣的因子或預(yù)測(cè)因子。
A.線性回歸機(jī)器學(xué)習(xí)算法的優(yōu)點(diǎn)
(1)它是最可解釋的機(jī)器學(xué)習(xí)算法之一,使得它很容易解釋給別人。
(2)它易于使用,因?yàn)樗枰钚〉恼{(diào)諧。
(3)它是最廣泛使用的機(jī)器學(xué)習(xí)技術(shù)運(yùn)行快。
B.線性回歸算法應(yīng)用
估計(jì)銷售額
線性回歸在業(yè)務(wù)中有很大的用途,基于趨勢(shì)的銷售預(yù)測(cè)。如果公司每月的銷售額穩(wěn)步增長(zhǎng) - 對(duì)月度銷售數(shù)據(jù)的線性回歸分析有助于公司預(yù)測(cè)未來(lái)幾個(gè)月的銷售額。
風(fēng)險(xiǎn)評(píng)估
線性回歸有助于評(píng)估涉及保險(xiǎn)或金融領(lǐng)域的風(fēng)險(xiǎn)。健康保險(xiǎn)公司可以對(duì)每個(gè)客戶的索賠數(shù)量與年齡進(jìn)行線性回歸分析。這種分析有助于保險(xiǎn)公司發(fā)現(xiàn),老年顧客傾向于提出更多的保險(xiǎn)索賠。這樣的分析結(jié)果在重要的商業(yè)決策中起著至關(guān)重要的作用,并且是為了解決風(fēng)險(xiǎn)。
Python中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)線性回歸 - statsmodel和SciKit
R中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)線性回歸 - 統(tǒng)計(jì)
3.6 決策樹(shù)機(jī)器學(xué)習(xí)算法
你正在制作一個(gè)周末計(jì)劃,去訪問(wèn)最好的餐館在城里,因?yàn)槟愕母改冈L問(wèn),但你是猶豫的決定在哪家餐廳選擇。每當(dāng)你想去一家餐館,你問(wèn)你的朋友提利昂如果他認(rèn)為你會(huì)喜歡一個(gè)特定的地方。為了回答你的問(wèn)題,提利昂首先要找出,你喜歡的那種餐館。你給他一個(gè)你去過(guò)的餐館列表,告訴他你是否喜歡每個(gè)餐廳(給出一個(gè)標(biāo)記的訓(xùn)練數(shù)據(jù)集)。當(dāng)你問(wèn)提利昂你是否想要一個(gè)特定的餐廳R,他問(wèn)你各種問(wèn)題,如“是”R“屋頂餐廳?”,“餐廳”R“服務(wù)意大利菜嗎?”,現(xiàn)場(chǎng)音樂(lè)?“,”餐廳R是否營(yíng)業(yè)至午夜?“等等。提利昂要求您提供幾個(gè)信息問(wèn)題,以最大限度地提高信息收益,并根據(jù)您對(duì)問(wèn)卷的答案給予YES或NO回答。這里Tyrion是你最喜歡的餐廳偏好的決策樹(shù)。
決策樹(shù)是一種圖形表示,其使用分支方法來(lái)基于某些條件來(lái)例示決策的所有可能的結(jié)果。在決策樹(shù)中,內(nèi)部節(jié)點(diǎn)表示對(duì)屬性的測(cè)試,樹(shù)的每個(gè)分支表示測(cè)試的結(jié)果,葉節(jié)點(diǎn)表示特定類標(biāo)簽,即在計(jì)算所有屬性之后作出的決定。分類規(guī)則通過(guò)從根到葉節(jié)點(diǎn)的路徑來(lái)表示。
A.決策樹(shù)的類型
(1)分類樹(shù) - 這些被視為用于基于響應(yīng)變量將數(shù)據(jù)集分成不同類的默認(rèn)種類的決策樹(shù)。 這些通常在響應(yīng)變量本質(zhì)上是分類時(shí)使用。
(2)回歸樹(shù) - 當(dāng)響應(yīng)或目標(biāo)變量是連續(xù)或數(shù)字時(shí),使用回歸樹(shù)。 與分類相比,這些通常用于預(yù)測(cè)類型的問(wèn)題。
根據(jù)目標(biāo)變量的類型 - 連續(xù)變量決策樹(shù)和二進(jìn)制變量決策樹(shù),決策樹(shù)也可以分為兩種類型。 它是有助于決定對(duì)于特定問(wèn)題需要什么樣的決策樹(shù)的目標(biāo)變量。
B.為什么選擇決策樹(shù)算法?
(1)這些機(jī)器學(xué)習(xí)算法有助于在不確定性下作出決策,并幫助您改善溝通,因?yàn)樗麄兲峁┝藳Q策情況的可視化表示。
(2)決策樹(shù)機(jī)器學(xué)習(xí)算法幫助數(shù)據(jù)科學(xué)家捕獲這樣的想法:如果采取了不同的決策,那么情境或模型的操作性質(zhì)將如何劇烈變化。
(3)決策樹(shù)算法通過(guò)允許數(shù)據(jù)科學(xué)家遍歷前向和后向計(jì)算路徑來(lái)幫助做出最佳決策。
C.何時(shí)使用決策樹(shù)機(jī)器學(xué)習(xí)算法
(1)決策樹(shù)對(duì)錯(cuò)誤是魯棒的,并且如果訓(xùn)練數(shù)據(jù)包含錯(cuò)誤,則決策樹(shù)算法將最適合于解決這樣的問(wèn)題。
(2)決策樹(shù)最適合于實(shí)例由屬性值對(duì)表示的問(wèn)題。
(3)如果訓(xùn)練數(shù)據(jù)具有缺失值,則可以使用決策樹(shù),因?yàn)樗鼈兛梢酝ㄟ^(guò)查看其他列中的數(shù)據(jù)來(lái)很好地處理丟失的值。
(4)當(dāng)目標(biāo)函數(shù)具有離散輸出值時(shí),決策樹(shù)是最適合的。
D.決策樹(shù)的優(yōu)點(diǎn)
(1)決策樹(shù)是非常本能的,可以向任何人輕松解釋。來(lái)自非技術(shù)背景的人,也可以解釋從決策樹(shù)繪制的假設(shè),因?yàn)樗麄兪遣谎宰悦鞯摹?/p>
(2)當(dāng)使用決策樹(shù)機(jī)器學(xué)習(xí)算法時(shí),數(shù)據(jù)類型不是約束,因?yàn)樗鼈兛梢蕴幚矸诸惡蛿?shù)值變量。
(3)決策樹(shù)機(jī)器學(xué)習(xí)算法不需要對(duì)數(shù)據(jù)中的線性進(jìn)行任何假設(shè),因此可以在參數(shù)非線性相關(guān)的情況下使用。這些機(jī)器學(xué)習(xí)算法不對(duì)分類器結(jié)構(gòu)和空間分布做出任何假設(shè)。
(4)這些算法在數(shù)據(jù)探索中是有用的。決策樹(shù)隱式執(zhí)行特征選擇,這在預(yù)測(cè)分析中非常重要。當(dāng)決策樹(shù)適合于訓(xùn)練數(shù)據(jù)集時(shí),在其上分割決策樹(shù)的頂部的節(jié)點(diǎn)被認(rèn)為是給定數(shù)據(jù)集內(nèi)的重要變量,并且默認(rèn)情況下完成特征選擇。
(5)決策樹(shù)有助于節(jié)省數(shù)據(jù)準(zhǔn)備時(shí)間,因?yàn)樗鼈儗?duì)缺失值和異常值不敏感。缺少值不會(huì)阻止您拆分構(gòu)建決策樹(shù)的數(shù)據(jù)。離群值也不會(huì)影響決策樹(shù),因?yàn)榛诜至逊秶鷥?nèi)的一些樣本而不是準(zhǔn)確的絕對(duì)值發(fā)生數(shù)據(jù)分裂。
E.決策樹(shù)的缺點(diǎn)
(1)樹(shù)中決策的數(shù)量越多,任何預(yù)期結(jié)果的準(zhǔn)確性越小。
(2)決策樹(shù)機(jī)器學(xué)習(xí)算法的主要缺點(diǎn)是結(jié)果可能基于預(yù)期。當(dāng)實(shí)時(shí)做出決策時(shí),收益和產(chǎn)生的結(jié)果可能與預(yù)期或計(jì)劃不同。有機(jī)會(huì),這可能導(dǎo)致不現(xiàn)實(shí)的決策樹(shù)導(dǎo)致錯(cuò)誤的決策。任何不合理的期望可能導(dǎo)致決策樹(shù)分析中的重大錯(cuò)誤和缺陷,因?yàn)椴⒉豢偸强赡苡?jì)劃從決策可能產(chǎn)生的所有可能性。
(3)決策樹(shù)不適合連續(xù)變量,并導(dǎo)致不穩(wěn)定性和分類高原。
(4)與其他決策模型相比,決策樹(shù)很容易使用,但是創(chuàng)建包含幾個(gè)分支的大決策樹(shù)是一個(gè)復(fù)雜和耗時(shí)的任務(wù)。
(5)決策樹(shù)機(jī)器學(xué)習(xí)算法一次只考慮一個(gè)屬性,并且可能不是最適合于決策空間中的實(shí)際數(shù)據(jù)。
(6)具有多個(gè)分支的大尺寸決策樹(shù)是不可理解的,并且造成若干呈現(xiàn)困難。
F.決策樹(shù)機(jī)器學(xué)習(xí)算法的應(yīng)用
(1)決策樹(shù)是流行的機(jī)器學(xué)習(xí)算法之一,它在財(cái)務(wù)中對(duì)期權(quán)定價(jià)有很大的用處。
(2)遙感是基于決策樹(shù)的模式識(shí)別的應(yīng)用領(lǐng)域。
(3)銀行使用決策樹(shù)算法按貸款申請(qǐng)人違約付款的概率對(duì)其進(jìn)行分類。
(4)Gerber產(chǎn)品公司,一個(gè)流行的嬰兒產(chǎn)品公司,使用決策樹(shù)機(jī)器學(xué)習(xí)算法來(lái)決定他們是否應(yīng)繼續(xù)使用塑料PVC(聚氯乙烯)在他們的產(chǎn)品。
(5)Rush大學(xué)醫(yī)學(xué)中心開(kāi)發(fā)了一個(gè)名為Guardian的工具,它使用決策樹(shù)機(jī)器學(xué)習(xí)算法來(lái)識(shí)別有風(fēng)險(xiǎn)的患者和疾病趨勢(shì)。
Python語(yǔ)言中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)決策樹(shù)機(jī)器學(xué)習(xí)算法是 - SciPy和Sci-Kit學(xué)習(xí)。
R語(yǔ)言中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)決策樹(shù)機(jī)器學(xué)習(xí)算法是插入符號(hào)。
3.7 隨機(jī)森林機(jī)器學(xué)習(xí)算法
讓我們繼續(xù)我們?cè)跊Q策樹(shù)中使用的同樣的例子,來(lái)解釋隨機(jī)森林機(jī)器學(xué)習(xí)算法如何工作。提利昂是您的餐廳偏好的決策樹(shù)。然而,提利昂作為一個(gè)人并不總是準(zhǔn)確地推廣你的餐廳偏好。要獲得更準(zhǔn)確的餐廳推薦,你問(wèn)一對(duì)夫婦的朋友,并決定訪問(wèn)餐廳R,如果大多數(shù)人說(shuō)你會(huì)喜歡它。而不是只是問(wèn)Tyrion,你想問(wèn)問(wèn)Jon Snow,Sandor,Bronn和Bran誰(shuí)投票決定你是否喜歡餐廳R或不。這意味著您已經(jīng)構(gòu)建了決策樹(shù)的合奏分類器 - 也稱為森林。
你不想讓所有的朋友給你相同的答案 - 所以你提供每個(gè)朋友略有不同的數(shù)據(jù)。你也不確定你的餐廳偏好,是在一個(gè)困境。你告訴提利昂你喜歡開(kāi)頂屋頂餐廳,但也許,只是因?yàn)樗窃谙奶?,?dāng)你訪問(wèn)的餐廳,你可能已經(jīng)喜歡它。在寒冷的冬天,你可能不是餐廳的粉絲。因此,所有的朋友不應(yīng)該利用你喜歡打開(kāi)的屋頂餐廳的數(shù)據(jù)點(diǎn),以提出他們的建議您的餐廳偏好。
通過(guò)為您的朋友提供略微不同的餐廳偏好數(shù)據(jù),您可以讓您的朋友在不同時(shí)間向您詢問(wèn)不同的問(wèn)題。在這種情況下,只是稍微改變你的餐廳偏好,你是注入隨機(jī)性在模型級(jí)別(不同于決策樹(shù)情況下的數(shù)據(jù)級(jí)別的隨機(jī)性)。您的朋友群現(xiàn)在形成了您的餐廳偏好的隨機(jī)森林。
隨機(jī)森林是一種機(jī)器學(xué)習(xí)算法,它使用裝袋方法來(lái)創(chuàng)建一堆隨機(jī)數(shù)據(jù)子集的決策樹(shù)。模型在數(shù)據(jù)集的隨機(jī)樣本上進(jìn)行多次訓(xùn)練,以從隨機(jī)森林算法中獲得良好的預(yù)測(cè)性能。在該整體學(xué)習(xí)方法中,將隨機(jī)森林中所有決策樹(shù)的輸出結(jié)合起來(lái)進(jìn)行最終預(yù)測(cè)。隨機(jī)森林算法的最終預(yù)測(cè)通過(guò)輪詢每個(gè)決策樹(shù)的結(jié)果或者僅僅通過(guò)使用在決策樹(shù)中出現(xiàn)最多次的預(yù)測(cè)來(lái)導(dǎo)出。
例如,在上面的例子 - 如果5個(gè)朋友決定你會(huì)喜歡餐廳R,但只有2個(gè)朋友決定你不會(huì)喜歡的餐廳,然后最后的預(yù)測(cè)是,你會(huì)喜歡餐廳R多數(shù)總是勝利。
A.為什么使用隨機(jī)森林機(jī)器學(xué)習(xí)算法?
(1)有很多好的開(kāi)源,在Python和R中可用的算法的自由實(shí)現(xiàn)。
(2)它在缺少數(shù)據(jù)時(shí)保持準(zhǔn)確性,并且還能抵抗異常值。
(3)簡(jiǎn)單的使用作為基本的隨機(jī)森林算法可以實(shí)現(xiàn)只用幾行代碼。
(4)隨機(jī)森林機(jī)器學(xué)習(xí)算法幫助數(shù)據(jù)科學(xué)家節(jié)省數(shù)據(jù)準(zhǔn)備時(shí)間,因?yàn)樗鼈儾恍枰魏屋斎霚?zhǔn)備,并且能夠處理數(shù)字,二進(jìn)制和分類特征,而無(wú)需縮放,變換或修改。
(5)隱式特征選擇,因?yàn)樗o出了什么變量在分類中是重要的估計(jì)。
B.使用隨機(jī)森林機(jī)器學(xué)習(xí)算法的優(yōu)點(diǎn)
(1)與決策樹(shù)機(jī)器學(xué)習(xí)算法不同,過(guò)擬合對(duì)隨機(jī)森林不是一個(gè)問(wèn)題。沒(méi)有必要修剪隨機(jī)森林。
(2)這些算法很快,但不是在所有情況下。隨機(jī)森林算法當(dāng)在具有100個(gè)變量的數(shù)據(jù)集的800MHz機(jī)器上運(yùn)行時(shí),并且50,000個(gè)案例在11分鐘內(nèi)產(chǎn)生100個(gè)決策樹(shù)。
(3)隨機(jī)森林是用于各種分類和回歸任務(wù)的最有效和通用的機(jī)器學(xué)習(xí)算法之一,因?yàn)樗鼈儗?duì)噪聲更加魯棒。
(4)很難建立一個(gè)壞的隨機(jī)森林。在隨機(jī)森林機(jī)器學(xué)習(xí)算法的實(shí)現(xiàn)中,容易確定使用哪些參數(shù),因?yàn)樗鼈儗?duì)用于運(yùn)行算法的參數(shù)不敏感。一個(gè)人可以輕松地建立一個(gè)體面的模型沒(méi)有太多的調(diào)整
(5)隨機(jī)森林機(jī)器學(xué)習(xí)算法可以并行生長(zhǎng)。
(6)此算法在大型數(shù)據(jù)庫(kù)上高效運(yùn)行。
(7)具有較高的分類精度。
C.使用隨機(jī)森林機(jī)器學(xué)習(xí)算法的缺點(diǎn)
他們可能很容易使用,但從理論上分析它們是很困難的。
隨機(jī)森林中大量的決策樹(shù)可以減慢算法進(jìn)行實(shí)時(shí)預(yù)測(cè)。
如果數(shù)據(jù)由具有不同級(jí)別數(shù)量的分類變量組成,則算法會(huì)偏好具有更多級(jí)別的那些屬性。 在這種情況下,可變重要性分?jǐn)?shù)似乎不可靠。
當(dāng)使用RandomForest算法進(jìn)行回歸任務(wù)時(shí),它不會(huì)超出訓(xùn)練數(shù)據(jù)中響應(yīng)值的范圍。
D.隨機(jī)森林機(jī)器學(xué)習(xí)算法的應(yīng)用
(1)隨機(jī)森林算法被銀行用來(lái)預(yù)測(cè)貸款申請(qǐng)人是否可能是高風(fēng)險(xiǎn)。
(2)它們用于汽車工業(yè)中以預(yù)測(cè)機(jī)械部件的故障或故障。
(3)這些算法用于醫(yī)療保健行業(yè)以預(yù)測(cè)患者是否可能發(fā)展成慢性疾病。
(4)它們還可用于回歸任務(wù),如預(yù)測(cè)社交媒體份額和績(jī)效分?jǐn)?shù)的平均數(shù)。
(5)最近,該算法也已經(jīng)被用于預(yù)測(cè)語(yǔ)音識(shí)別軟件中的模式并對(duì)圖像和文本進(jìn)行分類。
Python語(yǔ)言中的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)隨機(jī)森林機(jī)器學(xué)習(xí)算法是Sci-Kit學(xué)習(xí)。
R語(yǔ)言的數(shù)據(jù)科學(xué)庫(kù)實(shí)現(xiàn)隨機(jī)森林機(jī)器學(xué)習(xí)算法randomForest。
以上就是關(guān)于線性回歸算法相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
線性濱水空間景觀設(shè)計(jì)圖(線性濱水空間景觀設(shè)計(jì)圖紙)
商業(yè)空間線性景觀設(shè)計(jì)(商業(yè)空間線性景觀設(shè)計(jì)圖)
線性景觀設(shè)計(jì)構(gòu)成作業(yè)(線性景觀設(shè)計(jì)構(gòu)成作業(yè)圖)
猜你喜歡
公司網(wǎng)頁(yè)制作需要多少錢(公司網(wǎng)頁(yè)制作需要多少錢一個(gè)月)
打開(kāi)網(wǎng)頁(yè)不顯示內(nèi)容(打開(kāi)網(wǎng)頁(yè)不顯示內(nèi)容是什么問(wèn)題)
百度推廣賬號(hào)注冊(cè)流程(百度推廣賬號(hào)注冊(cè)流程視頻)
三年級(jí)下冊(cè)關(guān)聯(lián)詞有哪些(三年級(jí)下冊(cè)關(guān)聯(lián)詞有哪些詞語(yǔ))
百度關(guān)鍵詞挖掘查詢工具(百度關(guān)鍵詞挖掘查排名工具)