智能算法(人工智能常用算法介紹)
人工智能的三大基石——算法、數(shù)據(jù)和計(jì)算能力。算法作為其中之一,非常重要。那么人工智能會(huì)涉及哪些算法呢?不同的算法適用于哪些場景?
1.根據(jù)模型訓(xùn)練方法的不同,可以分為四類:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。
常見的監(jiān)督學(xué)習(xí)算法包括以下幾類:
(1)人工神經(jīng)網(wǎng)絡(luò):反向傳播、玻爾茲曼機(jī)、卷積神經(jīng)網(wǎng)絡(luò)、Hopfield網(wǎng)絡(luò)、多層感知器、徑向基函數(shù)網(wǎng)絡(luò)、RBFN)、受限玻爾茲曼機(jī)、遞歸神經(jīng)網(wǎng)絡(luò)(RNN)、自組織映射(SOM)、脈沖神經(jīng)網(wǎng)絡(luò)等。
(2) Bayesin:樸素貝葉斯、高斯樸素貝葉斯、多項(xiàng)式樸素貝葉斯和平均單相關(guān)估計(jì)(AODE)
貝葉斯信念網(wǎng)絡(luò)(BBN)、貝葉斯網(wǎng)絡(luò)(BN)等。
(3)決策樹:分類回歸樹(CART)、迭代二分器3 (ID3)、C4.5算法(C4.5算法)、C5.0算法(C5.0算法)、卡方自動(dòng)交互檢測、CHAID、決策樹樁、ID3算法、隨機(jī)森林、SLIQ(Quest中的監(jiān)督學(xué)習(xí))等。
(4)線性分類器:Fisher線性判別式。
線性回歸、邏輯回歸、多元邏輯回歸、樸素貝葉斯分類器、感知、支持向量機(jī)等。
常見的無監(jiān)督學(xué)習(xí)算法包括:
(1)人工神經(jīng)網(wǎng)絡(luò):生成拮抗網(wǎng)絡(luò)(GAN)、前饋神經(jīng)網(wǎng)絡(luò)(feed forward neural networks)、邏輯學(xué)習(xí)機(jī)(logic learning machines)、自組織映射等。
(2)關(guān)聯(lián)規(guī)則學(xué)習(xí):Apriori算法、Eclat算法、FP-Growth算法等。
(3)層次聚類算法:單鏈聚類、概念聚類等。
(4)聚類分析:BIRCH算法、DBSCAN算法、期望最大化(EM)、模糊聚類、K-均值算法、K-均值聚類、K-中位數(shù)聚類、Mean-shift算法、Mean-shift算法。
(5)異常檢測:K近鄰(KNN)算法、局部離群因子(LOF)算法等。
常見的半監(jiān)督學(xué)習(xí)算法包括:生成模型、低密度分離、基于圖的方法、協(xié)同訓(xùn)練等。
常見的強(qiáng)化學(xué)習(xí)算法包括:Q-學(xué)習(xí)、狀態(tài)-動(dòng)作-獎(jiǎng)勵(lì)-狀態(tài)-動(dòng)作(SARSA)、DQN(深度Q網(wǎng)絡(luò))、策略梯度、基于模型的強(qiáng)化學(xué)習(xí)(基于模型的RL)、時(shí)間差異學(xué)習(xí)(臨時(shí))
常見的深度學(xué)習(xí)算法包括:深度信念機(jī)器、深度卷積神經(jīng)網(wǎng)絡(luò)、深度遞歸神經(jīng)網(wǎng)絡(luò)、分層時(shí)間記憶(HTM)、深度玻爾茲曼機(jī)器(DBM)、堆疊自動(dòng)編碼器、生成對(duì)抗網(wǎng)絡(luò)等。
其次,根據(jù)要解決的任務(wù)不同,大致可以分為五種類型:二類分類算法、多類分類算法、回歸算法、聚類算法和異常檢測。
1.兩級(jí)分類
(1)兩類支持向量機(jī)(兩類SVM):適用于數(shù)據(jù)特征多、模型線性的場景。
(2)二類平均感知器:適用于訓(xùn)練時(shí)間短、模型線性的場景。
(3)二類Logistic回歸:適用于訓(xùn)練時(shí)間短,模型線性的場景。
(4)兩類貝葉斯點(diǎn)機(jī)器:適用于訓(xùn)練時(shí)間短,模型線性的場景。(5)二類決策森林:適用于短時(shí)精準(zhǔn)的訓(xùn)練場景。
(6)二類提升決策樹:適用于訓(xùn)練時(shí)間短、準(zhǔn)確率高、內(nèi)存占用大的場景。
(7)二類決策叢林:適用于訓(xùn)練時(shí)間短、準(zhǔn)確率高、占用內(nèi)存小的場景。
(8)二類局部深度支持向量機(jī)(二類局部深度SVM):適用于數(shù)據(jù)特征較多的場景。
(9)兩類神經(jīng)網(wǎng)絡(luò):適用于精度高、訓(xùn)練時(shí)間長的場景。
解決多分類問題通常有三種解決方案:一是從數(shù)據(jù)集和適用方法入手,用兩個(gè)分類器解決多分類問題;二是直接使用具有多分類能力的多分類器;第三,把兩個(gè)分類器改進(jìn)成多分類器,解決今天的多分類問題。
常用算法:
(1)多類Logistic回歸:適用于訓(xùn)練時(shí)間短、模型線性的場景。
(2)多類神經(jīng)網(wǎng)絡(luò):適用于精度高、訓(xùn)練時(shí)間長的場景。
(3)多類決策森林:適用于準(zhǔn)確率高、訓(xùn)練時(shí)間短的場景。
(4)多類決策叢林:適用于準(zhǔn)確率高、占用內(nèi)存小的場景。
(5)“一對(duì)多”多類:取決于兩個(gè)分類器的效果。
返回
回歸問題通常用于預(yù)測特定值,而不是分類。其他方法類似于分類問題,只是返回的結(jié)果不同。我們稱之為定量輸出,或連續(xù)變量預(yù)測,回歸;定性輸出,或?qū)﹄x散變量的預(yù)測,稱為分類。長毛巾的算法是:
(1)有序回歸:適用于整理數(shù)據(jù)的場景。
(2)泊松回歸:適用于預(yù)測事件數(shù)量的場景。
(3)快速森林分位數(shù)回歸:適用于預(yù)測分布的場景。
(4)線性回歸:適用于訓(xùn)練時(shí)間短,模型線性的場景。
(5)貝葉斯線性回歸:適用于線性模型和訓(xùn)練數(shù)據(jù)較少的場景。
(6)神經(jīng)網(wǎng)絡(luò)回歸:適用于精度高、訓(xùn)練時(shí)間長的場景。
(7)決策森林回歸:適用于準(zhǔn)確率高、訓(xùn)練時(shí)間短的場景。
(8)助推決策樹回歸:適用于準(zhǔn)確率高、訓(xùn)練時(shí)間短、內(nèi)存占用大的場景。
串
聚類的目標(biāo)是發(fā)現(xiàn)數(shù)據(jù)的潛在規(guī)律和結(jié)構(gòu)。聚類通常用于描述和度量不同數(shù)據(jù)源之間的相似性,并將數(shù)據(jù)源劃分到不同的簇中。
(1)層次聚類:適用于訓(xùn)練時(shí)間短、數(shù)據(jù)量大的場景。
(2)K-means算法:適用于準(zhǔn)確率高、訓(xùn)練時(shí)間短的場景。
(3)模糊C均值(FCM):適用于精度高、訓(xùn)練時(shí)間短的場景。
(4)自組織特征映射(SOM):適用于運(yùn)行時(shí)間較長的場景。
異常檢測
異常檢測是指檢測和標(biāo)記數(shù)據(jù)中的異?;蚍堑湫头至眩袝r(shí)也稱為偏差檢測。
異常檢測看起來很像監(jiān)督學(xué)習(xí)問題,兩者都是分類問題。兩者都是對(duì)樣本的標(biāo)簽進(jìn)行預(yù)測和判斷,但實(shí)際上兩者的區(qū)別是很大的,因?yàn)楫惓z測中的正樣本(異常值)是很小的。常用的算法有:
(1)一類支持向量機(jī)(一類SVM):適用于數(shù)據(jù)特征較多的場景。
(2)基于PCA的異常檢測:適用于訓(xùn)練時(shí)間較短的場景。
常見的遷移學(xué)習(xí)算法包括歸納遷移學(xué)習(xí)、直接遷移學(xué)習(xí)、無監(jiān)督遷移學(xué)習(xí)、直推式遷移學(xué)習(xí)等。
算法的適用場景:
需要考慮的因素有:
(1)數(shù)據(jù)的大小、質(zhì)量和特征。
(2)機(jī)器學(xué)習(xí)要解決的具體業(yè)務(wù)場景中的問題本質(zhì)是什么?
(3)什么是可接受的計(jì)算時(shí)間?
(4)算法的精度要求有多高?
有了算法和訓(xùn)練好的數(shù)據(jù)(預(yù)處理過的數(shù)據(jù)),經(jīng)過多次訓(xùn)練(考驗(yàn)計(jì)算能力的時(shí)候到了),經(jīng)過算法人員的模型評(píng)估和調(diào)整,得到訓(xùn)練模型。當(dāng)新的數(shù)據(jù)輸入后,我們的訓(xùn)練模型就會(huì)給出結(jié)果。即使實(shí)現(xiàn)了業(yè)務(wù)所需的最基本的功能。
產(chǎn)品在互聯(lián)網(wǎng)上自動(dòng)運(yùn)維是趨勢,因?yàn)榛ヂ?lián)網(wǎng)需要快速響應(yīng)的特性,決定了我們需要快速響應(yīng),快速修復(fù)問題。人工智能產(chǎn)品也不例外。AI+自動(dòng)運(yùn)維是如何工作的?