圖片來源@視覺中國 文字| 腦極體 文字| 腦極體 是指AI領(lǐng)域中的多任務(wù)學習。 許多人可能會立刻想到通用人工智能。 從廣義上講,就像超級海軍陸戰(zhàn)隊中的大白鯊一樣
圖片來源@視覺中國
文字| 腦極體
文字| 腦極體
是指AI領(lǐng)域中的多任務(wù)學習。 許多人可能會立刻想到通用人工智能。 從廣義上講,就像超級海軍陸戰(zhàn)隊中的大白鯊一樣,護理機器人不僅可以執(zhí)行醫(yī)療診斷,還可以讀取人們的情緒,并完成諸如伴侶機器人之類的各種復(fù)雜任務(wù)。 畢竟,
只是科幻電影的產(chǎn)物。 現(xiàn)有的大多數(shù)AI技術(shù)仍處于單體智能階段,也就是說,機器智能只能完成一個簡單的任務(wù)。 在工業(yè)機器人中,繪畫者只能用于繪畫,而搬運者只能用于繪畫。 識別面部的智能相機只能用于面部,一旦人們戴上口罩,他們就需要重新調(diào)整算法。 當然,使單個代理實現(xiàn)多個任務(wù)也是目前AI領(lǐng)域的熱門話題。 最近,強化學習和多任務(wù)學習算法的最佳成就是Deepmind公司的agent 57,它在街機學習環(huán)境(ALE)數(shù)據(jù)集中的所有57個yadali游戲中均取得了優(yōu)異的性能。
當然,多任務(wù)學習不僅用于游戲策略。 與當前的AI相比,我們?nèi)祟愂嵌嗳蝿?wù)學習的大師。 我們不需要學習成千上萬的數(shù)據(jù)樣本就可以了解某些知識,我們不需要為每種事物從頭開始,但是可以通過類比來掌握類似的事物。
ai可以輕易地使人類在單體智力上崩潰,例如,它可以識別成千上萬的人臉。 但是,在多任務(wù)學習中,人工智能需要與人類的這種普遍能力相一致。
什么是多任務(wù)學習?
多任務(wù)學習(MTL)只是機器模仿人類學習行為的一種方式。 人類的學習風格本身是通用的,即可以從一項任務(wù)的學習知識轉(zhuǎn)移到其他相關(guān)任務(wù),而不同任務(wù)的知識和技能可以互相幫助。 多任務(wù)學習涉及多個相關(guān)任務(wù)的同時并行學習以及梯度的同時反向傳播。 它使用相關(guān)任務(wù)訓練信號中包含的特定領(lǐng)域中的信息來提高泛化能力。
擴展了全文(單任務(wù)學習和多任務(wù)學習之間的模型比較)
使得圖像相似。 我們知道人類不像老虎和豹子那樣奔跑,不像猿一樣擅長爬山,也不像鯨類一樣擅長游泳,但是人類只能同時奔跑,爬山和游泳。 當談到人工智能和人工智能時,我們通常認為人工智能在單項任務(wù)中表現(xiàn)更好,并且優(yōu)于人類專家,例如alphago,而人類可能勝任各種任務(wù)。
mtl是讓人工智能實現(xiàn)人類的這種能力。 更加準確的學習模型,可以通過在學習多個任務(wù)時共享有用的信息來幫助每個任務(wù)更好地學習。
這里我們需要注意的是多任務(wù)學習和轉(zhuǎn)移學習之間的區(qū)別。 轉(zhuǎn)移學習的目的是將知識從一項任務(wù)轉(zhuǎn)移到另一項任務(wù)。 其目的是使用一個或多個任務(wù)來幫助改進另一個任務(wù),而MTL則是希望多個任務(wù)可以互相幫助。 在這里我們需要了解MTL的兩個特征:
1.任務(wù)相關(guān)性。 任務(wù)相關(guān)性意味著多個任務(wù)的完成模式之間存在一定的相關(guān)性。 例如,在面部識別中,除了面部特征的識別之外,還可以進行性別和年齡估計的識別,或者可以在不同種類的游戲中識別共同的規(guī)則。 這種相關(guān)性將被編碼到MTL模型的設(shè)計中。
2.任務(wù)有不同的分類。 MTL的任務(wù)分類主要包括監(jiān)督學習任務(wù),非監(jiān)督學習任務(wù),半監(jiān)督學習任務(wù),主動學習任務(wù),強化學習任務(wù),在線學習任務(wù)和多角度學習任務(wù)。 因此,不同的學習任務(wù)對應(yīng)于不同的MTL設(shè)置。
共享表示和特征泛化。 為什么在一個神經(jīng)網(wǎng)絡(luò)上同時訓練多個任務(wù)更好?
我們知道深度學習網(wǎng)絡(luò)是具有多個隱藏層的神經(jīng)網(wǎng)絡(luò),它將輸入數(shù)據(jù)逐層轉(zhuǎn)換為非線性,更抽象的特征表示。 然而,每一層的模型參數(shù)不是人為設(shè)定的,而是在給定學習者的參數(shù)后在訓練過程中學習的,這給多任務(wù)學習提供了發(fā)揮作用的空間,并具有足夠的能力來學習學習者的共同特征。 培訓過程中的多個任務(wù)。
例如,在上述MTL網(wǎng)絡(luò)中,反向傳播并行作用于四個輸出。 由于四個輸出在底部共享隱藏層,因此在這些隱藏層中用于任務(wù)的要素表示也可以由其他任務(wù)用來促進多個任務(wù)一起學習。 多個任務(wù)并行訓練并共享不同任務(wù)已學習的特征表示。 這樣,多任務(wù)信息有助于共享隱藏層以學習更好的內(nèi)部表示,這成為多任務(wù)學習的關(guān)鍵。
那么MTL如何工作? 在
mtl方法中,引入了感應(yīng)偏置。 感應(yīng)偏差有兩個作用。 一是互相促進。 多任務(wù)模型之間的關(guān)系可以被認為是互為先驗知識,也稱為歸納轉(zhuǎn)移(Transduction),具有模型的先驗假設(shè),可以更好地提高模型的效果; 另一個效果是約束,借助多個任務(wù)之間的噪聲平衡和表征偏差以實現(xiàn)更好的泛化性能。 首先,MTL的引入可以減少深度學習對大量數(shù)據(jù)的依賴。 小樣本任務(wù)可以從大樣本任務(wù)中學習一些共享表示,以減輕任務(wù)數(shù)據(jù)稀疏性的問題。
其次,多任務(wù)直接相互促進,體現(xiàn)在:①多種模型特征相互補充,例如在網(wǎng)頁分析模型中,改進點擊率預(yù)測模型還可以促進轉(zhuǎn)換模型學習更深層次的特征; ②注意機制,MTL可以幫助訓練模型將重點放在重要特征上,不同的任務(wù)將為該重要特征提供額外的證據(jù); ③任務(wù)特征的“竊聽”,即MTL可以使不同的任務(wù)竊聽彼此的特征,并通過“提示”訓練模型直接預(yù)測最重要的特征。 再次,多任務(wù)相互約束可以提高模型的通用性。 一方面,多任務(wù)噪音平衡。 多任務(wù)模型的不同噪聲模式可以使多個任務(wù)模型學習通用表示,避免單個任務(wù)的過度擬合,聯(lián)合學習可以通過平均噪聲模式獲得更好的表示; 另一方面,代表偏見。 MTL的表示偏好會導致模型偏差。 但這將有助于模型將來推廣到新任務(wù)。 在任務(wù)同源性的前提下,我們可以學習足夠的假設(shè)空間,以便將來在某些新任務(wù)中獲得更好的泛化性能。
行業(yè)現(xiàn)場登陸,MTL如何解決實際問題
因為MTL具有減少大數(shù)據(jù)樣本依存性和提高模型泛化性能的優(yōu)點,所以MTL被廣泛應(yīng)用于各種卷積神經(jīng)網(wǎng)絡(luò)模型訓練中。 首先,多任務(wù)學習可以學習多個任務(wù)的共享表示。 這種共享表示具有很強的抽象能力,可以適應(yīng)多個不同但相關(guān)的目標,并且通?梢允怪饕蝿(wù)獲得更好的泛化能力。 其次,由于使用共享表示,因此當多個任務(wù)同時進行預(yù)測時,數(shù)據(jù)源的數(shù)量和整體模型參數(shù)的規(guī)模將減少,從而使預(yù)測更加有效。 在計算機視覺的應(yīng)用中,例如目標識別,檢測,分割和其他場景,我們以MTL為例。
,例如面部特征點檢測。 因為面部特征可能會受遮擋和姿勢變化的影響。 通過MTL,我們可以提高檢測的魯棒性,而不是將檢測任務(wù)視為一個獨立的問題。
多任務(wù)學習希望將優(yōu)化的面部特征點檢測與一些不同但稍有關(guān)聯(lián)的任務(wù)(例如頭部姿勢估計和面部屬性推斷)相結(jié)合。 面部特征點檢測不是一個獨立的問題,其預(yù)測將受到一些不同但略有相關(guān)的因素的影響。 例如,一個面帶笑容的孩子會張開嘴,有效地檢測和利用此相關(guān)面部屬性將有助于更準確地檢測嘴角。
如上面的面部特征點檢測(tcdcn)模型所示。 除了檢測特征點的任務(wù)外,還有四個輔助任務(wù):識別眼鏡,笑臉,性別和姿勢。 通過與其他網(wǎng)絡(luò)的比較,可以看出輔助任務(wù)使主要任務(wù)的檢測更加準確。
mtl在不同領(lǐng)域中具有不同的應(yīng)用,其模型不同,并且其應(yīng)用問題也不同,但是它們各自的領(lǐng)域中都有一些特征。 除了上述的計算機視覺領(lǐng)域外,還有許多領(lǐng)域,例如生物信息學,健康信息學,語音,自然語言處理,網(wǎng)絡(luò)垃圾郵件過濾,網(wǎng)頁檢索和普適計算,所有這些都是MTL可以用來改善 每個應(yīng)用程序的效果和性能。 例如
,在生物信息學和健康信息學中,MTL用于識別治療靶標反應(yīng)的特征機制,通過對多個人群的關(guān)聯(lián)分析來檢測因果遺傳標記,并通過自動相關(guān)性預(yù)測神經(jīng)影像測量阿爾茨海默氏病的認知結(jié)果 貝葉斯模型的特征
在語音處理中的應(yīng)用。 2015年,在國際聲學,語音和信號處理(icassp)會議上,研究人員分享了一篇基于多任務(wù)學習的深度神經(jīng)網(wǎng)絡(luò)語音合成論文,并提出了一個多任務(wù)分層的深度神經(jīng)網(wǎng)絡(luò)。 它由幾個神經(jīng)網(wǎng)絡(luò)組成。 前一個神經(jīng)網(wǎng)絡(luò)將頂級輸出用作下一個神經(jīng)網(wǎng)絡(luò)的語音合成輸入。 每個神經(jīng)網(wǎng)絡(luò)都有兩個輸出單元。 通過在兩個任務(wù)之間共享隱藏層,一個任務(wù)用于主任務(wù),另一任務(wù)用于輔助任務(wù),可以更好地提高語音合成的準確性。 在Web應(yīng)用程序中為
,MTL可用于不同任務(wù),以共享特征表示并了解Web搜索中的排名提高; 通過可伸縮的分層多任務(wù)學習算法,可以使用MTL查找廣告中的最大變換層次和結(jié)構(gòu)稀疏性。 一般來說,在這些MTL應(yīng)用領(lǐng)域中,特征選擇方法和深度特征轉(zhuǎn)換方法被研究人員廣泛使用。 因為前者可以減少數(shù)據(jù)的維數(shù)并提供更好的可解釋性,所以后者可以通過學習功能強大的特征表示來獲得良好的性能。 在越來越多的領(lǐng)域中,
mtl被廣泛用作提高神經(jīng)網(wǎng)絡(luò)學習能力的手段。 這實際上是AI在許多行業(yè)中的實際應(yīng)用
美國國家航空航天局已發(fā)出近10億 Dell的新款Precision 7000系列移 蘇寧中華第一店的“倒退”顯示出 Microsoft Surface go 2已通過En 如何連接裝修工人的訂單接收平臺 這21個應(yīng)用程序是非法的! 您可 YouTube每分鐘產(chǎn)生32000美元的廣 頻頻挖角高管抱怨午夜,魅族的應(yīng) 當場推翻原版! AI不承認上帝, 數(shù)字基礎(chǔ)共享視頻介紹了VRS可變 北通云企業(yè)照明站,3分鐘發(fā)布一 100智能大廈 新聞:2020年13英寸Macbook Pro 閱讀對最近查詢的回應(yīng):全面推動 餐飲業(yè)的創(chuàng)新,變革和利潤保證 國家緊急響應(yīng)為2級或以下; 特斯 巴菲特:尚未找到感興趣的公司 Apple的新消息專利:重新編輯發(fā) 沒有贏得原始的跑步成績,并且沒 長鑫家用DDR4內(nèi)存芯片/顆粒處理 在原始的win10中搜索其他瀏覽器 巴菲特的Alpha:使用機器學習量 圖片預(yù)覽界面中的新增長焦點圖片 巴菲特:麝香做得很棒,但不會投 閱讀:作家座談會于5月6日啟動, 原始IOS 13.5 beta 3帶來了有關(guān) 中國人民銀行:恢復(fù)生產(chǎn)的狀況正 原裝國內(nèi)最差的手機系統(tǒng):華為的 比亞迪與華為合作! 趙長江:特 經(jīng)典gal“ MUV luv”將發(fā)布在Ste