1、簡介
過去幾年一直是人工智能愛好者和機器學(xué)習(xí)專業(yè)人士最幸福的時光。因為這些技術(shù)已經(jīng)發(fā)展成為主流,并且正在影響著數(shù)百萬人的生活。各國現(xiàn)在都有專門的人工智能規(guī)劃和預(yù)算,以確保在這場比賽中保持優(yōu)勢。
數(shù)據(jù)科學(xué)從業(yè)人員也是如此,這個領(lǐng)域正在發(fā)生很多事情,你必須要跑的足夠的快才能跟上時代步伐。回顧歷史,展望未來一直是我們尋找方向的最佳方法。
這也是我為什么想從數(shù)據(jù)科學(xué)從業(yè)者的角度退一步看一下人工智能的一些關(guān)鍵領(lǐng)域的發(fā)展,它們突破了什么?2018年發(fā)生了什么?2019年會發(fā)生什么?
我將在本文中介紹自然語言處理(NLP)、計算機視覺、工具庫、強化學(xué)習(xí)、走向合乎正道的人工智能。
2、自然語言處理(NLP)
讓機器分析單詞和句子似乎是一個夢想,就算我們?nèi)祟愑袝r候也很難掌握語言的細微差別,但2018年確實是NLP的分水嶺。
我們看到了一個又一個顯著的突破:ULMFiT、ELMO、OpenAI的Transformer和Google的BERT等等。遷移學(xué)習(xí)(能夠?qū)㈩A(yù)訓(xùn)練模型應(yīng)用于數(shù)據(jù)的藝術(shù))成功應(yīng)用于NLP任務(wù),為無限可能的應(yīng)用打開了大門。讓我們更詳細地看一下這些關(guān)鍵技術(shù)的發(fā)展。
ULMFiT
ULMFiT由Sebastian Ruder和fast.ai的Jeremy Howard設(shè)計,它是第一個在今年啟動的NLP遷移學(xué)習(xí)框架。對于沒有經(jīng)驗的人來說,它代表通用語言的微調(diào)模型。Jeremy和Sebastian讓ULMFiT真正配得上Universal這個詞,該框架幾乎可以應(yīng)用于任何NLP任務(wù)!
想知道對于ULMFiT的最佳部分以及即將看到的后續(xù)框架嗎?事實上你不需要從頭開始訓(xùn)練模型!研究人員在這方面做了很多努力,以至于你可以學(xué)習(xí)并將其應(yīng)用到自己的項目中。ULMFiT可以應(yīng)用六個文本分類任務(wù)中,而且結(jié)果要比現(xiàn)在最先進的方法要好。
你可以閱讀Prateek Joshi關(guān)于如何開始使用ULMFiT以解決任何文本分類問題的優(yōu)秀教程。
ELMO
猜一下ELMo代表著什么嗎?它是語言模型嵌入的簡稱,是不是很有創(chuàng)意? ELMo一發(fā)布就引起了ML社區(qū)的關(guān)注。
ELMo使用語言模型來獲取每個單詞的嵌入,同時還考慮其中單詞是否適合句子或段落的上下文。上下文是NLP的一個重要領(lǐng)域,大多數(shù)人以前對上下文都沒有很好的處理方法。ELMo使用雙向LSTM來創(chuàng)建嵌入,如果你聽不懂-請參考這篇文章,它可以讓你很要的了解LSTM是什么以及它們是如何工作的。
與ULMFiT一樣,ELMo顯著提高了各種NLP任務(wù)的性能,如情緒分析和問答,在這里了解更多相關(guān)信息。
BERT
不少專家聲稱BERT的發(fā)布標志著NLP的新時代。繼ULMFiT和ELMo之后,BERT憑借其性能真正擊敗了競爭對手。正如原論文所述,“BERT在概念上更簡單且更強大”。BERT在11個NLP任務(wù)中獲得了最先進的結(jié)果,在SQuAD基準測試中查看他們的結(jié)果:
有興趣入門嗎?你可以使用PyTorch實現(xiàn)或Google的TensorFlow代碼嘗試在自己的計算機上得出結(jié)果。
我很確定你想知道BERT代表什么,它實際上是Transformers的雙向編碼器表示,如果你能夠領(lǐng)悟到這些,那很不錯了。
PyText
Facebook開源了深度學(xué)習(xí)NLP框架PyText,它在不久之前發(fā)布,但我仍然要測試它,但就早期的評論來說非常有希望。根據(jù)FB發(fā)表的研究,PyText使會話模型的準確性提高了10%,并且縮短了訓(xùn)練時間。
PyText實際上落后于Facebook其他一些產(chǎn)品,如FB Messenger。如果你對此有興趣。你可以通過GitHub下載代碼來自行嘗試。
2019年NLP趨勢:
塞巴斯蒂安·羅德講述了NLP在2019年的發(fā)展方向,以下是他的想法:
預(yù)訓(xùn)練的語言模型嵌入將無處不在,不使用它們的模型將是罕見的。
我們將看到可以編碼專門信息的預(yù)訓(xùn)練模型,這些信息是對語言模型嵌入的補充。
我們將看到有關(guān)多語言應(yīng)用程序和跨語言模型的成果。特別是,在跨語言嵌入的基礎(chǔ)上,我們將看到深度預(yù)訓(xùn)練的跨語言表示的出現(xiàn)。
3、計算機視覺
這是現(xiàn)在深度學(xué)習(xí)中最受歡迎的領(lǐng)域,我覺得我們已經(jīng)完全獲取了計算機視覺中容易實現(xiàn)的目標。無論是圖像還是視頻,我們都看到了大量的框架和庫,這使得計算機視覺任務(wù)變得輕而易舉。
我們今年在Analytics Vidhya花了很多時間研究這些概念的普通化。你可以在這里查看我們的計算機視覺特定文章,涵蓋從視頻和圖像中的對象檢測到預(yù)訓(xùn)練模型列表的相關(guān)文章,以開始你的深度學(xué)習(xí)之旅。
以下是我今年在CV中看到的最佳開發(fā)項目:
如果你對這個美妙的領(lǐng)域感到好奇,那么請繼續(xù)使用我們的“使用深度學(xué)習(xí)的計算機視覺”課程開始你的旅程。
BigGAN的發(fā)布
在2014年,Ian Goodfellow設(shè)計了GAN,這個概念產(chǎn)生了多種多樣的應(yīng)用程序。年復(fù)一年,我們看到原始概念為了適應(yīng)實際用例正在慢慢調(diào)整,直到今年,仍然存在一個共識:機器生成的圖像相當容易被發(fā)現(xiàn)。
但最近幾個月,這個現(xiàn)象已經(jīng)開始改變。或許隨著BigGAN的創(chuàng)建,該現(xiàn)象或許可以徹底消失,以下是用此方法生成的圖像:
除非你拿顯微鏡看,否則你將看不出來上面的圖片有任何問題。毫無疑問GAN正在改變我們對數(shù)字圖像(和視頻)的感知方式。
Fast.ai的模型18分鐘內(nèi)在ImageNet上被訓(xùn)練
這是一個非常酷的方向:大家普遍認為需要大量數(shù)據(jù)以及大量計算資源來執(zhí)行適當?shù)纳疃葘W(xué)習(xí)任務(wù),包括在ImageNet數(shù)據(jù)集上從頭開始訓(xùn)練模型。我理解這種看法,大多數(shù)人都認為在之前也是如此,但我想我們之前都可能理解錯了。
Fast.ai的模型在18分鐘內(nèi)達到了93%的準確率,他們使用的硬件48個NVIDIA V100 GPU,他們使用fastai和PyTorch庫構(gòu)建了算法。
所有的這些放在一起的總成本僅為40美元! 杰里米在這里更詳細地描述了他們的方法,包括技術(shù)。這是屬于每個人的勝利!
NVIDIA的vid2vid技術(shù)
在過去的4-5年里,圖像處理已經(jīng)實現(xiàn)了跨越式發(fā)展,但視頻呢?事實證明,將方法從靜態(tài)框架轉(zhuǎn)換為動態(tài)框架比大多數(shù)人想象的要困難一些。你能拍攝視頻序列并預(yù)測下一幀會發(fā)生什么嗎?答案是不能!
NVIDIA決定在今年之前開源他們的方法,他們的vid2vid方法的目標是從給定的輸入視頻學(xué)習(xí)映射函數(shù),以產(chǎn)生輸出視頻,該視頻以令人難以置信的精度預(yù)測輸入視頻的內(nèi)容。
你可以在這里的GitHub上試用他們的PyTorch實現(xiàn)。
2019年計算機視覺的趨勢:
就像我之前提到的那樣,在2019年可能看到是改進而不是發(fā)明。例如自動駕駛汽車、面部識別算法、虛擬現(xiàn)實算法優(yōu)化等。就個人而言,我希望看到很多研究在實際場景中實施,像CVPR和ICML這樣的會議描繪的這個領(lǐng)域的最新成果,但這些項目在現(xiàn)實中的使用有多接近?
視覺問答和視覺對話系統(tǒng)最終可能很快就會如他們期盼的那樣首次亮相。雖然這些系統(tǒng)缺乏概括的能力,但希望我們很快就會看到一種綜合的多模式方法。
自監(jiān)督學(xué)習(xí)是今年最重要的創(chuàng)新,我可以打賭明年它將會用于更多的研究。這是一個非常酷的學(xué)習(xí)線:標簽可以直接根據(jù)我們輸入的數(shù)據(jù)確定,而不是浪費時間手動標記圖像。
4、工具和庫
工具和庫是數(shù)據(jù)科學(xué)家的基礎(chǔ)。我參與了大量關(guān)于哪種工具最好的辯論,哪個框架會取代另一個,哪個庫是經(jīng)濟計算的縮影等等。
但有一點共識--我們需要掌握該領(lǐng)域的最新工具,否則就有被淘汰的風險。 Python取代其他所有事物并將自己打造成行業(yè)領(lǐng)導(dǎo)者的步伐就是這樣的例子。 當然,其中很多都歸結(jié)為主觀選擇,但如果你不考慮最先進的技術(shù),我建議你現(xiàn)在開始,否則后果可能將不可預(yù)測。那么成為今年頭條新聞的是什么?我們來看看吧!
PyTorch 1.0
什么是PyTorch?我已經(jīng)多次在本文中提到它了,你可以在Faizan Shaikh的文章中熟悉這個框架。
這是我最喜歡的關(guān)于深度學(xué)習(xí)文章之一!當時TensorFlow很緩慢,這為PyTorch打開了大門快速獲得深度學(xué)習(xí)市場。我在GitHub上看到的大部分代碼都是PyTorch實現(xiàn)的。這并非因為PyTorch非常靈活,而是最新版本(v1.0)已經(jīng)大規(guī)模應(yīng)用到許多Facebook產(chǎn)品和服務(wù),包括每天執(zhí)行60億次文本翻譯。PyTorch的使用率在2019年上升,所以現(xiàn)在是加入的好時機。
AutoML—自動機器學(xué)習(xí)
AutoML在過去幾年中逐漸取得進展。RapidMiner、KNIME、DataRobot和H2O.ai等公司都發(fā)布了非常不錯的產(chǎn)品,展示了這項服務(wù)的巨大潛力。你能想象在ML項目上工作,只需要使用拖放界面而無需編碼嗎?這種現(xiàn)象在未來并不太遙遠。但除了這些公司之外,ML / DL領(lǐng)域還有一個重要的發(fā)布-Auto Keras!
它是一個用于執(zhí)行AutoML任務(wù)的開源庫。其背后的目的是讓沒有ML背景的領(lǐng)域?qū)<疫M行深度學(xué)習(xí)。請務(wù)必在此處查看,它準備在未來幾年內(nèi)大規(guī)模運行。
TensorFlow.js-瀏覽器中的深度學(xué)習(xí)
我們一直都喜歡在最喜歡的IDE和編輯器中構(gòu)建和設(shè)計機器學(xué)習(xí)和深度學(xué)習(xí)模型。如何邁出一步,嘗試不同的東西?我將要介紹如何在你的網(wǎng)絡(luò)瀏覽器中進行深度學(xué)習(xí)!由于TensorFlow.js的發(fā)布,已成為現(xiàn)實。
TensorFlow.js主要有三個優(yōu)點/功能:
1.使用JavaScript開發(fā)和創(chuàng)建機器學(xué)習(xí)模型;
2.在瀏覽器中運行預(yù)先存在的TensorFlow模型;
3.重新創(chuàng)建已有的模型;
2019年的AutoML趨勢
我個人特別關(guān)注AutoML,為什么?因為我認為未來幾年它將成為數(shù)據(jù)科學(xué)領(lǐng)域真正的游戲規(guī)則改變者。跟我有同樣想法的人是H2O.ai的Marios Michailidis、Kaggle Grandmaster,他們都對AutoML有很高期望:
機器學(xué)習(xí)繼續(xù)成為未來最重要的趨勢之一,鑒于其增長速度,自動化是最大化其價值的關(guān)鍵,是充分利用數(shù)據(jù)科學(xué)資源的關(guān)鍵。它可以應(yīng)用到的領(lǐng)域是無限的:信用、保險、欺詐、計算機視覺、聲學(xué)、傳感器、推薦、預(yù)測、NLP等等,能夠在這個領(lǐng)域工作是一種榮幸。AutoML趨勢:
提供智能可視化和解釋,以幫助描述和理解數(shù)據(jù);
查找/構(gòu)建/提取給定數(shù)據(jù)集的更好特征;
快速建立更強大/更智能的預(yù)測模型;
通過機器學(xué)習(xí)可解釋性彌補這些模型的黑匣子建模和生產(chǎn)之間的差距;
促進這些模型落地生產(chǎn);
5、強化學(xué)習(xí)
如果我不得不選擇一個我看到的滲透更多領(lǐng)域的技術(shù),那就是強化學(xué)習(xí)。除了不定期看到的頭條新聞之外,我還在社區(qū)中了解到,它太注重數(shù)學(xué),并且沒有真正的行業(yè)應(yīng)用程序可供專一展示。
雖然這在某種程度上是正確的,但我希望看到的是明年更多來自RL的實際用例。我在每月GitHub和Reddit排序系列中,我傾向于至少保留一個關(guān)于RL的存儲庫或討論,至少圍繞該主題的討論。
OpenAI已經(jīng)發(fā)布了一個非常有用的工具包,可以讓初學(xué)者從這個領(lǐng)域開始。
OpenAI在深度強化學(xué)習(xí)中的應(yīng)用
如果RL的研究進展緩慢,那么圍繞它的教育材料將會很少。但事實上,OpenAI已經(jīng)開放了一些關(guān)于這個主題的精彩材料。他們稱這個項目為“Spinning Up in Deep RL”,你可以在這里閱讀所有相關(guān)內(nèi)容。它實際上是非常全面RL的資源列表,這里有很多材料包括RL術(shù)語、如何成為RL研究者、重要論文列表、一個記錄完備的代碼存儲庫、甚至還有一些練習(xí)來幫助你入門。
如果你打算開始使用RL,那么現(xiàn)在開始!
Google Dopamine
為了加速研究并讓社區(qū)更多的參與強化學(xué)習(xí),Google AI團隊開源了Dopamine,這是一個TensorFlow框架,旨在通過它來使更靈活和可重復(fù)性來構(gòu)建RL模型。
你可以在此GitHub存儲庫中找到整個訓(xùn)練數(shù)據(jù)以及TensorFlow代碼(僅15個Python notebooks!)。這是在受控且靈活的環(huán)境中進行簡單實驗的完美平臺,聽起來像數(shù)據(jù)科學(xué)家的夢想。
2019年強化學(xué)習(xí)趨勢
Xander Steenbrugge是DataHack Summit的代表,也是ArxivInsights頻道的創(chuàng)始人,他非常擅長強化學(xué)習(xí)。以下是他對RL當前狀態(tài)的看法以及2019年的預(yù)期:
我目前看到RL領(lǐng)域的三個主要問題:
樣本復(fù)雜性(代理需要查看/收集以獲得的經(jīng)驗數(shù)量);
泛化和轉(zhuǎn)移學(xué)習(xí)(訓(xùn)練任務(wù)A,測試相關(guān)任務(wù)B);
分層RL(自動子目標分解);
我相信前兩個問題可以通過與無監(jiān)督表示學(xué)習(xí)相關(guān)的類似技術(shù)來解決。目前在RL中,我們正在使用稀疏獎勵信號訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),從原始輸入空間(例如像素)映射到端到端方式的動作(例如,使用反向傳播)。
我認為能夠促進強化學(xué)習(xí)快速發(fā)展的道路是利用無監(jiān)督的表示學(xué)習(xí)(自動編碼器、VAE、GAN)將凌亂的高維輸入空間(例如像素)轉(zhuǎn)換為低維“概念”空間。
人工智能:符合倫理才更重要
想象一下由算法統(tǒng)治的世界,算法決定了人類采取的每一個行動。這不是一個美好的場景,對嗎?AI中的倫理規(guī)范是Analytics Vidhya一直熱衷于討論的話題。
今年有相當多的組織因為Facebook的劍橋分析公司丑聞和谷歌內(nèi)部普遍關(guān)于設(shè)計武器新聞丑聞而遭受危機。沒有一個開箱即用的解決方案或一個適合所有解決方案來處理AI的倫理方面。它需要一種細致入微的方法,并結(jié)合領(lǐng)導(dǎo)層提出的結(jié)構(gòu)化路徑。讓我們看看今年出現(xiàn)的重大政策:GDPR。
GDPR如何改變游戲規(guī)則
GDPR或通用數(shù)據(jù)保護法規(guī)肯定會對用于構(gòu)建AI應(yīng)用程序的數(shù)據(jù)收集方式產(chǎn)生影響。GDPR的作用是以確保用戶可以更好地控制他們的數(shù)據(jù)。那么這對AI有何影響?我們可以想象一下,如果數(shù)據(jù)科學(xué)家沒有數(shù)據(jù)(或足夠數(shù)據(jù)),那么構(gòu)建任何模型都會還沒開始就失敗。
2019年的AI倫理趨勢預(yù)期
這是一個灰色的領(lǐng)域。就像我提到的那樣,沒有一個解決方案可以解決這個問題。我們必須聚集在一起,將倫理問題整合到AI項目中。那么我們怎樣才能實現(xiàn)這一目標呢?正如Analytics Vidhya的創(chuàng)始人兼首席執(zhí)行官Kunal Jain在2018年DataHack峰會上的演講中所強調(diào)的那樣:我們需要確定一個其他人可以遵循的框架。
結(jié)束語
有影響力!這是2018年來描述AI最佳的詞匯。今年我成為ULMFiT的狂熱用戶,我也很期待BERT。
-
人工智能
+關(guān)注
關(guān)注
1792文章
47377瀏覽量
238878 -
自然語言處理
+關(guān)注
關(guān)注
1文章
619瀏覽量
13579 -
數(shù)據(jù)科學(xué)
+關(guān)注
關(guān)注
0文章
165瀏覽量
10076
原文標題:2018年AI和ML(NLP、計算機視覺、強化學(xué)習(xí))技術(shù)總結(jié)和2019年趨勢
文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論