人工智能是一門既可拯救世界、又可終結世界的技術。
為終止人工智能到底是利是弊的爭議與炒作,外媒采訪了一些與全球大型科技及工業公司合作多年的杰出人士,獲悉了他們關于人工智能的正確發展方向的看法。
2018年人工智能的關鍵里程碑是什么?2019年又將會發生什么?以下是谷歌大腦聯合創始人吳恩達、Cloudera機器學習總經理及Fast Forward Labs創始人希拉里·梅森(Hilary Mason)、Facebook人工智能研究院創始人Yann LeCun和埃森哲全球人工智能負責人Rumman Chowdhury博士的見解。
回顧2018,展望2019,他們中的一些人表示:隨著越來越多的人了解人工智能能做什么和不能做什么,關于人工智能終結世界的說法越來越少,對此他們感到很欣慰。但這些專家也強調,在發展人工智能的同時,計算機和數據科學家仍需采取負責任的倫理規范。
Rumman Chowdhury
Chowdhury是埃森哲應用智能部門的總經理,同時兼任公司責任AI計劃的全球負責人。2017年,她被BBC評為最具影響力的100位女性之一。
Chowdhury說到,在2018年,她很高興看到公眾對人工智能的能力和局限性的理解有所增長,也很高興聽到人們對人工智能帶來的威脅進行了更均衡的討論,而不是擔心智能機器像電影《終結者》中那樣掌控全球。隨此而來的是人們對隱私、安全問題的警惕以及人工智能在塑造我們和后代中可能扮演的角色的質疑。
然而,公眾對于AI的理解并沒有到達她所認為應到達的層面。Chowdhury希望在未來一年里能看到更多的人利用教育資源來理解AI系統,并可以明智地質疑AI的決策。
她對科技公司與AI生態系統中的人開始考慮其工作的倫理影響的速度感到驚喜。但她希望看到AI社區可以采取更多實際行動,而非空喊道德口號。
她問道:“就倫理和人工智能方面,我希望除了電車難題,我們能深入研究AI將提出的那些困難的、沒有明確答案的問題。如:該如何在人工智能和物聯網監控間取得“合理”平衡?是既能保證安全,又能抵制深化現有種族歧視的懲罰性監控嗎?應如何重新分配先進技術的收益從而不進一步擴大貧富差距?接觸多大程度的人工智能可讓孩子成為‘人工智能土著’,卻又不被其操控或同質化?又該如何利用人工智能擴大教育規模并使教育自動化,同時極大程度培養孩子的創造力和獨立思考能力?”
在未來一年里,Chowdhury預計全球各地政府將加強對科技公司的審查與管理。
她說:“人工智能及科技巨頭所擁有的力量引發了許多關于如何監管該行業與技術的問題。2019年,我們將不得不解決這些問題。該如何監管一項具有多用途且結果受具體情境影響的技術?如何制定既不扼殺創新又不偏袒大公司(可承擔合規成本的公司)的管理規定?監管范圍又該如何確定?全球?國家?還是當地監控?”
她還預計人工智能在地緣政治問題中扮演的角色會持續演變。
她說道:“AI不僅僅是一項技術,更是經濟與社會的塑造者。在這項技術中我們能反思、衡量、并實踐我們的價值觀。對于應建造什么和如何建造的影響上,行業應不要太當真。為了實現這一點,AI行業中常見的理念需要被摒棄,即使我們不構建它,中國也會,而創造正是力量所在之處?!?/p>
她還說道:“我希望監管機構,技術及研究人員意識到人工智能競賽不僅僅只關乎計算能力與技術敏銳度,就像冷戰不僅僅關乎核能力一樣。我們有責任以更公平、更公正、更公開的方式去重建世界。這是一個難得的機會,轉瞬即逝,我們要抓住這個機會?!?/p>
從消費者角度來看,她相信2019年人工智能將在家庭中應用更加廣泛。許多人已更習慣于使用智能音箱如 Google Home和Amazon Echo及其他很多智能設備。她很好奇在這方面是否會有特別有趣的東西會從于19年1月第二周將在拉斯維加斯舉辦的消費者電子展覽會中脫穎而出,這可能進一步將人工智能融入人們的日常生活。
她說:“我想我們都在等一個機器人管家的出現?!?/p>
吳恩達
吳恩達是斯坦福大學計算機科學系副教授。因為很多原因,他的名字在AI圈中廣為人知。他是谷歌大腦(將人工智能輻射到谷歌所有產品的項目)的聯合創始人,也是Landing AI(旨在于幫助企業將人工智能融入到運營中的公司)的創始人。他還是YouTube和Coursera(吳恩達創立的在線學習公司)上一些最受歡迎的機器學習課程的講師。他創建了deeplearning.ai網站,并撰寫了一本名為《Deep Learning Yearning》的書。
在百度工作三年,幫助此科技巨頭向AI公司轉型后,吳恩達辭去了百度首席AI科學家的職務。
之后,他加入了擁有1.75億美元的人工智能基金會,同時成為了無人駕駛汽車公司Drive.ai.董事會一員。
吳恩達預計到2019年主要取得進展或變化的地方是AI將在科技行業或軟件公司外的領域得到應用。通過援引麥肯錫的一份稱AI將創造13萬億GDP的報告,他說到AI領域最大的未開發潛力在軟件行業之外。
他說:“我認為2019年,AI應用于軟件行業之外的例子會非常之多。AI在幫助谷歌、百度、Facebook及微軟等公司中都做得很不錯,我與這些公司無任何關系。但就連Square 、Airbnb及Pinterest等公司都已開始應用一些AI功能,我認為下一輪創造價值的巨浪會在制造業公司、農業設備公司或醫療保健企業開發一系列的AI方案來推進業務之時?!?/p>
像Chowdhury一樣,吳恩達對2018年公眾對AI的能力及局限性上的理解大增感到驚訝。他很高興關于AI的討論不再圍繞機器人殺手或對人工整體智能的恐懼了。
他表示他是有準備地回答了問題,并沒想到其他人也有相似的想法。
他說:“我試圖引用了幾個我認為對實際應用十分重要的領域。AI的實際應用會遇到一定的阻礙,但我認為這些阻礙都會被解決。”
在未來一年里,吳恩達很高興看到人工智能及機器學習研究兩個領域都取得了進展,這將有助于推動整個領域的發展。一方面是AI能通過更少的數據得出精確的結論,該領域的一些人稱之為“少量樣本學習”。
他說:“我認為深度學習的第一波進展主要是大公司利用大量數據創建巨大的神經網絡,對吧?所以如果你想創建一個語言識別系統,就需要進行10萬小時的數據模擬。如果想創建機器翻譯系統,就需要模擬極大量的平行語料庫中的句型,從而創造出很多突破性結果。現在我越來越多地看到從小數據中出的成果。所以即使你有1000張照片,你也可以嘗試去做出點什么結果?!?/p>
令一方面則是被稱為“通用可見性”的計算機視覺方面的進展。計算機視覺系統經過斯坦福大學高端X光機拍攝的原始圖像的訓練,效果可能會非常地好。很多該領域的先進公司及研究人員已創造出了比放射科醫生更出色的系統,但它們并不是很靈活。
“但如果你把你的訓練模型應用到拍攝圖片有點模糊的低端X光機或是其他醫院的X光機上,遇到技師讓病人右轉,導致角度有些許的偏離的情況,結果就會是相比于今天的算法,放射科醫生會做的更好。因此我認為有趣的研究是嘗試提高學習算法在新情境中的通用性?!?/p>
Yann LeCun
Yann LeCun是紐約大學教授,Facebook首席AI科學家及人工智能研究院(FAIR)創始人。Facebook人工智能研究院開發了PyTorch 1.0、Caffe2及其他大量的人工智能系統,如Facebook每日使用上十億萬次的文本翻譯AI工具和先進的下圍棋的強化學習系統。
他堅信FAIR為其研究及工具所采用的開源政策推動了其他大型科技企業采用該政策,而這推動了AI整個領域的發展。在上月的NeurIPS大會和FAIR 50周年之際,LeCun將FAIR稱為一家致力于“可實現各種可能的機器學習的技術及數學腹地”的研究院。
他說:“當更多人開始討論AI研究時,整個領域將更快的向前發展,對AI研究來說這影響重大。今日AI發展速度之快主要是因為更多的人進行了更快更有效的交流,并做了更多的開放性研究。”
在倫理層面,LeCun很高興看到公眾開始思考AI工作所帶來的倫理影響及帶有偏見的決策所帶來的危險。
他說:“情況與倆三年前不同了,現在人們已充分認識到倫理方面的問題?!?/p>
他認為AI領域中的倫理與偏見問題現在還并未成為需要立即采取措施的主要問題,但他認為人們應提前做好準備。
就像現在還未出現急需解決的重大生死攸關問題一樣。但問題遲早會來,我們需要了解這些問題并防患于未然。
如吳恩達一樣,LeCun期待未來會有更多靈活的AI系統。這些系統不需原始輸入數據或精確條件,就可以得到準確的輸出。
他還提到,雖然研究人員可通過深度學習來很好地處理感知,但卻對AI系統整體的架構缺乏理解。
要想教會機器通過觀察世界去學習,需要自我監督學習或基于模型的強化學習。
他說道:“不同的人對此稱呼不同,但人類與動物都是通過觀察與了解大量的背景知識來感知世界是如何運作的。我們還不知道如何讓機器學會這么做,這是一項巨大的挑戰。這項研究的成果將會推動AI與計算機的真正發展,從而讓機器具備一些常識,讓人們能與機器助手就更廣泛的話題進行交流,并不再感到沮喪?!?/p>
對于有助于Facebook內部運營的應用,LeCun稱在自我監督學習及需少量數據輸出準確結果的人工智能等方面取得的進步將是十分重要的。
他還提到,在問題的解決過程中,我們希望找到減少特定任務如機器翻譯、圖像識別等任務所需數據量的方法,在這一方向上我們已經取得了一定的進展。我們已經通過使用弱監督或自我監督學習對Facebook機器翻譯及圖像識別產生了深遠影響。因此,這些影響不僅僅是長期的,更能帶來短期效果。
在未來,LeCun期待見到AI在建立事件之間的因果關系上能取得進展。這一能力并不僅僅通過觀察獲得,更需通過實踐理解。例如,當人們在使用雨傘時,很可能是下雨了。
他提到,如果你想機器通過觀察來了解世界運作原理,它必須要知道它能夠做什么要想影響世界,這是十分重要的。假設你在一間房中,你的前面是一張桌子,桌上有一個像水杯樣的物體,你知道你推一下水杯,水杯會移動,但你卻無法移動桌子,因為桌子又重又大。這類事情都是與因果相關的。
希拉里·梅森
在2017年Cloudera收購Fast Forward Labs之后,希拉里·梅森出任了Cloudera機器學習的總經理。Fast Forward Labs雖被收購,卻仍在運營之中。它為用戶提供應用機器學習報告與建議,從而預測未來半年到兩年企業的發展方向。
2018年,AI領域中的一項與多任務學習相關的發展讓梅森感到驚訝。多任務學習可訓練單個神經網絡在推理時應用多種標簽,例如在一幅圖像中看到的多個對象。
Fast Forward Labs一直就AI系統的倫理影響為客戶提供建議。梅森也意識構建AI系統倫理框架的重要性。
梅森說道:“這正是自成立了Fast Forward 我們一直在做的事。5年前,我們在每篇報告中都撰寫了倫理方面的規范。但今年,公眾才開始真正關注倫理規范。到明年,對此莫不關注的企業與個人都會承擔相應的后果與責任。有一點我沒有說清楚,我希望未來在數據科學與AI發展的實踐中,技術人員和商業領袖在開發AI產品時都能自主地考慮道德和偏見問題,而非像今天熟視無睹。”
隨著未來一年越來越多AI系統成為商業運營的一部分,梅森期待處于最佳位置的產品經理及產品負責人將會對AI做出更多的貢獻。
她表示:“顯然,了解產品整體框架及行業的人知道什么產品是有價值的,什么是沒價值的,他們也知道誰是投資方向上的最佳決策人。所以如果讓我預測,我認為那些使用電子表格建立簡單模型的人會變得很低能,他們自己也會很快意識到將AI應用到自己產品中的機會非常之少。”
AI民主化或將 AI 擴展到企業除數據科學團隊外的所有部門,是很多公司所強調的,如 Kubeflow Pipelines及AI Hub等谷歌云AI產品,以及 CI&T 公司為確保人工智能系統在公司內部得到實際利用提出的建議。
梅森認為越來越多的企業需要構建管理多個AI系統的結構。
如開發運維人員所面臨的挑戰一樣,單個系統可使用手動部署的定制腳本來管理,cron腳本也可管理幾十個系統。但當管理有安全、管理及風險要求的企業中的數百上千系統時,需要的是更專業、穩健的工具。
她還提到,企業正在從尋求有能力及才華的人才向系統化追求機器學習及AI機遇轉變。
由于Cloudera 近期推出了基于容器的機器學習平臺,因此對于梅森來說,強調部署AI所需的容器是有意義的。她堅信這一趨勢在未來幾年將會持續下去,從而企業可在本地AI及云端AI部署兩者中做選擇。
梅森還相信AI的業務將不僅僅在單個公司而是整個行業中繼續不斷發展。
她說道:“我們將看到AI專業實踐的持續發展。如果你現在是一家公司的數據科學家或機器學習工程師,當你跳槽至另外一家公司后,你的工作將會完全不同:不同的工具、不同的期望和不同的報表結構。但我想一致性還是存在的?!?/p>
評論
查看更多