電子發燒友網報道(文/吳子鵬)日前,脈脈高聘人才智庫數據顯示,2023年AIGC人才招聘需求激增,1月份至2月份發布的AIGC崗位數量同比增長35%。由于需求量巨大,企業為了搶人將薪水抬到了一個很高的水平。據悉,在熱招崗位中,圖像識別、算法研究員、深度學習等崗位的年薪均已達百萬元,非技術崗位AIGC產品經理的年薪水平也達到90萬元。而企業對這些崗位的要求僅僅是有相關工作經驗3年。
隨著OpenAI推出GPT-4大模型以及相關應用,AI大模型已經火出圈,即便是尋常百姓都都聊上幾句ChatGPT,目前以華為、阿里、百度為代表的國內科技公司,以及以谷歌、微軟為代表的國外科技公司,都在花費重金投資AI大模型。同時,業界盛傳GPT-5早已完成訓練,并極有可能在GPT-6產生自主意識。然而,狂飆的AI大模型引起了人們對潛在風險的擔憂,就連OpenAI CEO奧特曼也認為,AI已經出現了無法解釋的推理能力,可能出現“AI殺死人類”。
AI大模型走到了產業的第一個十字路口。
AI大模型人才稀缺
雖然OpenAI的ChatGPT,百度的文心一言,以及其他相關的對話式AI大模型目前的效果還有諸多待完善的地方,尤其是經常出現很多事實性錯誤,不過AI大模型的威力讓世人清晰地見識到了AI作為底層技術的賦能價值。過往,沒有任何一款AI產品能夠帶來如此震撼的效果。
就連微軟創始人比爾·蓋茨都表示,人工智能已經進入了一個全新的時代,而且它已經與互聯網、手機等技術一樣重要,把這些技術連接在一起,可以創造出更多創新性的應用。其中,OpenAI的GPT模型被認為是最具影響力和革命性的技術之一。
產業熱度高必然就會吸引更多的企業參與其中,根據中信建投證券發布的《生成式AI專題研究報告》,國內目前已經有華為、百度、阿里、科大訊飛、格靈深瞳、云從科技、海天瑞聲、拓爾思、昆侖萬維、萬興科技、中文在線等數十家企業在研究AI大模型,方向涉及對話、繪畫、文本輔助、作曲、元宇宙、內容創作等諸多方面。企業密集地涌入AI大模型領域,第一個受到挑戰的環節就是人才方面。
此前,在獵聘發布的《ChatGPT相關領域就業洞察報告》中有提到,我國人工智能人才緊缺程度持續高于互聯網總體水平,作為ChatGPT核心技術的AI大模型方向缺人情況更為突出。報告中主要指出三類人才的短缺情況。首先是預訓練模型方面人才短缺,該崗位主要負責根據標注好的數據,對模型完成訓練,由于現階段大模型融合文字、圖片、音視頻等多種內容,因此主要是多模態預訓練;其次是對話機器人方向,該崗位主要負責人工智能對話機器人和自然語言理解后臺技術研發和優化,更偏向應用端;第三個是AIGC崗位,主要負責大模型的搭建和調優。
在《ChatGPT相關領域就業洞察報告》中,三大稀缺崗位的平均薪酬是33萬元左右,其中AIGC以39.08萬居首;對話機器人為34.89萬元;預訓練模型為33.93萬元。
不過脈脈高聘人才智庫數據顯示,在供需比嚴重失衡的情況下,企業給AI大模型方面人才開出的工資遠超這一水平。主要原因在于,國內AI大模型方面人才主要來源以百度文心一言大模型團隊為代表的成熟團隊,因此這幾個團隊遭遇了瘋狂的挖角,有3年相關工作經驗的員工年薪就可達到百萬元。
人才解決方案商科銳國際業務總監景曉平表示,從過往經驗來看,AI行業開出百萬元年薪很正常,出現僅憑3年工作經驗就能拿到百萬元年薪的現象,是由市場需求推動的。“在需求出現的時候,企業愿意以超出市場平均水平的薪酬招聘具有相關工作經驗的從業者,讓相關業務快速做起來。”
當然,不只是國內高薪搶人,國外也是如此。就以OpenAI來講,該公司挖角谷歌的行為受到了很大的非議。根據相關報道,有機構對當時OpenAI的736名進行了背景分析,其中59人之前就職于谷歌,其次是34人曾就職于Meta,然后蘋果15人,Dropbox 是14人 ,亞馬遜是11人。并且,在ChatGPT發布前后,還有10位谷歌頂級AI大牛加盟了OpenAI。
馬斯克等人叫停AI大模型訓練
這邊企業在打人才大戰,另一邊科技大牛卻聯合起來叫停AI大模型進一步發展。
從各方面來看,AI大模型都已經展現出顛覆社會的力量,尤其是在生產力方面,AI大模型讓人機協作過渡到機器單獨操作成為可能。然而,大模型不僅讓AI可能擁有非凡的智慧,也可能帶來巨大的風險。
于是,近日非營利性組織未來生命研究所(Future of Life Institute)公布了一封公開信,呼吁所有AI實驗室暫停可能比GPT-4更為強大的AI大模型研究至少6個月。這封公開信的名字是《暫停大型人工智能研究》,聯名人除了馬斯克,還包括蘋果聯合創始人Steve Wozniak、Stability AI創始人Emad Mostaque等上千名科技大佬和AI專家。
公開信中提到,有大量研究表明,具備人類水平性能的AI大模型可能會給社會、人類帶來目前無法預測的風險,現階段就應當投入相應的資源,對這些AI模型進行規劃及管理。同時只有當確信這類AI大模型的影響是積極的、風險是可控的,才能夠繼續開發,并呼吁所有實驗室暫停這類AI大模型的研究,否則應當讓監管機構介入、與開發者共同制定監管措施。
目前,人們對GPT-4等大模型有多方面的擔憂。其中之一是害怕這些大模型成為有AI設置權限的人控制世界的工具,就連GPT大模型之父阿爾特曼也公開支持這一觀點。他在受訪時表示,“AI至今仍然是一種非常受人控制的工具。但一些擁有AI輸入控制權的人可能無視人們對人工智能設置的一些安全限制。”他還認為,GPT在寫代碼方面已經越來越好了,而這也有可能被用于網絡攻擊。
其二是GPT等大模型可能導致人類智力倒退。相關消息表示,GPT-5大模型已經完成對人類擁有互聯網以來所有文字和圖片等相關數據進行訓練,其擁有的智慧已經遠遠超出了人類的極限。因此,遠大集團董事長兼總裁張躍在日前某活動上表示,以ChatGPT為代表的新科技,可能替代的是高智商工作。“如果過度依賴工具,人會變蠢,滿腹經綸的教授也會變成兒童了,因為人們不用思考了”。目前,已經有相當一部分院校明令禁止自己的學生使用GPT等大模型產品。
其三便是AI大模型可能出現對人類生存的威脅,這也是OpenAI CEO奧特曼認同的觀點。日前,一位斯坦福大學教授發現,GPT-4竟然能引誘人類提供開發文檔,在30分鐘就擬定出了一個完整的“外逃越獄”計劃。因此,大家擔心,如果GPT進一步升級,它很有可能產生對抗性智能,擁有自主意識。
目前,GPT等AI大模型在飛速狂飆,全球主要國家和地區都將其作為未來發展的重要領域。不過很明顯,監管還遠遠不到位,或者說是嚴重缺失。在AAAI 2023(Association for the Advancement of Artificial Intelligence)國際先進人工智能協會也曾有博文指出,監管部門沒有為新一代人工智能模型的出現做好充分的準備。
后記
從技術本身而言,AI大模型進一步釋放了AI的技術潛力,使得產業發展進入了一個全新的階段。為了能夠在這個巨大的藍海中占據主動,企業開啟搶人大戰是自然而然的事情。然而,過去二三十年里,互聯網在法律法規方面的缺失在AI大模型領域被進一步放大了,因為這一領域真的是日新月異。并且,AI大模型已經表現出人類不能理解的行為,我們確實需要停下來確保它是真正安全的。
不過,產業的博弈才剛剛開始,360集團創始人周鴻祎就認為不該叫停GPT-5,認為不發展才是最大的不安全。
-
AIGC
+關注
關注
1文章
361瀏覽量
1539
發布評論請先 登錄
相關推薦
評論