“大語(yǔ)言模型為 AI 產(chǎn)業(yè)帶來(lái)新的生機(jī),然而語(yǔ)言模型的應(yīng)用場(chǎng)景有限。要全面打開(kāi)生成式 AI 的想象力,還是要依托多模態(tài)大模型。”IDC 中國(guó)研究總監(jiān)盧言霞近日表示。Sora在文生視頻領(lǐng)域真正邁出了第一步,真正做到生成式 AI 驅(qū)動(dòng)生成短視頻。接下來(lái)也將刺激其他科技巨頭加快在該領(lǐng)域的技術(shù)攻關(guān)力度以及產(chǎn)品發(fā)布速度。
哪些公司有潛力快速推出類似產(chǎn)品呢?根據(jù)盧言霞的判斷,幾個(gè)最有潛力的群體包括,在大模型以及 AI 領(lǐng)域投入最為領(lǐng)先的科技巨頭,如 BAT、科大訊飛等;在計(jì)算機(jī)視覺(jué)領(lǐng)域擁有深厚積累的公司,比如商湯、海康一類的公司;以及短視頻類公司;更可大膽想象,也或許會(huì)培訓(xùn)出多模態(tài)大模型的全新創(chuàng)企。
多模態(tài)大模型將率先在短視頻、廣告、互娛、影視、媒體等領(lǐng)域采用,輔助人類員工生成視頻,既可以提高生產(chǎn)速度又可以提高生產(chǎn)數(shù)量,還可以創(chuàng)造全新的視覺(jué)感受,能夠幫助企業(yè)真正實(shí)現(xiàn)降本增效、提升用戶體驗(yàn)。
根據(jù)預(yù)測(cè),未來(lái) 5 年,生成式 AI 生成的文本類文件、圖像類文件、視頻類文件、軟件代碼類文件數(shù)量將會(huì)越來(lái)越平均。而這其中,與圖像文件相關(guān)的數(shù)據(jù)量可能是文本文件的 100 倍,視頻文件是圖像文件的 10 倍。整體來(lái)看,由于 GenAI 的采用和使用日益增多,近期和遠(yuǎn)期所創(chuàng)建數(shù)據(jù)的增長(zhǎng)速度都將快于近幾年。
盧言霞指出,多模態(tài)大模型行業(yè)發(fā)展的挑戰(zhàn)在于:
? 高質(zhì)量數(shù)據(jù)的稀缺:圖像、視頻類數(shù)據(jù)掌握在少數(shù)公司手中。這些數(shù)據(jù)也需要標(biāo)注,甚至重新采集,才能用于大模型的訓(xùn)練。
? 多模態(tài)大模型對(duì)算力的消耗更高,算力的可獲取性以及成本將是挑戰(zhàn)之一。
? 頂尖的大模型研發(fā)人才,也是行業(yè)發(fā)展的稀缺資源。
此外,多模態(tài)大模型將帶來(lái)更嚴(yán)峻的安全方面的挑戰(zhàn)。一方面多模態(tài)大模型將讀取更多的圖像、視頻類數(shù)據(jù),這些圖像視頻數(shù)據(jù)是否合規(guī)是否安全,需要得到保障;另一方面,生成的視頻與真實(shí)世界之間的差異,是否會(huì)影響到人身安全、社會(huì)穩(wěn)定、企業(yè)安全等,也需要注意。
當(dāng)前 Sora 生成的是1分鐘的視頻,對(duì)于行業(yè)已經(jīng)是重大突破,何時(shí)能生成2分鐘、5分鐘以上的視頻還未知,無(wú)論如何多模態(tài)大模型的應(yīng)用都將是顛覆性的。
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。
舉報(bào)投訴
相關(guān)推薦
剛剛,商湯科技日日新SenseNova多模態(tài)大模型,在權(quán)威綜合評(píng)測(cè)權(quán)威平臺(tái)OpenCompass的多模態(tài)評(píng)測(cè)中取得榜單第
發(fā)表于 12-20 10:39
?136次閱讀
? 事?件 ?12月10日,OpenAl正式上線?Sora,并向包括美國(guó)在內(nèi)的多數(shù)國(guó)家用戶開(kāi)放,用戶可在OpenAI官網(wǎng)上體驗(yàn)Sora。同時(shí),Sora?被包含在ChatGPT?Plus
發(fā)表于 12-16 14:39
?120次閱讀
/understanding-multimodal-llms ? 《一文理解多模態(tài)大語(yǔ)言模型 - 上》介紹了什么是多
發(fā)表于 12-03 15:18
?113次閱讀
/understanding-multimodal-llms 在過(guò)去幾個(gè)月中, OpenVINO? 架構(gòu)師 Yury閱讀了眾多有關(guān)多模態(tài)大語(yǔ)言模型的論文和博客,在此基礎(chǔ)上,推薦了一篇解
發(fā)表于 12-02 18:29
?303次閱讀
多模態(tài)大模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過(guò)學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實(shí)現(xiàn)更加智能化的信息處理。簡(jiǎn)單來(lái)說(shuō),多
發(fā)表于 10-18 09:39
?412次閱讀
Sora短期不會(huì)向公眾開(kāi)放 還處于反饋獲取階段 據(jù)外媒報(bào)道Sora核心團(tuán)隊(duì)在一次采訪中透露,Sora短期不會(huì)向公眾開(kāi)放,
發(fā)表于 03-14 14:55
?669次閱讀
。 Sora是一種擴(kuò)散模型,具備從噪聲中生成完整視頻的能力,它生成的視頻一開(kāi)始看起來(lái)像靜態(tài)噪音,通過(guò)多個(gè)步驟逐漸去除噪聲后,視頻也從最初的隨機(jī)像素轉(zhuǎn)化為清晰的圖像場(chǎng)景 ,其能夠
發(fā)表于 02-22 16:52
?3267次閱讀
sora模型的上市公司目前沒(méi)有相關(guān)官方的報(bào)道,因此無(wú)法給出準(zhǔn)確的回答。 Sora能夠獲取現(xiàn)有視頻并對(duì)其進(jìn)行擴(kuò)展或填充缺失的幀,這一功能在視頻編輯、電影特效等領(lǐng)域具有應(yīng)用前景,可以幫助用
發(fā)表于 02-22 16:46
?1112次閱讀
美國(guó)當(dāng)?shù)貢r(shí)間2024年2月15日 ,OpenAI正式發(fā)布文生視頻模型Sora ,并發(fā)布了48個(gè)文生視頻案例和技術(shù)報(bào)告 ,正式入局視頻生成領(lǐng)域 。Sora能夠根據(jù)提示詞生成60s的連貫視頻,“碾壓”了
發(fā)表于 02-22 16:42
?1168次閱讀
有推出“中文版sora” 有字節(jié)跳動(dòng)相關(guān)人士透露Boximator是視頻生成領(lǐng)域控制對(duì)象運(yùn)動(dòng)的技術(shù)方法研究項(xiàng)目,Boximator確實(shí)可以通過(guò)文本精準(zhǔn)控制生成視頻中人物或物體的動(dòng)作;但是目前還不能作為一個(gè)完善的產(chǎn)品直接落地。 但是雖然說(shuō)Boximator
發(fā)表于 02-21 17:29
?849次閱讀
奧特曼發(fā)布王炸模型Sora OpenAI首個(gè)文生視頻模型Sora正式亮相 2月16日凌晨OpenAI的首個(gè)文生視頻模型
發(fā)表于 02-18 17:41
?981次閱讀
全球人工智能領(lǐng)域的佼佼者OpenAI近日發(fā)布了一款名為Sora的短視頻生成模型,該模型能夠根據(jù)文字指令即時(shí)生成高質(zhì)量短視頻,引起了業(yè)界的廣泛關(guān)注。
發(fā)表于 02-18 10:16
?1336次閱讀
ByteDance Research 基于開(kāi)源的多模態(tài)語(yǔ)言視覺(jué)大模型 OpenFlamingo 開(kāi)發(fā)了開(kāi)源、易用的 RoboFlamingo 機(jī)器人操作模型,只用單機(jī)就可以訓(xùn)練。
發(fā)表于 01-19 11:43
?408次閱讀
多模態(tài)大語(yǔ)言模型(MLLM) 最近引起了廣泛的關(guān)注,其將 LLM 的推理能力與圖像、視頻和音頻數(shù)據(jù)相結(jié)合,通過(guò)多模態(tài)對(duì)齊使它們能夠更高效地執(zhí)行各種任務(wù),包括圖像分類、將文本與相應(yīng)的視頻
發(fā)表于 12-28 11:45
?520次閱讀
前段時(shí)間Google推出Gemini多模態(tài)大模型,展示了不凡的對(duì)話能力和多模態(tài)能力,其表現(xiàn)究竟如何呢?
發(fā)表于 12-28 11:19
?1258次閱讀
評(píng)論