色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP技術(shù)在司法領(lǐng)域的應(yīng)用

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:量子位、CCF ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2022-08-22 11:50 ? 次閱讀

自然語(yǔ)言處理(簡(jiǎn)稱(chēng)NLP)被譽(yù)為“人工智能皇冠上的明珠”、“實(shí)現(xiàn)通用人工智能(AGI)的鑰匙”。

當(dāng)自然語(yǔ)言處理技術(shù)遇到司法系統(tǒng),會(huì)擦出怎樣的火花?

在這里先跟大家分享一個(gè)“常識(shí)”:

據(jù)我國(guó)的法律,給出的量刑大都是一個(gè)區(qū)間,而不是具體值,比如判刑3年到5年。

那么究竟是3年、4年還是5年,需要法官對(duì)具體問(wèn)題進(jìn)行具體分析。

其出發(fā)點(diǎn)是好的,但實(shí)際卻讓一些經(jīng)驗(yàn)欠缺的法官左右為難:判久了對(duì)被告不利,判的時(shí)間不足對(duì)受害者又不夠公平。

不過(guò)現(xiàn)在嘛,法官的這個(gè)煩惱可以先放放了,因?yàn)橛幸豁?xiàng)AI前來(lái)“搭把手”。

這個(gè)AI背后的主要技術(shù),其實(shí)就是自然語(yǔ)言處理,它可以提取出當(dāng)前案件中的諸多要素,將其和其他類(lèi)似案件的要素作對(duì)比,最終分析得出具體建議值。

NLP技術(shù)在司法領(lǐng)域的應(yīng)用

事實(shí)上,除了能夠輔助法官量刑外,現(xiàn)在“NLP+司法”的應(yīng)用已不勝枚舉。

因?yàn)樗痉ㄏ到y(tǒng)的構(gòu)造可不簡(jiǎn)單:它包括公安、檢察院、法院、司法局、律師,當(dāng)然還有民眾。

對(duì)于不同的群體和場(chǎng)景,需要采用不同的方案和技術(shù)。

例如,在庭審場(chǎng)景下,有AI幫忙做筆錄那就省事兒多了,還可以大幅提升庭審效率。

于是“語(yǔ)音識(shí)別自動(dòng)生成庭審筆錄”不就來(lái)了嗎?

目前,科大訊飛的語(yǔ)音識(shí)別自動(dòng)生成庭審筆錄已經(jīng)覆蓋了29個(gè)省份的法庭,平均使庭審時(shí)長(zhǎng)縮短了30%,為復(fù)雜庭審縮短時(shí)長(zhǎng)還達(dá)到了50%。

此外,對(duì)公安、檢察院、法院比較熟悉的朋友可能知道,很多案件都有厚厚一疊卷宗,手動(dòng)編目、分類(lèi)費(fèi)時(shí)費(fèi)力,現(xiàn)在這種活兒也可以交給AI來(lái)處理了,文字OCR技術(shù)在這里大顯身手。

編目完成后,還有重頭戲:閱卷。當(dāng)然,AI又被派上了用場(chǎng),它可以輔助辦案人員閱讀卷宗,例如:要素索取、結(jié)果呈現(xiàn)。

然后到了案件中至關(guān)重要的一部分:證據(jù)。

事實(shí)上,證詞和線(xiàn)索往往都來(lái)自不同的個(gè)體,很多時(shí)候都會(huì)不出現(xiàn)證據(jù)不一致等情況,為此讓人工分析推理,是件非常淘神費(fèi)力的事情。

而AI現(xiàn)在可以輔助辦案人員校驗(yàn)證據(jù)了,具體來(lái)說(shuō),就是AI單個(gè)人提供的筆錄等進(jìn)行校驗(yàn),并且對(duì)不同人給出的信息進(jìn)行對(duì)比、矛盾審查。

這背后涉及到實(shí)體識(shí)別、指代消解、語(yǔ)義角色和依存關(guān)系分析等NLP技術(shù)延伸出來(lái)的方法。

對(duì)于上述提到的卷宗、筆錄等法律文本,AI還能自動(dòng)發(fā)現(xiàn)文本中的錯(cuò)別字詞和語(yǔ)法錯(cuò)誤。

為實(shí)現(xiàn)這樣的效果,訊飛采用了BERT中文全詞Mask(BERT-Chinese-wwm)模型,這是一個(gè)哈工大和訊飛聯(lián)合發(fā)布的全詞覆蓋中文BERT預(yù)訓(xùn)練模型。

除此之外,面向普通大眾,訊飛還發(fā)布了法律自動(dòng)問(wèn)答AI助手“法小飛”;還有基于案情的律師推薦AI等。

以上,都是科大訊飛副總裁、AI研究院副院長(zhǎng),北京研究院院長(zhǎng)王士進(jìn)分享的訊飛“NLP+司法”案例。

NLP的進(jìn)展與挑戰(zhàn)

前文展示了“NLP+司法”的應(yīng)用,下面就NLP這項(xiàng)技術(shù)展開(kāi)談?wù)劇?/p>

在本部分正式開(kāi)始前,先來(lái)看一段有趣的對(duì)話(huà)吧(據(jù)說(shuō)這是道外國(guó)人中文語(yǔ)言水平考試題):

B:沒(méi)什么意思,意思意思。 A:你這樣就沒(méi)意思了。 B:哎呀,小意思,小意思。 A:你這人可真有意思。 B:哎呀,其實(shí)也沒(méi)有別的意思。 A:那我就不好意思了。 B:是我不好意思。

請(qǐng)問(wèn)這里的“意思”都是什么意思?(Doge)

其實(shí),這里的“意思”二字可以看作一個(gè)符號(hào),這個(gè)符號(hào)背后承載的信息非常豐富。

一詞多義、多詞一義等問(wèn)題,本質(zhì)上是形式和背后含義之間存在多對(duì)多的映射關(guān)系的問(wèn)題,或者可以理解成在一個(gè)廣闊空間內(nèi)進(jìn)行搜索的問(wèn)題。

我們認(rèn)為,怎么處理好這些關(guān)系,是自然語(yǔ)言處理的最核心的困難。

哈爾濱工業(yè)大學(xué)教授、人工智能研究院副院長(zhǎng)車(chē)萬(wàn)翔如是說(shuō)道。

但如果沒(méi)有任何限制,在一個(gè)非常大的空間內(nèi)進(jìn)行搜索,其復(fù)雜性相當(dāng)高。這個(gè)該怎么解決?

車(chē)教授介紹稱(chēng),一般是用“知識(shí)”進(jìn)行約束,這里打雙引號(hào)的原因是:提到知識(shí),一般會(huì)認(rèn)為是某些規(guī)則、邏輯、符號(hào)知識(shí);而這里指的是更廣義的知識(shí)。

廣義的知識(shí)有多種分類(lèi)法,這里主要將其分為3種來(lái)源。

其一,就是狹義的知識(shí),包括語(yǔ)言、常識(shí)(很難從文本中挖到)和世界知識(shí)(可以從文本中挖到),世界知識(shí)可以拿知識(shí)圖譜等來(lái)表示。

其二,是算法,包括淺層學(xué)習(xí)、深度學(xué)習(xí)和NLP算法。

其三,是數(shù)據(jù),包括有標(biāo)注的、無(wú)標(biāo)注的數(shù)據(jù)和偽數(shù)據(jù)。當(dāng)下爆火的預(yù)訓(xùn)練模型就使用了大量的未標(biāo)注數(shù)據(jù)。

首先可通過(guò)未標(biāo)注數(shù)據(jù)預(yù)訓(xùn)練一個(gè)模型;接著用語(yǔ)料庫(kù)去精調(diào)這個(gè)模型,從而使目標(biāo)模型變得更強(qiáng)大。

1e5b4e5a-21c8-11ed-ba43-dac502259ad0.png

當(dāng)下普遍認(rèn)為,對(duì)于幾乎所有AI系統(tǒng),如果沒(méi)有新的知識(shí)、算法或數(shù)據(jù)輸入,這個(gè)系統(tǒng)本身很難提高。

當(dāng)然也有人提出,怎么感覺(jué)有例外——比如DeepMind的AI棋手AlphaZero,就是通過(guò)自我博弈來(lái)學(xué)習(xí)精進(jìn)的。

對(duì)此,車(chē)教授解釋道,這種游戲場(chǎng)景比較特殊,因?yàn)樗旧硎且粋€(gè)封閉的系統(tǒng),能夠下棋的位置畢竟有限,且還有人為制定的勝負(fù)標(biāo)準(zhǔn),所以在條條框框之下,機(jī)器自由發(fā)揮的空間并不算特別大。

但像NLP就不一樣了,哪句話(huà)說(shuō)得好,哪句話(huà)說(shuō)得不好,其實(shí)沒(méi)有一個(gè)明確的判定標(biāo)準(zhǔn),這種情況下,左右博弈就沒(méi)有奇效了。

說(shuō)到這里,現(xiàn)在 NLP用到了知識(shí)、算法和數(shù)據(jù),那NLP之后還會(huì)朝哪個(gè)方向發(fā)展?或者說(shuō),NLP下一步還會(huì)用到什么?

要回答這個(gè)問(wèn)題,不妨先縱觀(guān)一下人工智能自1956年誕生以來(lái)的發(fā)展簡(jiǎn)史。(你就會(huì)發(fā)現(xiàn)一些有意思的規(guī)律)

上世紀(jì)50年代至上世紀(jì)90年代期間,主要關(guān)注的是小規(guī)模專(zhuān)家知識(shí);從上世紀(jì)90年代到2011年前后,更關(guān)注的是算法設(shè)計(jì);從2010年到2017年,迎來(lái)了深度學(xué)習(xí)的熱潮,數(shù)據(jù)的重要性愈發(fā)凸顯。

而自2018年谷歌推出BERT至今,大規(guī)模預(yù)訓(xùn)練模型成了當(dāng)下熱詞。

1e7ff750-21c8-11ed-ba43-dac502259ad0.png

不難發(fā)現(xiàn),此前,后一個(gè)階段的時(shí)間幾乎是前一階段的一半,所以……(手動(dòng)狗頭)

說(shuō)回大規(guī)模預(yù)訓(xùn)練模型,車(chē)教授指出,當(dāng)前大模型的“同質(zhì)化”趨勢(shì)越來(lái)越明顯,當(dāng)然這可不是什么不好的事,我們可以用“通用性”來(lái)理解。

無(wú)論是 NLP 任務(wù)還是CV任務(wù)等,現(xiàn)在都有一套“萬(wàn)金油”模型:Transformer,基本可以統(tǒng)一解決很多問(wèn)題。此外,現(xiàn)在模型的規(guī)模越來(lái)越大,而且模型的表現(xiàn)和其規(guī)模確實(shí)呈正相關(guān)。所有有觀(guān)點(diǎn)認(rèn)為,隨著模型規(guī)模的增大,還可能會(huì)涌現(xiàn)出令人驚訝的AI。正如俗話(huà)所說(shuō):量變引起質(zhì)變。

車(chē)教授表示,模型的“同質(zhì)化”和“規(guī)模化”趨勢(shì)是不可逆轉(zhuǎn)的,未來(lái)還會(huì)繼續(xù)這樣走下去。

至于NLP目前遇到的問(wèn)題,其實(shí)也算是人工智能發(fā)展過(guò)程中的問(wèn)題,比如說(shuō)易用性、高效性、魯棒性、可解釋性、推理能力等。(篇幅有限,這里就先不展開(kāi)了)

車(chē)教授提出,未來(lái)可能除了數(shù)據(jù)外,還會(huì)使用更廣泛的“知識(shí)”,而這種“知識(shí)”的來(lái)源可以被概括成“體驗(yàn)”,體驗(yàn)來(lái)自于人機(jī)交互等場(chǎng)景。

NLP相關(guān)問(wèn)題更多探討

圍繞自然語(yǔ)言處理的機(jī)遇和挑戰(zhàn),幾位學(xué)界和企業(yè)界的大佬展開(kāi)了一場(chǎng)主題Panel。

大模型的工業(yè)實(shí)用前景

首先,縱觀(guān)前沿科技和當(dāng)今的工業(yè)界不難發(fā)現(xiàn),雖然自2020年GPT-3誕生以來(lái),大模型的參數(shù)已達(dá)千億級(jí)別;但在工業(yè)實(shí)操中,尚未看到超大模型的廣范應(yīng)用。

其中一個(gè)重要的原因是,大模型的訓(xùn)練數(shù)據(jù)和一些工業(yè)領(lǐng)域的真實(shí)數(shù)據(jù)差別明顯。

大模型的實(shí)用前景到底如何目前十分具有爭(zhēng)議——有樂(lè)觀(guān)者認(rèn)為:未來(lái)大模型也能成為NLP 的基礎(chǔ)模型;也有消極的觀(guān)點(diǎn)表示:這更像各巨頭集合算法算力、大數(shù)據(jù)等優(yōu)勢(shì)搞的一個(gè)軍備競(jìng)賽而已。

現(xiàn)場(chǎng)的幾位專(zhuān)家對(duì)大模型的實(shí)用前景都未持消極態(tài)度,不過(guò)他們的具體想法也不盡相同。

學(xué)術(shù)界這邊,中國(guó)科學(xué)院自動(dòng)化研究所的劉康研究員發(fā)言稱(chēng):

大模型確實(shí)是個(gè)好東西,但與其把大模型看成一種資源,不如把它看成一種技術(shù)規(guī)范、一種工具。

比如,在一些小數(shù)據(jù)場(chǎng)景下,能夠快速把已有的一些知識(shí)經(jīng)驗(yàn)遷移到新的任務(wù)。就像人拿到一個(gè)不會(huì)用新產(chǎn)品時(shí),通過(guò)閱讀產(chǎn)品說(shuō)明書(shū),然后就很快學(xué)會(huì)使用該產(chǎn)品了。

清華大學(xué)副教授劉知遠(yuǎn)的研究方向之一就是大模型。他指出,一方面,在實(shí)踐中發(fā)現(xiàn),中文的數(shù)據(jù)質(zhì)量比英文的差太多。

這不僅是規(guī)模問(wèn)題,數(shù)據(jù)質(zhì)量也不太行。最終效果就是,在實(shí)際訓(xùn)練過(guò)程中,對(duì)中文素材去完重、去完垃圾后,所剩的數(shù)據(jù)非常有限。

所以,如何為模型訓(xùn)練收集更多高質(zhì)量的中文數(shù)據(jù),是個(gè)重要議題,也是一件任重道遠(yuǎn)的事兒。

另一方面,劉知遠(yuǎn)教授認(rèn)為,要提升大模型的實(shí)用性,下一代大模型必須具備這樣的特性:

隨著模型的規(guī)模的增長(zhǎng),其計(jì)算量要呈現(xiàn)一個(gè)亞線(xiàn)性的增長(zhǎng)趨勢(shì),否則系統(tǒng)很難承受。就像我們的人腦也學(xué)習(xí)了很多東西,但在回憶具體某概念時(shí),腦子一般不用把很多知識(shí)點(diǎn)都過(guò)一遍。

企業(yè)界這邊,京東科技語(yǔ)音語(yǔ)義創(chuàng)新算法負(fù)責(zé)人、高級(jí)總監(jiān)吳友政提到,當(dāng)下大伙兒熱議的大模型并不一定要參數(shù)量達(dá)到千億級(jí)才算。

除了“大”之外,Transformer和自監(jiān)督也是大模型的兩個(gè)核心概念。更重要的是,Transformer和自監(jiān)督在工業(yè)界已有廣泛應(yīng)用,很多企業(yè)的線(xiàn)上系統(tǒng)雖然沒(méi)有千億參數(shù),但參數(shù)量也能達(dá)到億級(jí)了。

當(dāng)然,百億、千億級(jí)模型的工業(yè)應(yīng)用場(chǎng)景,還需要漫長(zhǎng)的探索。

舉個(gè)例子,在實(shí)際應(yīng)用中,可控性往往也是一個(gè)重要指標(biāo)。雖然像GPT-3這樣的模型在生成開(kāi)放故事方面表現(xiàn)很好,但怎么基于現(xiàn)有的知識(shí)生成更加可控的文本依然值得研究。

對(duì)千億大模型的工業(yè)應(yīng)用,科大訊飛研究院執(zhí)行院長(zhǎng)劉聰干脆直言道:

對(duì)企業(yè)來(lái)說(shuō),投產(chǎn)比太高。(即性?xún)r(jià)比太低)

他認(rèn)同“超大模型可以提高相關(guān)技術(shù)領(lǐng)域天花板”的觀(guān)點(diǎn),就像前面提到的,把它作為一種范式是OK的。

劉聰還補(bǔ)充道,在教育、醫(yī)療、司法等場(chǎng)景下(這很訊飛),模型的可解釋性是至關(guān)重要的。

用大白話(huà)講,就是要說(shuō)清楚模型內(nèi)部到底發(fā)生了什么,才產(chǎn)生出這樣的結(jié)果,否則計(jì)算機(jī)通過(guò)模型給出的判定很難讓人信服。

然而,現(xiàn)在很多千億模型內(nèi)部還處于“黑盒”狀態(tài),有些原理不僅是現(xiàn)在看不透,而且由于其龐大的體量和錯(cuò)綜復(fù)雜的結(jié)構(gòu),以后也很難解釋清楚。

大模型處理多模態(tài)數(shù)據(jù)的前景

除了大模型的工業(yè)應(yīng)用外,大模型處理多模態(tài)數(shù)據(jù)的前景也是個(gè)有意思的議題。

大家應(yīng)該知道(至少能意會(huì)到),人腦可以輕松處理多模態(tài)的數(shù)據(jù),從中學(xué)習(xí)和解耦各種復(fù)雜信息,并且讓各種模態(tài)的數(shù)據(jù)高度協(xié)同作用。

說(shuō)人話(huà),比如當(dāng)倆人交談時(shí),除了說(shuō)出來(lái)的言語(yǔ),還有語(yǔ)氣、語(yǔ)速、神態(tài)、肢體語(yǔ)言等也在傳遞著不同維度信息,就像有人說(shuō)“好好好”可能是在真心夸贊,也可能是——

讀取并處理各種信息,對(duì)咱們聰明的大腦來(lái)說(shuō)一般沒(méi)啥問(wèn)題,但是對(duì)于計(jì)算機(jī),是否也能輕松解決?

哈工大車(chē)萬(wàn)翔教授表示,這應(yīng)該沒(méi)有些人想象的那么困難。

前面他用“同質(zhì)化”一詞形容了當(dāng)今各個(gè)大模型的發(fā)展趨勢(shì),再說(shuō)一次,這里的“同質(zhì)化”不是貶義詞——

現(xiàn)在,文本、語(yǔ)音、圖像都可以用Transformer這套東西來(lái)表示;反之,用Transformer能更容易地整合不同模態(tài)信息。所以,像“語(yǔ)音+文本+圖像”這樣的多模態(tài)預(yù)訓(xùn)練模型其實(shí)已經(jīng)數(shù)不勝數(shù)了。

此外,例如DeepMind的Gato,足足在604個(gè)不同的任務(wù)上進(jìn)行了訓(xùn)練,訓(xùn)練數(shù)據(jù)還包括游戲里的建模動(dòng)畫(huà)、模擬機(jī)器人運(yùn)用場(chǎng)景等。最終,這個(gè)“全才”AI不僅可以看圖寫(xiě)話(huà)、和人類(lèi)聊天,還可以把雅達(dá)利游戲玩得飛起,并且能操控機(jī)械臂。

清華劉知遠(yuǎn)教授補(bǔ)充道,他認(rèn)為多模態(tài)模型的“模態(tài)”可以更加多樣化,例如用戶(hù)行為就是一種值得大模型學(xué)習(xí)的數(shù)據(jù)。

他提到OpenAI今年發(fā)布的網(wǎng)頁(yè)版GPT(WebGPT),可以把用戶(hù)通過(guò)搜索引擎來(lái)回答問(wèn)題的行為序列作為T(mén)ransformer的輸入,并對(duì)其訓(xùn)練,然后模型就學(xué)到了一個(gè)新技能——根據(jù)問(wèn)題去網(wǎng)上搜索答案。

企業(yè)界這邊,科大訊飛的劉聰指出,在應(yīng)用場(chǎng)景中有剛需的多模態(tài)模型,公司會(huì)優(yōu)先投入研發(fā)。

劉聰以語(yǔ)音交互問(wèn)題舉例:雖然在常規(guī)場(chǎng)景下,語(yǔ)音交互的技術(shù)已經(jīng)相當(dāng)成熟了;但是在車(chē)載、雞尾酒會(huì)等嘈雜環(huán)境中,怎么判斷某人正在對(duì)A還是B,在對(duì)人還是對(duì)機(jī)器說(shuō)話(huà)?

在這種復(fù)雜的交互場(chǎng)景下,語(yǔ)音和視覺(jué)信息等結(jié)合,可以顯著提升模型的準(zhǔn)確性。

在大伙兒對(duì)多模態(tài)大模型積極表態(tài)之時(shí),劉康研究員則提出了在科研過(guò)程中遇到的一個(gè)問(wèn)題:

用Transformer這個(gè)萬(wàn)金油來(lái)建立各個(gè)模態(tài)之間的關(guān)聯(lián),看似是個(gè)近乎完美的方案,但實(shí)際極大的依賴(lài)于背后數(shù)據(jù)之間的關(guān)系。

舉個(gè)簡(jiǎn)單的例子,數(shù)據(jù)之間是對(duì)應(yīng)關(guān)系還是互補(bǔ)關(guān)系?比如,給出一段新聞數(shù)據(jù),里面的圖片可能是上下文講述的內(nèi)容,也可能是對(duì)文字的補(bǔ)充(就像上面那個(gè)表情包)。

所以,劉康研究員認(rèn)為,除了模態(tài)種類(lèi)還需多樣化外,不同模態(tài)之間的邏輯關(guān)系也是未來(lái)值得研究的方向之一。他建議,把采集的數(shù)據(jù)映射到背后的知識(shí)庫(kù)上,通過(guò)知識(shí)來(lái)處理各種模態(tài)的關(guān)系。

大模型的可解釋性

前文提到,模型的可解釋性在一些特定場(chǎng)景下非常重要,而且打破砂鍋問(wèn)到底是一眾科研人的求知態(tài)度。

所以盡管前路渺茫,許多人仍在虔誠(chéng)地探索著,希望有朝一日能解釋清楚超大模型運(yùn)行過(guò)程中的各種原理。

不過(guò),“深度學(xué)習(xí)大模型天然就不具有可解釋性。”哈工大車(chē)萬(wàn)翔教授分享了他之前看到的這種觀(guān)點(diǎn)。他提到,機(jī)器并不像人的思維那樣運(yùn)行。

想追求可解釋性,在淺層模型上更容易找到。當(dāng)然,淺層模型的精度一般比深度學(xué)習(xí)模型差遠(yuǎn)了。

車(chē)教授認(rèn)為,高精度和可解釋性本身就是矛盾的。所以根據(jù)具體場(chǎng)景和需要選擇不同模型就好了。

比如,讓機(jī)器給學(xué)生作文打分,總得說(shuō)清楚為什么得出這個(gè)分?jǐn)?shù)吧。也就是要講明白為模型設(shè)置了多少feature,如:典故、排比、修辭方式、邏輯性等。這里淺層模型就更適用。

劉康研究員也認(rèn)為,要去搞清楚深度學(xué)習(xí)模型黑盒部分的原理,宛如走進(jìn)一條死胡同。

現(xiàn)在的研究者主要采用兩種手段試圖解釋深度學(xué)習(xí)模型黑盒內(nèi)發(fā)生了什么:

一種是觀(guān)察分析輸入哪些內(nèi)容或獲得更多權(quán)重;另一種是用可解釋的淺層模型無(wú)限逼近黑盒模型,然后用淺層模型的結(jié)果來(lái)近似解釋黑盒模型。

然而這兩種方法本本質(zhì)上也只是模擬,還是沒(méi)解釋黑盒模型的機(jī)制到底是怎么樣的。此外還有個(gè)重大問(wèn)題:即使做了解釋?zhuān)矌缀跏遣豢沈?yàn)證的,這樣就沒(méi)法判斷解釋是否真的靠譜。

也有人對(duì)此觀(guān)點(diǎn)持不同態(tài)度——清華劉知遠(yuǎn)教授就認(rèn)為,深度學(xué)習(xí)模型還是具有可解釋性的,只不過(guò)別之前的淺層模型復(fù)雜多了,需要用到更復(fù)雜的模型和機(jī)制。這些東西還需探索,但非完全不可逾越的。

從產(chǎn)業(yè)角看來(lái)看大模型的可解釋性問(wèn)題,京東吳友政和科大訊飛劉聰都表示:

要結(jié)合各行業(yè)場(chǎng)景的需求來(lái)分層看待可解釋性,部分簡(jiǎn)單場(chǎng)景其實(shí)不太需要深度可解釋性,而教育、醫(yī)療等用戶(hù)關(guān)切過(guò)程的重大社會(huì)場(chǎng)景則會(huì)對(duì)可解釋性提出更高的要求 。

對(duì)于那些對(duì)可解釋性有特別需求之處,先弄清楚到底需要對(duì)哪些點(diǎn)進(jìn)行“解釋”,除了用大模型之外,還可以結(jié)合其他知識(shí)運(yùn)用類(lèi)的技術(shù)。

劉聰還補(bǔ)充道,人機(jī)協(xié)同也是很重要的一種方式。當(dāng)機(jī)器不能獨(dú)立Perfect時(shí),那就先與人合作唄,用戶(hù)的行為或許也能為模型可解釋性提供一定幫助。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5507

    瀏覽量

    121298
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    619

    瀏覽量

    13588
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    489

    瀏覽量

    22058

原文標(biāo)題:NLP,能輔助法官判案嗎?

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    美國(guó)司法部將推動(dòng)谷歌出售Chrome瀏覽器

    美國(guó)司法部近日表示,將推動(dòng)谷歌出售其Chrome瀏覽器業(yè)務(wù),旨在打破谷歌互聯(lián)網(wǎng)領(lǐng)域的壟斷地位。此外,司法部還要求谷歌采取措施,允許網(wǎng)站選擇不使用人工智能
    的頭像 發(fā)表于 11-19 16:22 ?281次閱讀

    NLP技術(shù)聊天機(jī)器人中的作用

    聊天機(jī)器人,也稱(chēng)為聊天AI,是一種通過(guò)文本或語(yǔ)音與人類(lèi)進(jìn)行交流的軟件。它們廣泛應(yīng)用于客戶(hù)服務(wù)、在線(xiàn)購(gòu)物、個(gè)人助理等領(lǐng)域NLP技術(shù)是實(shí)現(xiàn)聊天機(jī)器人智能對(duì)話(huà)能力的關(guān)鍵。 1. 理解用戶(hù)意圖 NL
    的頭像 發(fā)表于 11-11 10:33 ?468次閱讀

    云知聲山海大模型助力司法領(lǐng)域智慧化升級(jí)

    近期,云知聲成功助力上海市徐匯區(qū)虹梅街道司法所打造基于山海大模型的司法領(lǐng)域應(yīng)用,極大提升了司法服務(wù)的可及性與便利性。這不僅是山海大模型
    的頭像 發(fā)表于 09-12 14:44 ?621次閱讀

    nlp神經(jīng)語(yǔ)言和NLP自然語(yǔ)言的區(qū)別和聯(lián)系

    神經(jīng)語(yǔ)言(Neuro-Linguistic Programming,NLP) 神經(jīng)語(yǔ)言是一種心理學(xué)方法,它研究人類(lèi)思維、語(yǔ)言和行為之間的關(guān)系。NLP的核心理念是,我們可以通過(guò)改變我們的思維方式和語(yǔ)言
    的頭像 發(fā)表于 07-09 10:35 ?802次閱讀

    nlp自然語(yǔ)言處理基本概念及關(guān)鍵技術(shù)

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱(chēng)NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。NLP技術(shù)
    的頭像 發(fā)表于 07-09 10:32 ?655次閱讀

    nlp自然語(yǔ)言處理框架有哪些

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱(chēng)NLP)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解和處理人類(lèi)語(yǔ)言。隨著技術(shù)的發(fā)展,NLP
    的頭像 發(fā)表于 07-09 10:28 ?585次閱讀

    nlp自然語(yǔ)言處理的主要任務(wù)及技術(shù)方法

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱(chēng)NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它研究如何讓計(jì)算機(jī)能夠理解、生成和處理人類(lèi)語(yǔ)言。NLP技術(shù)
    的頭像 發(fā)表于 07-09 10:26 ?1207次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    本文中,我們將深入探討LLM(Large Language Model,大型語(yǔ)言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語(yǔ)言文本。近年來(lái),隨著計(jì)算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?632次閱讀

    nlp自然語(yǔ)言處理模型怎么做

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱(chēng)NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)對(duì)人類(lèi)語(yǔ)言的理解和生成。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,NLP
    的頭像 發(fā)表于 07-05 09:59 ?668次閱讀

    nlp自然語(yǔ)言處理的應(yīng)用有哪些

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱(chēng)NLP)是人工智能領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解和生成自然語(yǔ)言。隨著技術(shù)的發(fā)展,NLP已經(jīng)
    的頭像 發(fā)表于 07-05 09:55 ?2687次閱讀

    NLP技術(shù)機(jī)器人中的應(yīng)用

    人工智能的廣闊領(lǐng)域中,自然語(yǔ)言處理(NLP技術(shù)作為連接人類(lèi)語(yǔ)言與機(jī)器智能的橋梁,正逐漸滲透到我們?nèi)粘I畹姆椒矫婷妫渲袡C(jī)器人技術(shù)便是一
    的頭像 發(fā)表于 07-04 16:04 ?526次閱讀

    NLP技術(shù)人工智能領(lǐng)域的重要性

    智能的橋梁,其重要性日益凸顯。本文將從NLP的定義、發(fā)展歷程、核心技術(shù)、應(yīng)用領(lǐng)域以及對(duì)人工智能領(lǐng)域的深遠(yuǎn)影響等多個(gè)維度,深入探討NLP
    的頭像 發(fā)表于 07-04 16:03 ?579次閱讀

    自然語(yǔ)言處理技術(shù)計(jì)算機(jī)系統(tǒng)中的應(yīng)用

    已經(jīng)許多領(lǐng)域展現(xiàn)出廣泛的應(yīng)用價(jià)值,從機(jī)器翻譯、語(yǔ)音識(shí)別到情感分析、智能客服等,無(wú)一不體現(xiàn)著NLP技術(shù)的強(qiáng)大能力。本文將深入探討NLP
    的頭像 發(fā)表于 07-04 14:35 ?544次閱讀

    NLP模型中RNN與CNN的選擇

    自然語(yǔ)言處理(NLP領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是兩種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨(dú)特的優(yōu)勢(shì),適用于處理不同類(lèi)型的NLP任務(wù)。本文旨在深入探討
    的頭像 發(fā)表于 07-03 15:59 ?556次閱讀

    什么是自然語(yǔ)言處理 (NLP)

    理解和處理自然語(yǔ)言文本,從而實(shí)現(xiàn)人機(jī)交互的流暢和自然。NLP不僅關(guān)注理論框架的建立,還側(cè)重于實(shí)際技術(shù)的開(kāi)發(fā)和應(yīng)用,廣泛應(yīng)用于法律、醫(yī)療、教育、安全、工業(yè)、金融等多個(gè)領(lǐng)域
    的頭像 發(fā)表于 07-02 18:16 ?1227次閱讀
    主站蜘蛛池模板: 一区二区中文字幕在线观看| 欧美精品亚洲精品日韩专区一| 亚洲国产精品久久又爽黄A片| 男女无遮挡吃奶gift动态图| 国产学生无码中文视频一区| 超碰免费视频caopoom9| 中文字幕日本在线mv视频精品| 亚洲精品一区三区三区在线观看| 欧美一第一页草草影院| 葵司中文第一次大战黑人| 国产亚洲精品久久久999蜜臀| 99热这里只有 精品| 成人bt下载| 丰满少妇发泄14p| 8x8x我要打机飞在线观看| 日韩欧美视频一区二区| 好男人好资源在线播放| 国产日韩欧美高清免费视频| 国产精品爆乳尤物99精品| z00兽200俄罗斯| www黄色大片| yy4408午夜场理论片| wwwzzz日本| ass亚洲熟妇毛耸耸pics| 成人欧美尽粗二区三区AV| 久久九九亚洲精品| 亚洲精品欧美精品中文字幕| 扒开粉嫩的小缝末成年小美女| 国产午夜精品理论片久久影视| 欧美高清videossexo| 牛牛在线(正)精品视频| 青青草原伊人| 亚洲AV久久无码高潮喷水| 天天久久狠狠色综合| 日本黄色www| 一本到2019线观看| 儿媳妇完整版视频播放免费观看| 久久久99精品成人片中文| 十八禁肉动漫无修在线播放| 中国成人在线视频| 国产一在线精品一区在线观看|