很多人也許已經忘記,ChatGPT 正式發布時間是去年 11 月底,到現在才剛剛兩個月,但它掀起的熱潮卻已引發科技公司紛紛跟進,催生了獨角獸創業公司,還讓學術界修改了論文接收的要求。
在 ChatGPT 引發 AI 領域「是否要禁用」大討論之后,OpenAI 的真假鑒別工具終于來了。
1 月 31 日 OpenAI 官宣了區分人類作品和 AI 生成文本的識別工具上線,該技術旨在識別自家的 ChatGPT、GPT-3 等模型生成的內容。然而分類器目前看起來準確性堪憂:OpenAI 在博客里指出 AI 識別 AI 高置信度正確率約為 26%。但該機構認為,當它與其他方法結合使用時,可以有助于防止 AI 文本生成器被濫用。
「我們提出分類器的目的是幫助減少人工智能生成的文本造成的混淆。然而它仍然有一些局限性,因此它應該被用作其他確定文本來源方法的補充,而不是作為主要的決策工具,」OpenAI 發言人通過電子郵件對媒體介紹道。「我們正通過這個初始分類器獲取有關此類工具是否有用的反饋,并希望在未來分享改進的方法。」
最近科技領域隨著圍繞生成式 AI,尤其是文本生成 AI 的熱情正在不斷增長,但相對的是人們對于濫用的擔憂,批評者呼吁這些工具的創造者應該采取措施減輕其潛在的有害影響。
面對海量的 AI 生成內容,一些行業立刻作出了限制,美國一些最大的學區已禁止在其網絡和設備上使用 ChatGPT,擔心會影響學生的學習和該工具生成的內容的準確性。包括 Stack Overflow 在內的網站也已禁止用戶共享 ChatGPT 生成的內容,稱人工智能會讓用戶在正常的討論中被無用內容淹沒。
這些情況突出了 AI 識別工具的必要性。雖然效果不盡如人意,但 OpenAI AI 文本分類器(OpenAI AI Text Classifier)在架構上實現了和 GPT 系列的對標。它和 ChatGPT 一樣是一種語言模型,是根據來自網絡的許多公開文本示例進行訓練的。與 ChatGPT 不同的是,它經過微調可以預測一段文本由 AI 生成的可能性 —— 不僅來自 ChatGPT,也包括來自任何文本生成 AI 模型的內容。
具體來說,OpenAI 在來自五個不同組織(包括 OpenAI 自己)的 34 個文本生成系統的文本上訓練了 AI 文本分類器。這些內容與維基百科中相似(但不完全相同)的人工文本、從 Reddit 上共享的鏈接中提取的網站以及為 OpenAI 文本生成系統收集的一組「人類演示」配對。
需要注意的是,OpenAI 文本分類器不適用于所有類型的文本。被檢測的內容至少需要 1000 個字符,或大約 150 到 250 個單詞。它沒有論文檢測平臺那樣的查重能力 —— 考慮到文本生成人工智能已被證明會照抄訓練集里的「正確答案」,這是一個非常難受的限制。OpenAI 表示,由于其英語前向數據集,它更有可能在兒童或非英語語言書寫的文本上出錯。
在評估一段給定的文本是否由 AI 生成時,檢測器不會正面回答是或否。根據其置信度,它會將文本標記為「非常不可能」由 AI 生成(小于 10% 的可能性)、「不太可能」由 AI 生成(在 10% 到 45% 之間的可能性)、「不清楚它是否是」AI 生成(45% 到 90% 的機會)、「可能」由 AI 生成(90% 到 98% 的機會)或「很有可能」由 AI 生成(超過 98% 的機會)。
看起來和圖像識別的 AI 很像,除了準確程度。根據 OpenAI 的說法,分類器錯誤地將人類編寫的文本標記為 AI 編寫的文本的概率為 9%。
一番試用之后,效果的確不大行
OpenAI 宣稱其 AI 文本分類器的成功率約為 26%,一些網友上手試用之后,發現識別效果果然不行。
知名 ML 和 AI 研究人員 Sebastian Raschka 試用之后,給出了「It does not work」的評價。他使用其 2015 年初版的 Python ML 書籍作為輸入文本,結果顯示如下。
Randy Olson 的 foreword 部分被識別為不清楚是否由 AI 生成(unclear)
他自己的 preface 部分被識別為可能由 AI 生成(possibly AI)
第一章的段落部分被識別為很可能由 AI 生成(likely AI)
Sebastian Raschka 對此表示,這是一個有趣的例子,但自己已經為將來可能因離譜的論文識別結果而受到懲罰的學生感到難過了。
因此他提議,如果要部署這樣的模型,請共享一個混淆矩陣。不然如果教育者采用這一模型進行評分,則可能會對現實世界造成傷害。此外還應該增加一些有關誤報和漏報的透明度。
此外,Sebastian Raschka 輸入了莎士比亞《麥克白》第一頁的內容,OpenAI AI 文本分類器給出的結果竟然是很可能由 AI 生成。簡直離譜!
還有人上傳了 AI 寫作工具 Easy-Peasy.AI 創作的內容,結果 OpenAI AI 文本分類器判定為由 AI 生成的可能性非常小。
最后,有人用上了反復翻譯大法,把文本讓 GPT3 重寫一遍,也能騙過識別器。
總結一下的話就是正向識別不準,反向識別出錯,也無法識破一些改論文的技巧。看來,起碼在 AI 文本內容識別這一領域,OpenAI 還需努力。
最近,有媒體爆料百度計劃在今年3月推出 ChatGPT 風格的應用程序,最初將其嵌入到其主要搜索服務中。該工具的名稱尚未確定,就像 ChatGPT 一樣允許用戶獲得對話式搜索結果。百度對此未予置評。不過,有網友建議,還是先做一個AI內容真假鑒別工具吧!
審核編輯 :李倩
-
AI
+關注
關注
87文章
31463瀏覽量
269861 -
模型
+關注
關注
1文章
3296瀏覽量
49042 -
OpenAI
+關注
關注
9文章
1121瀏覽量
6632
原文標題:ChatGPT “克星”來了!OpenAI 推出AI真假鑒別工具,成功率僅有26%
文章出處:【微信號:jbchip,微信公眾號:電子元器件超市】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論