1、人工智能的本質
人工智能是相對于人的智能而言的。正是由于意識是一種特殊的物質運動形式,所以根據控制論理論,運用功能模擬的方法,制造電腦模擬人腦的部分功能,把人的部分智能活動機械化,叫人工智能。人工智能的本質是對人思維的信息過程的模擬,是人的智能的物化。盡管人工智能可以模擬人腦的某些活動,甚至在某些方面超過人腦的功能,但人工智能不會成為人類智能而取代人的意識。
2、人工智能與人類思維的本質區別
人工智能是思維模擬,并非人的思維本身,決不能把“機器思維”和人腦思維等同起來,認為它可以超過人腦思維是沒有根據的。
(1)人工智能是無意識的機械的、物理的過程。人的智能主要是生理的和心理的過程。
(2)人工智能沒有社會性。人類智慧具有社會性。
(3)人工智能沒有人類意識特有的能動性和創造能力。人類思維則主動提出新的問題,進行發明創造。
(4)電腦可以代替甚至超過人類的部分思維能力,但它同人腦相比,局部超出,整體不及。智能機器是人類意識的物化,它的產生和發展,既依賴于人類科學技術的發展水平,又必須以人類意識對于自身的認識為前提。因此,從總體上說;人工智能不能超過人類智慧的界限。關于電腦能夠思維,甚至會超過人的思維,電腦、機器人將來統治人類的觀點是完全沒有根據的。
他們居然雇人扮AI這是玩哪出
很多美其名曰“人工智能”的高科技,竟壓根就是真人手動操作的“智能人工”。
事情要從本月初說起。2日,《華爾街日報》在刊文曝出了一宗“谷歌郵件泄露”丑聞。為了優化客戶服務體驗,谷歌郵箱(Gmail)竟允許上百家第三方App的開發人員瀏覽用戶的電子郵件。
涉事公司之一,eDataSource的前CTO錫德·羅德(Thede Loder)表示,讓員工“偷偷”讀用戶郵件的事,在數據服務行業中早已屢見不鮮。但是他解釋,這么做是為了改進軟件算法,訓練AI系統,所以工程師們只是“偶爾看看”,也就是讓工程師“輔助”AI。
其他諸如Return Path 和Edison Software等軟件公司的說法,和羅德如出一轍。
事情在第二天便得到了谷歌的承認。但除了是否侵犯用戶隱私外,字里行間顯然還隱藏著另一個重要的問題:
為什么讀郵件的都是人工?
這還沒完。英國《衛報》在6日繼續“吐槽”稱,讓人來“輔助”AI已經不錯了,以往還有很多更過分的“黑科技”。
2008年,英國一個自稱可以“自動將語音留言轉為文本短信”的SpinVox軟件,被人指控在南非、菲律賓等地設立了海外呼叫中心。
2016年,彭博社曝光美國創業公司X.ai(AI啊這公司名字就叫AI)推出的“人工智能私人助理Amy”,“后臺”居然是一支不眠不休的人工團隊。Amy號稱可以幫用戶完成會議安排和發送電子郵件等簡單任務,但受訪員工稱,自己需要每天工作12 小時,假扮虛擬助理完成一系列單調無聊到“令人麻木”的工作。
去年,推出了企業費用管理App的跨國公司Expensify承認,他們一直使用人工來處理他們的主打產品“智能掃描技術”(SmartScan)的部分收據轉錄工作。他們只要將用戶上傳的收據掃描,把照片發布到亞馬遜的眾包平臺上,那里的工作人員便會將其手動抄錄下來。而且,這些人的薪水便宜得很。
“不知道Expensify的用戶明不明白真相呢?我現在正在看著某人的Uber發票,上面寫著他的全名,以及出發地、目的地的地址”,接到活兒的羅謝爾·拉普朗特(Rochelle LaPlante)說道,他本人對這種“滿口謊言”的公司很是反感,現在根本不想用他們的產品。他透露,其實很多同行都有不同程度的抵觸情緒,“我們感覺自己被丟到幕后,勞動成果還被用來欺騙其他消費者。”
裝成翹楚好賺錢
隨后,《衛報》分析了這些科技企業對“偽人工智能”趨之若鶩的原因。
首先便是裝成行業佼佼者,吸引關注和投資,“這是他們不會告訴投資者和用戶的秘密”。這其中又分兩種情況。一種是讓人類來協助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國有家叫Scale API的公司,雇了一大堆人幫自己的自動駕駛汽車校準傳感器。
再有便是對外假稱是AI技術,然后偷偷用人工代替,直到真的開發出這個AI之前,能混一天算一天。報道稱,真人雖然速度又慢,又不能批量處理任務,但畢竟便宜啊。
有趣的是,早在2016年,一家交互設計工具網站Readme的老板格里高利·科貝格(Gregory Koberger)便在推特上用玩笑的口吻曝光了這個黑幕。
13日,《華爾街日報》再次評論了“偽人工智能”現象,稱其為“機器學習”熱潮和“零工經濟”相結合的產物。
真人扮AI不道德?AI扮真人更不道德
此外,《衛報》認為還有一個不那么“功利”的原因。心理學家發現,當用戶以為自己面對的是機器人時,會更容易放下戒備。一旦涉及敏感話題,這種情況就更加明顯。
再說回谷歌郵件事件,如果大家聽說郵件只是被機器人偷看了,抵觸情緒定然會比得知真相后小得多。
類似情形還存在于醫療問診中、來自南加大的研究團隊用他們開發的虛擬心理治療師艾莉(Ellie)做了一番測試。他們發現,患有創傷后應激障礙的退伍軍人只要發現艾莉是個AI,就老是會發病。
不過,這也引發了其他專家的擔憂。“這設計很綠野仙蹤呢”,心理學家、心理健康聊天機器人Woebot的創始人艾莉森·達西(Alison Darcy)道,“作為心理學家,我們需要遵循道德準則,不欺騙別人顯然應該是準則之一。”
確實掌握AI技術的谷歌,也在早前意識到了這個倫理難題。而他們的解決方案是:
讓AI假裝自己是人類
谷歌在5月初宣布,“谷歌助手”(Google Assistant)的新功能Google Duplex會在打電話時加入“嗯”、“呃”之類擬人的象聲詞。但這一改動迅速遭到強烈反對,用戶紛紛表示“這豈不騙得更厲害了”。
達西也對當時的設計很不滿,“萬一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”
于是,谷歌隨后又做了改動,讓Google Duplex在對話一開始就自報機器人身份,加強AI技術“透明度”。
-
機器人
+關注
關注
211文章
28389瀏覽量
206940 -
AI
+關注
關注
87文章
30758瀏覽量
268903 -
人工智能
+關注
關注
1791文章
47206瀏覽量
238278
發布評論請先 登錄
相關推薦
評論