實施人工智能技術的IT領導人可能會感到一些恐懼,這有著充分的理由。
人工智能在擁有數十年發展和應用歷史的同時卻有著奇怪的定位,但對于許多人來說,人工智能仍然是一種未來主義的感覺。實際上人工智能并不是新事物,但它始終是一個永恒的“新”領域。沒有人可以確切地知道其發展到底會何去何從。
對于不了解的事物,一些人會感到害怕。而人工智能的未來發展也讓很多人徹夜難眠,這是有道理的,尤其是考慮到可能出現的不利后果時。人們可以合理地假設任何重大技術發展都是如此:它們將會產生變化,從而令人感到恐懼。但是,與人工智能相關的恐懼卻有不同的優先級。例如,大多數人不知道什么是微服務架構,即使他們每天使用的一些應用程序是以分離的方式構建的。但是像微服務這樣的技術進化并不會像人工智能那樣對潛在的社會和經濟影響產生這樣的情感反應。微服務也不會在流行文化中一直存在。
這主要說明了人們對人工智能發展前途并不明朗的擔憂,當人們的想象力失控時,就會很難評估它們的有效性。這對于如今試圖構建實用人工智能戰略的IT領導人和其他高管來說并不是特別有用。然而,很多人會對人工智能感到恐懼,并且有著充分的理由。對于人工智能的入門者來說,他們更容易失敗,因為他們通常基于當前的現實,而不是未來的推測。
加州大學歐文分校神經科學研究助理、ContinualAi公司聯合負責人Keiland Cooper表示,“人們對人工智能的恐懼類型取決于人們所談論的人工智能類型。與當今普遍使用的更現實的人工智能算法相比,理論性更強、更遙遠的‘通用人工智能’(一種能夠完成人類所能做的所有事情的計算機)將引發更多的恐懼。”
以下了解一下當今有關人工智能的五個問題,以及專家為解決這些問題而提供的建議,這樣就不會破壞企業實施人工智能的計劃。
1. 恐懼:人工智能會產生有偏見的結果
人們越來越關注人工智能系統中的偏見和其他問題及其導致的決策或結果的可能性。與好萊塢電影的一些更富想象力的人工智能故事不同,人們應該對于人工智能的偏見感到恐懼。
SkyMind公司聯合創始人兼首席執行官Chris Nicholson說,“人工智能的算法只和訓練數據一樣好。因此,如果一個數據集包含了組織的歷史偏見,那么它所做的預測將反映這一歷史行為,例如,如果一家公司通常會將擁有常春藤名校學位的白人男性提升到權威職位,那么經過培訓的人工智能算法可以識別出未來的領導才能,并將其重點放在同一類型的應聘者身上,并且忽略不屬于該類別的應聘者。”
解決方法:
人們應該接受這種恐懼并采取行動。無需擔心人工智能偏見會增加其不受控制地擴散的可能性。
人工智能算法不應免除個人和組織對結果的責任。人工監督和管理是絕對必要的,并且有很好的例子說明了另一種恐懼(不再需要人類)可能有點言過其實。
Nicholson說,“人們不能相信人工智能能夠知道一切或做出完美的決定。人工智能算法是由人類創造的,但人類也會犯錯。所以每個公司都要做的是建立一個系統來檢查人工智能,或者定期抽取人工智能的決策樣本并展示給專家,并詢問他們:這看起來正確嗎?而其結果至少不會比專家差,這是企業最初所希望的結果。”
這在醫療、保險、銀行、政府等行業可能尤為重要。但事實上,在任何地方這都是一個重要的問題。
Tara-Ai公司聯合創始人兼首席執行官Iba Masood表示,“人工智能從業者和機器學習工程師必須確保他們在一定程度上遵守算法責任制,IT主管應該有專門的數據團隊為他們現有的數據集構建消除偏見的程序。這將有助于在利用系統進行決策過程中,特別是在涉及最終消費者的情況下,需要實現一定程度的公平和公正。”
這是一個道德和公平的問題。Masood認為,人工智能倫理也可能成為一種競爭性的區分標準。
Masood說,“我相信,未來五年將會有更多的具有公平意識的消費者,他們希望與那些在人工智能輔助下的決策過程中部署公平機制的公司進行交易。通過努力減輕用于基于決策的系統的數據集的偏差,IT團隊可以在這種消費者行為轉變中產生重大影響。”
2.恐懼:人們不知道人工智能為什么會這么做
這是對未知事物的另一種自然恐懼:許多人工智能的結果很難解釋。
Nicholson說,“人工智能先進的形式能夠對數據做出最準確的預測,但也最難解釋為什么做出這種預測。”
這有時被稱為人工智能的“黑盒”,指的是缺乏對人工智能系統決策的可視性,這對許多組織來說可能是一個重要的問題。
Nicholson說,“在許多情況下,人們都需要知道為什么要做某事。在受到嚴格監管的行業組織中尤其如此。例如醫療保健行業不希望人工智能算法在不知道為什么做出決定的情況下就患者的診斷或治療做出決定。”
Cooper提供了另一個場景,指出黑盒模型在出現問題時變得特別重要。
Cooper說,“假設訓練一種算法來挑選優秀股票,并且做得很好,可能賺取9%的利潤。如果在金融投資中獲得了足夠或更好的回報(如果Cooper的假設合理的情況下),那么可能就不太在乎其原因。畢竟已經獲得。但是如果損失了9%的成本應該怎么辦?如果失去了一切那么該怎么辦?人們可能會更關心的是為什么。”
他說,“問題在于,在許多情況下,人們不知道為什么要選擇它所選擇的東西。這很可怕,因為它不僅使人們減少了與正在使用的人工智能系統的聯系,而且如果它做錯了什么,也不會帶來太多的洞察力。”
解決方法:
解決這種恐懼的方法之一是確保即使在人工智能技術得以改進的情況下,人類的智能和決策仍然是任何過程中至關重要的部分,在某些情況下還是最終的部分。換句話說,即使人工智能在這些流程和決策中的作用不斷擴展,也可以通過確保人們保留對流程和決策的適當控制來緩解這種恐懼。
Nicholson說:“在醫療保健案例中,最好采用人工智能作為人類專家的決策支持形式。也就是說,不能讓人工智能獨自運作并且不受監督。可以將人工智能集成到現有的決策過程中,在此過程中可以向人類專家提出建議,并且專家將是做出最終決策的人,他們將能夠解釋做出該決定的原因。”
3.恐懼:人工智能將會做出錯誤的決定
人工智能將會做出錯誤的決定,這是一個非常明確的問題。如何評估人工智能結果的準確性和有效性?如果它做出錯誤的選擇會怎么樣?(可以看到這些恐懼的某些組合是如何產生復合效應的:如果人工智能做出錯誤的決定而無法解釋原因,將會發生什么情況?)假設所有人工智能產生的結果都是“良好”的結果,那么即使是對于人工智能應用最樂觀的人士也會感到不舒服。
偏見會導致錯誤的決定。不過,這實際上是一種更為廣泛的恐懼,這種恐懼除了其他負面影響之外,還可能導致團隊不信任任何的人工智能得出的結果。當人工智能團隊之外的人(或者IT部門)分析結果時,這種可能性就更大。它還可能導致組織的業務發展停滯。
Very公司工程主管Jeff McGehee說,“許多人擔心人工智能會做出錯誤的決定。從技術角度來看,這種恐懼通常是非常廣泛的,但它總是歸結為人們認為“這個決定是不正確的。對于從業者來說,這一點很難確定,尤其是在無法給出‘良好’決策的量化定義的情況下。”
解決方法:
人為因素的重要性再次占據主導地位。如果人們無法量化什么是積極的結果,那么需要提出一個定性的框架,同時確保依靠正確的人員和信息組合來解決諸如偏見之類的實際問題。
McGehee說:“為了確定這樣一個定義,利益相關者必須認真考慮所有可能的關于好/壞決策的定義。正確性可能是理想的,但是某些類型的錯誤通常更容易接受,或者更像是人為的。此外,‘正確性’可能指的是人們是否滿足某些標準的預測列表,但如果此列表包含固有的人為因素偏見,這可能是一個不好的目標。當非技術利益相關者評估人工智能決策的質量時,所有這些因素都可以發揮作用。”
4.恐懼:人工智能將導致匿名性的喪失
McGehee指出了一個鮮為人知的問題,它可能成為人工智能安全中一個更引人注目的領域:當匿名性假定為給定時,將會喪失匿名性或隱私性。
McGehee說,“在以前,人工智能從業者普遍認為,一旦機器學習模型得到訓練,其權重(使其能夠進行預測的參數)就不包含任何可追蹤的訓練數據。”然而,最近出現了一些技術,這些技術將使惡意行為者能夠檢查經過訓練的機器學習模型,并對用于訓練的各個數據點進行有意義的推斷。這與個人數據點是否是希望保持匿名的人有關。”
解決方法:
同樣,通過認識到恐懼背后的合法問題,人們可以采取措施來解決它。在必要時保護數據的隱私或匿名性是一個組織可以采取主動措施作為其總體安全策略一部分的領域。這也是機器學習中正在進行的一個研究和開發領域。
McGehee說,“雖然這是一種有效的恐懼,但對模型權重進行適當的保護和加密可以減少它們落入壞人手中的可能性,而創造不易受這種威脅影響的新的機器學習技術將是一個活躍的研究領域。”
5.恐懼:人工智能會讓人們失業
人們可能面臨這個很大的恐懼,它彌合了當前現實和更多推測場景。大多數專家都認為,人工智能將會取代更多的工作崗位。在某些情況下,這將意味著失業。
在可預見的未來,越來越多的人工智能(以及更廣泛的自動化)的應用比電腦時代更為廣泛,當時電腦的興起也引發了人們類似的擔憂。研究發現,電腦在影響工作崗位的同時創造了更多的工作崗位。
解決方法:
Nicholson說,“從歷史上看,新技術不僅使工作實現自動化,而且可能帶來新的工作崗位。考慮一下采用電腦完成的所有工作。新技術通常需要人們對其進行掌握、支持和維護,而人工智能也不例外。”
積極應對這種恐懼將是人工智能在商業領域成功的關鍵,否則人們將無法參與其中。人們將會注意到,以上這些不僅要求人類參與其中,還要積極管理組織中的人工智能。
Nicholson說,“需要理解的關鍵是,未來的工作將是人類與機器之間的協作。但是機器仍然需要人類來操作和維護。人工智能就是如此。”
責任編輯:ct
評論
查看更多