這篇文章來源于DevicePlus.com英語網站的翻譯稿。
機器人技術和人工智能(AI)的最新進展可以通過龐大數據集的快速分析和尋常任務的自動化、欺詐檢測以及物流的改善來優化工作場所。
機器人技術和AI技術還可以通過外包危險工作使工作場所更加安全。隨著這些技術的發展,人類的生活有望變得更有效也更有意義,因為我們將有時間專注于更重要的任務。
工廠裝配線上新制造的發動機
由于這個領域的發展日新月異,技術領導者和學者們開始著重強調進行徹底的道德和風險評估。雖然每種新技術都伴隨著風險因素,但是人類社會中的智能算法和機器人技術帶來的關注遠不止數據收集和隱私。實際上,它們帶來的是在為時已晚之前,我們的社會需要解決的道德問題。
如果失業了,那么可能帶來的不平等將走向何方?
隨著更多工作實現自動化,人們將會承擔更為復雜的角色。這在我們從密集型體力勞動工作轉向更多認知角色時已有諸多比較。
但是,這并非如此簡單!
例如,特斯拉首席執行官埃隆?馬斯克(Elon Musk)承諾在不久的將來將提供自動駕駛卡車。如果自動駕駛卡車在全國范圍內被廣泛采用,那么社會體系就需要適當地讓卡車司機無縫過渡到更有意義的角色。
目前,多數家庭通過交換時間來維持自己的可持續收入,因此這種轉變可能會創造一種后工作社會。雖然可以希望這些個人能夠找到更有意義的工作,但是這尚無明顯跡象可循。
確實,技術可以讓我們騰出時間從事更有意義的工作、與家人共度時光、照顧親人,但是我們仍然無法確定被這項技術取代的工人是否具備必要的技能,來找到替代的收入來源。
我們目前的經濟是基于對貢獻模式的補償(許多工人按小時支付)。因此,如果我們不開始重新構想和重組我們的經濟以在不久的將來維持后工作社會,那么AI技術和機器人技術將有可能迅速加劇不平等的產生。
忽視這些影響會產生極其嚴重的后果。當人們試圖在這個新世界中生存時,不平等可能迅速滋生犯罪、暴力和一般混亂。
AI偏見和錯誤的后果是什么?
當AI積極地從算法中學習時,就有可能會產生真實的危險后果。例如,在歷史事件中,由Hanson Robotics開發的人形機器人Sophia被授予沙特阿拉伯公民身份。
然而,也是這個機器人在去年的西南偏南(SXSW)技術展期間在演示時遇到了技術故障。當人們開玩笑地問她是否會摧毀人類時,她竟回答:“好的,我將摧毀人類”,這令人驚愕不已。
此外,根據一項分析2001年到2010年編輯維基百科文章的機器人之間的交互的研究,雖然機器人旨在支持百科全書,但是機器人經常會撤銷彼此的編輯且在數年內爭論不休。
與平臺上的人工交互相比,機器人的交互時間會更長久且會翻來覆去。與人類一樣,機器人在不同文化環境中的表現也不盡相同,甚至最基本的機器人也能夠進行復雜的交互。
研究影響機器人間交互的因素以及為新的創新開發適當的網絡安全至關重要。
除了潛在的故障和攻擊之外,系統還可能犯其它錯誤。不管AI根據其輸入如何學習和檢測正確的模式,訓練階段絕對無法涵蓋系統在現實世界中可能必須處理的每個可能的案例。
無論多么聰明,這些系統仍然可能以人類不會經受的方式被愚弄。因此,如果在勞動力隊伍中應用人工智能系統,那么也應當建立適當的機制來確保不會產生偏見,也不會讓人類為了自己的目的而壓制和利用它。
如果機器人和AI系統遭到破壞怎么辦?
當勒索軟件攻擊成為常態時,預計很有可能發生對機器人和AI系統的攻擊。如果我們繼續用機器人和自主武器取代士兵,那么這些機器人和自主武器就有可能被犯罪分子和***控制。這使得網絡安全對于機器人和AI系統而言都至關重要。即使這項技術不是為戰爭而開發的,工廠機器人和自動駕駛汽車也有可能被破壞并被用作對付我們的武器。
因此,在社會迅速應用并融入這項技術之前,我們必須首先找到構建不會被破壞的系統的方法。但是我們將處理就數量級而言比我們更強大、更快的系統。實現堅不可摧的網絡安全近乎是不可能的。
機器人技術和AI技術的發展已經有目共睹。政府、企業、學術界和公眾將通過積極尋找有道德的、穩步前行的方法來得到最佳服務。這意味著要為潛在的后工作社會開發新的收入模型、開發替代技能的資源、對機器人交互的深入理解、制定有效應對系統內故障的協議、以及制定安全性更優異的穩健計劃。
審核編輯:湯梓紅
-
機器人
+關注
關注
211文章
28384瀏覽量
206919 -
AI
+關注
關注
87文章
30746瀏覽量
268896 -
人工智能
+關注
關注
1791文章
47200瀏覽量
238268
發布評論請先 登錄
相關推薦
評論