根據系統在三個方面的屬性(即熟練性、可信賴性和靈活性)定義了一個自主系統:
●一個自主系統的設計應確保在作戰期間,在給定的環境、任務以及設想的隊友之中的熟練性。理想的熟練性屬性包括現場智能性、自適應認知、多智能體突現,以及從經驗中學習。
●一個自主系統的設計應確保在由其人類同行操作或與之合作時的信任。理想的信任原則包括認知一致性和透明度、態勢感知、有效的人與多系統集成,以及人-系統團隊合作和訓練。
●一個自主系統應在其行為、團隊合作和決策方面表現出靈活性。理想的靈活性原則所包括的靈活性體現在能夠執行不同任務、在不同的點對點關系下工作,并采取不同認知方法來解決問題等方面。
我們相信,如果我們要在空軍中有效地部署和使用自主系統,所有這些方面都需要在一定程度上得到滿足。另種說法是,如果不能在所有三個方面滿足設計的空間,就會導致部署自主系統的失敗:熟練性低將導致使用其他系統,可信賴性低將導致停止使用,而靈活性低將導致自主系統無法在變化的、在設計階段可能未設想到的環境中展示真正的自主性。
一個自然的問題是,這些方面是否對系統擁有多少(或哪個級別的)自主性有任何意義。答案是否定的。從目的來看,并沒有打算使用這三個方面來定義或指導自主級別的一些概念。這只是因為還不明確這是否是一個有用的構想,這一點在本文以及本文引用的早期研究中都已討論過。
我們現在討論一些自主系統的常見問題。
B.1一般概念
什么是智能?什么是人工智能?
智能是收集觀察結果、創造知識并適當地運用這些知識來完成任務的能力。人工智能是一種擁有智能的機器。
什么是自主系統的內部表示?
目前的自主系統被編程為使用不同的過程來完成任務。自主系統的內部表示是智能體構建其對世界的了解、其知識(自主系統用來進行觀察和產生含義的東西)的方式,以及智能體構建其合義和其理解的方式,例如,自主系統內部用于其知識庫的編程模型。隨著自主系統獲得更多的知識,或者隨著自主系統進一步操縱現有知識以創造新的知識,知識庫可能會發生變化。
什么是含義?機器會產生含義嗎?
含義是一個人或自主系統的內部表示中因一些刺激物而改變的東西。它是刺激物對那個人或系統的含義。當你(一個人)看著一面美國國旗時,它在你身上喚起的一系列思想和情緒就是那一時刻這種經歷對你的含義。當向一個自主系統顯示這幅圖像時,如果其像素密度在自主系統的軟件中引起了一些經過編程的變化,那么這就是那面國旗對該自主系統的含義。在這里我們看到,自主系統產生含義的方式與人類的方式是完全不同的。作為其編程方式的結果,自主系統內部表示中的變化就是對該自主系統的含義。一個刺激物的含義就是由該刺激物在該智能體(人或自主系統)中所引起的、特定于智能體的表示上的變化。由數據引起的表示上的更新就是該刺激物對該智能體的含義。含義不僅僅是將數據放到表示中;它是表示的所有產生的變化。例如,默會知識的喚起,或進行中的模擬(意識;見下文)的修改,甚至因刺激導致的智能體知識的更新,都被納入某個刺激物給某個智能體的含義中。含義不是靜態的,會隨著時間的推移而發生變化。對于某個給定的智能體,一個刺激物的含義是不同的,這取決于它何時被提供給該智能體。
什么是理解?機器能理解嗎?
理解就是估計某個自主系統的含義是否會導致它以可接受的方式完成一項任務。理解發生的前提條件是,充當執行者的自主系統增加了一個評估人(或充當評估者的自主系統)的信心,使其相信該執行者自主系統將以可接受的方式作出響應。含義是由一個查詢(表示一個刺激)導致的自主系統內部表示的更改。理解是含義的影響,導致對成功完成某一特定任務的期望。
什么是知識?
知識是用來為某個給定的智能體產生各種刺激的含義的東西。從歷史上看,知識產生于那些能通過遺傳學進化、個別動物的經驗,或者動物(通過文化)向同一物種的其他成員交流知識來捕捉并編碼信息的物種。隨著機器學習的進步,有一個合理的論點是,將來世界上產生的大部分知識都將由機器完成。
在思考什么?機器能思考嗎?
思考是用于操縱自主系統內部表示的過程;是一種含義的生成,其中,含義是由刺激引起的內部表示的變化。如果一個自主系統可以改變或操縱它的內部表示,那么它就可以思考。
什么是推理?機器能推理嗎?
推理是在一項任務的語境下的思考。推理是思考感知到的內容和完成任務要采取的行動的能力。如果系統更新了它的內部表示,它會生成含義,并且在這次思考與完成某項任務有關聯時進行推理。如果該系統的方法沒有生成所需的“含義”來以可接受的方式完成這項任務,那么它就沒有進行適當的推理。
什么是認知?是什么使一個系統能夠認知?
認知是通過思考、體驗和感覺創造知識和理解的過程。一個能夠通過思考、體驗和感覺創造知識和理解的系統就是能夠認知的系統。例如,一個認知電子戰(CEW)系統從其感覺中收集數據并創造知識。它利用相關知識完成其電子戰任務,這表明該系統對其任務有一定程度的了解。
什么是情境(situation)?
一個情境是在自主系統的內部表示中個別知識條目的鏈接,這些條目可以組合起來形成一個新的單一知識條目。這個新的單一知識條目就成為一個情境,這歸因于它與組成它的各個條目的鏈接。情境是認知的基本單位。情境是由它們與其他情境的關系和彼此之間的交互方式來定義的。情境是作為一個整體來理解的。
情境認知是一種理論,它斷定認識與行為是不可分割的,認為所有知識都處于社會、文化和物理背景密切相關的活動中。這就是所謂的“看/想/做”范式。
什么是學習?什么是深度學習?
學習是通過體驗、感知和思考來改變知識、理解和技能以便能夠適應變化的認知過程。根據智能體使用的認知方法(它選擇的某種表示,例如符號型、聯接型等),學習是智能體使用該表示對某個模型進行編碼的能力(符號型智能體中的規則,或者,對聯結型方法來說,人工神經元被聯接和調整權重的方式)。一旦對該模型進行了編碼,就可以將其用于推論。深度學習是包含許多神經元處理層的聯結式方法的一個子集,它的學習范式克服了過去與多層“信用分配”問題相關的限制(即,哪些權重應該進行調整以提高性能),利用了大數據和多個實例進行訓練,并在計算基礎設施方面取得了進展。深度學習近年來由于其處理圖像和語音數據的能力而備受關注;這在很大程度上是由于當前計算機的處理能力、可用數據的急劇增加,以及學習方法的適度修改。深度學習基本上是一種非常成功的大數據分析方法。
B.2示例
車庫開門器是自動化的(automated)還是自動的(automatic)?
車庫開門器在收到信號時會開門,并根據一些預設的條件(電機轉動的次數,或通過某一開關)停止。它在關閉的情況下,如果收到打開信號就會打開,并根據同樣類型的預設條件而停止。車庫開門器是一個自動系統,因為它基于一些觸發機制執行一個簡單的任務,并在完成其任務時也基于一些觸發機制而停止。
自動目標識別系統是自動化的還是自動的?
當前用于目標識別的方法是在一組假定的操作條件下、針對已知的目標來工作的,并且可以拒絕像目標似的對象,從而產生一定程度的魯棒性。因此,它們是自動化解決方案。
地面防撞系統(GCAS)是自主的嗎?
如果擔心飛行員會導致飛機與地面相撞,地面防撞系統將接管飛機的控制。在這里,系統將指揮和控制(C2)從飛行員那里拿走,以防止飛機與地面碰撞,然后飛行員可以重新獲得C2(由系統明確地放棄控制,或者由飛行員收回控制)。地面防撞系統證明了同伴靈活性,并因此解決了前面提到的自主系統的一個關鍵挑戰。但是請注意,在這個描述中,系統并未展示任務或認知靈活性。一些人認為,地面防撞系統僅僅是一個自動化系統因為它缺乏認知靈活性。
自動駕駛系統是自主的嗎?
自動駕駛系統的任務是在飛行員設定的特定高度(或高度剖面)以特定的速度飛行特定的軌跡。自動駕駛不會改變其任務或與飛行員的同伴關系,也不會改變其控制飛機的方式。因此,它不滿足自主性的三項靈活性原則中的任何一項。不過,它確實反射性地適應了各種不斷變化的、影響其航向、速度和高度的條件,以維持提供給它的參數。因此,它是一個自動化系統。
自適應巡航控制系統是自主的嗎?
巡航控制系統的存在是為了保持某個恒定的速度。一個自適應巡航控制系統也會保持其速度,但它會通過改變速度來適應在其前方感覺到的變化而無需獲得駕駛員的許可,以保持與前方汽車之間的安全距離。萬一有需要,它也可能會剎車。自適應巡航控制是自動化的,因為它從不改變其同伴關系,從不改變其任務(只是以預先編程的方式改變它完成任務的方式),而且在這樣做時沒有任何認知靈活性。
空對空導彈是自主的嗎?
一枚空對空導彈(甚至包括巡航導彈)與發射它的人有一種固定的同伴關系。這枚導彈是在完成一項預定義的任務,并且是以一種預編理的方式進行的。靈活性的三項原則都沒有得到證明,因此它不是自主的。這種系統是非凡的,并且能夠完成一項非常復雜的任務,但它也只是自動化的。
谷歌汽車和有自動駕駛功能的特斯拉汽車是自主的嗎?
谷歌汽車按照指示駛向某個地點,但它可以將任務從行駛改變為緊急停車,比如,為避免撞到某個行人。當特斯拉自動駕駛儀撇開駕駛員并且不允許其參與控制(因為駕駛員的手離開了方向盤)時,或者當大眾自主汽車接管控制并剎車,以防止迎頭相撞時,我們看到的是同伴靈活性的實例,正如前面所述的地面防撞系統一樣。但它并不是自主的。
Roomba(掃地機器人)是自主的嗎?
Roomba是一種受歡迎的家居用品,它作為房主的代理人來對地毯吸塵。它的能力相當強,新版本吸收了現代機器人學,以納入在繪制環境圖的同時確定其當前位置的能力。Roomba有一項唯一的任務——吸塵。它沒有改變其同伴關系的能力,也不改變其完成任務的模式。因此,Roomba不是自主的,但它是一個非常有能力和有用處的自動化系統。
IBM的沃森是智能的嗎?沃森是人工智能嗎?
Watson擁有的知識是由人類編程結合這些程序對大型數據存儲的應用來收集和/或生成的。它能夠有效地存儲和檢索可能相關的知識,這樣它就可能對查詢作出響應。有人可能會說,當沃森被允許使用其編程來搜索和適當地索引大型數據存儲庫時,它是在收集信息以便稿后適當地應用。在進行這種搜索時,它使用了一種整體(ensemble)學習方法,這意味著它改變了模型以便能夠提供更好的結果,這是具有認知靈活性的一個方面。因此,沃森正在解決自主系統的一個關鍵挑戰,但我們不會認為它是自主的。但不管怎樣,沃森是一個展示出智能的硬件和軟件組合體。因此,如前面所述,它是一個人工智能。
Siri是智能的嗎?Siri是人工智能嗎?
Si為響應查詢而收集的信息是通過其編程完成的。它確實收集數據來對查詢作出響應,并且經常適當地使用這些知識來為回答提供價值,它是一種很好的自動化。由于Siri是硬件和軟件的組合,并且按照前面的定義展示了智能,因此我們會將Sin標記為人工智能。
Siri懂得我正在問什么嗎?
當我們有理由期望它將給出一個能夠使用的答案時,你可以說Siri懂,當我們有理由期望這個答案將是不能接受的,那么你可以說Siri不懂。但對于所有的人工智能系統,用戶必須認識到系統產生的含義并不是“人類的含義”,因此必須謹慎使用。例如,某個人工智能能夠以高可信賴性將一輛校車稱為一只鴕鳥,但任何看到這幅圖像的人都將無法理解人工智能是怎么可能犯下這一錯誤的。其原因是,對這個人工智能來說,含義是向量空間中的一個位置,是通過處理像素密度和顏色到達的,而一只鴕鳥是一個對象類別,并不擁有我們人類在含義中聯系或產生的那種豐富的含義。
“阿爾法狗”懂圍棋游戲嗎?
“阿爾法狗”對圍棋游戲的理解只能從另一個智能體的角度來評估。作為一個非圍棋玩家,你可能愿意說阿爾法狗懂這種游戲,因為從一種純樸的角度來看,它對玩游戲的任務做出了可以接受的響應。這里,“阿爾法狗”對任何有利于作出一個預期可接受的響應的盤面形勢生成了“含義”.那么,在一個希望把“懂游戲”定義為“自主系統在內部給自己產生成了游戲是什么的含義”的人看來,他可能會得出“阿爾法狗”不懂圍棋游戲的結論。“阿爾法狗"是一個自動化系統,并且由于它利用知識來生成對那些有利于它作出響應的盤面形勢的含義,因此它是一個人工智能。
審核編輯:郭婷
-
人工智能
+關注
關注
1791文章
47350瀏覽量
238750 -
自動駕駛
+關注
關注
784文章
13838瀏覽量
166529
原文標題:什么是自主系統?
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論