人工智能將徹底改變網絡安全領域。在過去的五年中,這句話您聽過多少次?答案可能是數十次,甚至數百次。
爭論通常是這樣的:人工智能和機器學習技術使網絡安全從業人員,可以處理大量的網絡監視數據,并可以以更高的準確率發現惡意或可疑活動。
盡管AI和ML工具在網絡安全方面是有效的,尤其是在安全性和軟件測試方面,但距離提供更可靠、更安全、更智能的網絡安全技術,真正人工智能的出現還需要很多年。
正如BMT的高級數據科學家Evan Elliott最近對DevOps Online所說的,這在很大程度上是由于AI和ML工具能夠處理大量數據并從中進行預測的速度所致。通過這種方式,AI可以對惡意的網絡活動進行預警。
一些支持AI和ML驅動的安全性方法的支持者聲稱,這意味著AI可以搜索安全漏洞。坦率地說,這是一個不太可靠的做法。盡管AI已證明在基于歷史數據進行預測方面非常有效,但使用它們主動識別網絡中潛在漏洞的想法卻遠非如此。
人工智能對網絡安全的偏見
可以簡單地解釋為什么AI產生的網絡可靠性預測值得懷疑。無論多么復雜,AI和ML工具仍然可以在關聯的基礎上工作。他們遍歷大量歷史數據,并可以據此做出準確的預測。問題在于,在進行這些預測時,它們也傾向于產生偏見。
過去幾年中到處都有這種AI偏見的例子。分析人士指出,現在用于在醫療保健、司法甚至加密貨幣交易中,為決策提供信息的AI算法,可能會加劇偏見的模式并導致問題嚴重的社會結果。
人工智能偏見對網絡安全的影響尚未得到很好的研究,但是不難理解人工智能偏見研究,在其他領域中產生的見解,并將其應用于計算機系統的安全性。
當然,所有這些AI系統(無論是在量刑方面還是在網絡安全方面提供建議)都是能夠比人類更快地產生信息的能力。本質上給人留下深刻的印象。問題在于,可能很難評估這些預測和建議的可靠性。
正如《麻省理工學院技術評論》最近指出的那樣,偏差可能會以兩種主要方式蔓延到AI系統中:要么向AI算法提供了非代表性的數據,要么當問題的代表性數據復制了現有的偏見時。
在AI評估我們的網絡安全性的情況下,我們同時面臨著兩個問題:關于通用計算機系統中的威脅,我們沒有足夠的可標準化數據。甚至我們擁有的數據也無可避免地偏向了對人類分析家的安全威脅。
任何試圖使用現有AI工具來識別網絡漏洞的網絡管理員,都將熟悉這些雙重偏見的結果:大量潛在的安全漏洞可疑地看起來類似于由復雜得多,具有靜態規則的系統所產生的漏洞。
換句話說,AI可能最終只是手工復制漏洞掃描過程。他們也許能夠比一般人更快地執行這種分析,但是如果需要由操作員檢查每個漏洞的可靠性,那么實際花費在修復網絡漏洞上的總時間將保持不變。
更糟糕的是,由于AI工具將接受由人為主導的安全掃描生成的數據的培訓,因此可能是我們向AI工具提供了我們多年來積累的偏見。
過去十年中,最好的安全分析師花了很多時間來重新學習,了解安全漏洞,即使對AI進行培訓,他們在發現新的威脅方面也不會做得更好。
最終,一些分析家認為,我們將需要開發一種更加協作的方法來在網絡安全中使用AI。人工智能將用于彌補安全漏洞,但不應依賴它們來發現系統的問題。
實際上,這種方法就是許多現實世界中的AI應用已經完成的工作。其中最成功的假設是,人類在某些事情上是出色的,例如創造性地思考和對新穎的威脅做出反應,而人工智能目前在一套完全不同的技能上也很出色,即遍歷大量數據并發現模式。
由于技能上的差異,在未來一段時間內,對AI網絡安全性的預測會產生一定程度的懷疑,這仍然很重要。
在其他許多領域,例如,刑事司法和股票交易中,對AI預測的可靠性水平仍然存在重大擔憂,并且網絡安全不應從此列表中排除。
編輯:lyn
-
網絡安全
+關注
關注
10文章
3155瀏覽量
59701 -
人工智能
+關注
關注
1791文章
47183瀏覽量
238263 -
機器學習
+關注
關注
66文章
8406瀏覽量
132566
發布評論請先 登錄
相關推薦
評論