幾十年來的發(fā)展普及,讓初創(chuàng)公司和創(chuàng)業(yè)者已經(jīng)養(yǎng)成了將人工智能和機器學(xué)習(xí)融入幾乎每一個項目的習(xí)慣。大家利用人工智能和機器學(xué)習(xí)目的是提高效率和速度,但你知道嗎,不可靠的人工智能系統(tǒng)也許弊大于利。
隨著人工智能普遍化,越來越多的機構(gòu)正在追求實現(xiàn)模型搭建和數(shù)據(jù)預(yù)測,但很少有人恰當?shù)剡\用人工智能。據(jù)Gartner預(yù)測,到2022年,85%的AI項目會因為數(shù)據(jù)、算法或項目管理團隊的偏見而產(chǎn)生錯誤的結(jié)果。就像產(chǎn)品需要設(shè)計系統(tǒng)、信息傳遞需要品牌圖書一樣,收集數(shù)據(jù)和搭建AI模型也需要組件和過程來確保一致性。
本文我們就將討論人工智能在組織和個人項目中的好處,人工智能不應(yīng)該出現(xiàn)在每個項目中的原因,以及如何搭建可靠的人工智能系統(tǒng)。
什么是人工智能系統(tǒng)?
人工智能系統(tǒng)是有效地使用和擴展人工智能的過程基礎(chǔ)架構(gòu)。就像設(shè)計系統(tǒng)一樣,AI系統(tǒng)包含從組織搭建到維護的完整過程。可靠的AI系統(tǒng)是準確無偏的,安全并能節(jié)省收集數(shù)據(jù)到部署算法的時間。
在搭建AI系統(tǒng)之前要處理的4件事
人工智能和機器學(xué)習(xí)可以完成這么多復(fù)雜的任務(wù),但組織和個人在產(chǎn)品和服務(wù)投入人工智能和機器學(xué)習(xí)前需要注意以下一些問題:
使用案例:任何系統(tǒng)——無論多么智能——都不是全能的,人工智能應(yīng)該致力于解決具體案例的問題而不是籠統(tǒng)問題。在每一種情況下,在試圖搭建人工智能系統(tǒng)之前,必須明確需解決的問題,然后努力解決這個特定的問題。試圖用人工智能來解決世界上所有的問題絕對是不切實際的。
隱私:任何時候都應(yīng)遵守數(shù)據(jù)隱私法。為搭建牢固的智能系統(tǒng),組織和個人可能需要來自客戶、顧客、員工和其他人的大量數(shù)據(jù),但并不是每個數(shù)據(jù)都可訪問以供使用。一些數(shù)據(jù)受到一系列名為數(shù)據(jù)隱私法的法律保護,若是違反則會產(chǎn)生嚴重的法律后果。
在嘗試從客戶或員工處收集或使用任何類型的數(shù)據(jù)之前,請確保你具有這樣做的權(quán)限。如果沒有收集和使用某些數(shù)據(jù)所需的權(quán)限,請要求客戶或員工簽署合同,明確授予你收集或使用他們的數(shù)據(jù)的權(quán)限。
安全:人工智能中的安全性涉及利用人工智能來識別和阻止網(wǎng)絡(luò)威脅,其中所需的人工干預(yù)比傳統(tǒng)安全方法通常預(yù)期或需要的要少,這種安全的重要性在于保護任何使用該系統(tǒng)的人的機密數(shù)據(jù)。任何一個寧愿犧牲用戶機密數(shù)據(jù)的安全智能系統(tǒng)都需要受到審查。
偏見和不平等:任何尋求開發(fā)由人工智能或機器學(xué)習(xí)驅(qū)動的產(chǎn)品或提供服務(wù)的組織或個人都有唯一的責(zé)任,確保他們正在開發(fā)的產(chǎn)品或服務(wù)向擁有訪問該系統(tǒng)的合法權(quán)利的各種人提供所需的服務(wù)。該系統(tǒng)在任何時候都不應(yīng)有性別、膚色、種族或族裔方面的偏見,所提供的服務(wù)應(yīng)以應(yīng)有的比例平等提供。
一個智能系統(tǒng)的質(zhì)量取決于用于訓(xùn)練它的數(shù)據(jù)質(zhì)量。為了確保智能系統(tǒng)中的偏見和不平等得到很好的處理,請確保使用各類所需的良好數(shù)據(jù)對其進行訓(xùn)練。
如何知道是否應(yīng)該使用AI
人工智能和機器學(xué)習(xí)已經(jīng)存在很長一段時間了,幾乎每個人都知道這些技術(shù)的能力和潛力,請看看下面這組數(shù)據(jù):
54%的高管表示,在企業(yè)中實施人工智能解決方案已經(jīng)提高了生產(chǎn)率。
61%的擁有創(chuàng)新戰(zhàn)略的企業(yè)高管表示,他們正在使用人工智能來識別數(shù)據(jù)中可能錯過的機會。
36%的高管表示,人工智能的主要目標是通過自動化任務(wù)來解放員工,使他們更具創(chuàng)造力。
人工智能的快速發(fā)展,令開發(fā)人員和雇主渴望在他們自己的項目中應(yīng)用人工智能系統(tǒng)。在某種意義上這樣做已經(jīng)取得了驚人的成就,他們現(xiàn)在可以消除人為錯誤,在某些任務(wù)上更精準,許多工作能夠自動化,預(yù)測未來的價值,并能探測到欺詐活動和潛在的問題。
然而,人們忘記了并非所有的問題都可以通過人工智能來解決,有些事情最好不要受到人工智能的干擾。
不要屈服于機器學(xué)習(xí)熱
正如阿比吉特·納斯卡爾所說:“人工智能不會摧毀這個星球,不負責(zé)任的人類智能則會這樣做。”
人工智能和機器學(xué)習(xí)非常有用,但不適用于每個項目。用機器學(xué)習(xí)來解決簡單的問題就像用鏈鋸來切面包一樣。一些問題只需簡單的編程邏輯來解決,而另一些問題則需要復(fù)雜得多的解決方案。
如果有簡單的替代方案可以解決你的問題,就選那個,可以用OOP輕易解決的問題就不要浪費時間和精力去搭建一個智能系統(tǒng)。
此外,在開始人工智能項目之前,確保你已經(jīng)仔細地了解了人工智能帶來的問題和潛在風(fēng)險。就這些問題和風(fēng)險確保你限定的路徑,并保持開放的心態(tài)。
如果你決定使用人工智能,請遵循以下規(guī)則
定義實現(xiàn)AI系統(tǒng)的路徑:任何試圖將在新的或現(xiàn)有的項目中搭建或?qū)嵤┤斯ぶ悄芟到y(tǒng)的組織或個人,首先應(yīng)該識別他們想要用人工智能解決的問題。人工智能是用來解決問題的,不是隨便用來增加項目審美性的玩物。
第二點要做的就是熟悉AI的特定分支的概念,你必須使用它來完成你的工作。當這一切都完成后,數(shù)據(jù)收集和保留計劃就必須到位。我們已經(jīng)確定,任何智能系統(tǒng)都只能與用于培訓(xùn)它的數(shù)據(jù)一樣智能,你的數(shù)據(jù)收集和保留策略應(yīng)該是一流而且非常強大的。
最后,無論你正在搭建或?qū)崿F(xiàn)什么系統(tǒng),都應(yīng)該謹慎細致對待。該系統(tǒng)應(yīng)該通過數(shù)據(jù)輸入很好地平衡學(xué)習(xí)和發(fā)展并且解決它要解決的問題。
處理人工智能的道德問題:由于人工智能的使用受到許多關(guān)注,最實際的方法將是采用一套通常稱為人工智能道德的原則。這些道德是一套標準化的原則,確保我們使用人工智能的目的是普遍可接受的,并遵守所有關(guān)于人工智能使用的隱私法律。遵守人工智能道德規(guī)范也會使你成為一個專業(yè)的開發(fā)人員或組織。
知道好的人工智能系統(tǒng)是什么樣的:由于人工智能的主要目的是使工作更簡便快速,好的人工智能系統(tǒng)應(yīng)該滿足使工作更容易和更快的標準,以令人印象深刻的準確性或精確性完成復(fù)雜的任務(wù),并最終提高任何給定組織的生產(chǎn)力。簡言之,一個好的AI系統(tǒng)可以毫不費力地完成它所分配的任務(wù),并主要解決它所要解決的問題。
盡管人工智能的能力驚人,但如果不當使用,有時會弊大于利,一個平庸的人工智能系統(tǒng)不會起到幫助作用。而如果它的力量得到適當?shù)睦茫S多人類無法有效完成的復(fù)雜任務(wù)可以通過人工智能系統(tǒng)輕松地完成。
請善用人工智能。
-
AI
+關(guān)注
關(guān)注
87文章
30745瀏覽量
268896 -
人工智能
+關(guān)注
關(guān)注
1791文章
47199瀏覽量
238268 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8408瀏覽量
132567
發(fā)布評論請先 登錄
相關(guān)推薦
評論