Gartner發布了一系列《Predicts 2021》研究報告,其中一份報告概述了人工智能(AI)將在未來幾年引發的重大影響,包括廣泛的道德和社會問題。
Gartner的五位分析師在《2021年預測:人工智能對人類和社會的影響》的報告中預測了2025年將會產生的變化,該報告特別關注了所謂的人工智能的二級后果,這種后果是非預期的新技術的成果。
例如,生成式AI現在可以創建出實際上并不存在的人物和物體的非常逼真的照片。
Gartner:Deepfake和生成式AI讓我們進入零信任世界
Gartner預測,到2023年,將有20%的賬戶被這種由AI產生的Deepfake接管。報告指出:“可以創建和生成超逼真的內容的AI能力,將對人們相信自己的眼睛所看到的產生變革性的影響。”
該報告從AI市場的5個角度進行了預測,并就企業如何應對和適應這些未來的挑戰提出了建議:
到2025年,預先訓練的AI模型將主要集中在1%的供應商中,這將使AI的負責任地使用成為社會關注的問題
在2023年,成功的賬戶接管攻擊將有20%使用Deepfake,它將會成為社會工程學攻擊的一部分
到2024年,將有60%的AI提供商會將緩解危害/濫用行為作為其軟件的一部分
到2025年,將有10%的政府通過使用合成AI來避免隱私和安全問題
到2025年,工作場所75%的對話將被記錄和分析,以用于增加組織價值和評估風險
這些分析中的每一個都足以使AI觀察者引起足夠的關注,如果將這些預測結合起來時,就可以勾勒出未來的嚴峻形勢,其中涉及道德問題,潛在的AI濫用以及工作場所隱私的喪失。
如何應對
如果Gartner的分析師的預測準確無誤,那么關于AI帶來的隱私和真相的影響的擔憂必將成為未來幾年的主要話題,成功的企業將需要準備迅速適應這些擔憂。
該報告中的一個重要的主題是,在依賴AI的公司(無論是服務還是產品)中建立道德委員會。Gartner說,對于計劃記錄和分析工作場所對話的企業,尤其要注意這一點,應建立具有員工代表的董事會,以確保公平使用對話數據。
Gartner還建議企業建立負責任的AI使用標準,并優先考慮“可以證明AI能夠清晰發展和解決相關社會問題”的供應商。
至于圍繞Deepfake和生成式AI的安全問題,Gartner建議組織安排有關Deepfake的培訓。報告說:“我們現在正在進入零信任的世界。除非使用加密的數字簽名證明它是經過認證的,否則任何事物都不能被信任。”
該報告有很多內容值得關注,有數據說,最好的Deepfake檢測軟件從長期來看將以50%的識別率達到頂峰。還預測到2023年,一家大型美國公司將采用對話分析來確定員工薪酬。這些分析中有很多需要擔心的地方,也包括潛在的解決方案。