數據越多,AI 決策模型越脆弱

人工智能
2021
08/17
22:35
雷鋒網
分享
評論

來源:雷鋒網

編譯:戚路北

校對:維克多

數據是構建人工智能系統必需的關鍵基礎設施。數據在很大程度上決定了 AI 系統的性能、公平性、穩健性、安全性和可擴展性。

那么,用足夠多的數據訓練而來的 AI 系統,能夠做出正確的決策么?今年 5 月份,medium 上的 Marianne Bellotti 博主發表了一篇名為 "AI 正在解決錯誤問題的文章 "。在文章中,作者提出一個觀點:在更多數據(信息)加持下,人類都不一定做出 " 合適決策 ",為什么要假設 AI 會表現更好呢?

為了論證這個觀點,博主寫道:

" 在現實生活中,決策者往往為了節約成本而進行優化決策。但決策畢竟是根據結果來判斷好壞的,在正確分析的基礎上還需要一點運氣。在結果出來之前,即使是在絕佳數據支持下最仔細、最徹底構建的策略也無法保證決策的絕對正確。"

顯然,這一觀點的意思是:決策的過程與其說是對數據的客觀分析,不如說是對風險和優先級的權衡。

最后,基于上述觀察,作者論證了這么一個觀點:數據驅動的 AI 模型,在做決策時候,極易受到攻擊。

1

AI 的方向存在偏差

面對一個難題,分步驟、有條理的解決方案是值得肯定的。有哪些假設?假設如何構建?需要解決的問題?如果這些假設不同,會解決不同的問題嗎?想要解決的問題和結果之間有什么關系?以上這些子問題,對于決策過程異常重要。

假設訪問更多數據是決策者做出更好決策的關鍵,所以研究者希望喂給系統越多數據,AI 越好的做出決策,擁有更少的負面影響。

在這一假設下,我們理所當然的認為:完美信息應該自動改善決策過程。考慮到現實,這一假設是錯誤的。因為,決策的過程更多是由決策者背后的政治決定,退一步講,即使能夠獲得完美信息,它也會通過增加噪音水平而降低了決策質量。

例如,人工智能可以正確識別內容,但基于該內容做出的決策在很大程度上受到用戶和組織的規范和期望的影響。

例如,Facebook 的審核政策允許將某些敏感部位圖片 PS 到 " 明星 " 身上,但禁止明星真實敏感部位圖片露出。在 Facebook 這個例子上, 人類很容易理解利益相關者之間的關系如何使這種區分變得合理:一個是違反言論自由和公共評論的規范;另一個則沒有。

顯然,當團隊做出決策時,考慮到各個利益相關者及其激勵因素,改進決策的最佳途徑就不再是獲取更多數據,而是需要加強利益相關者之間的溝通。

這對于問題 " 從國家層面來看,為了提高 AI 的決策能力,是否需要花費數十億美元來清理數據和增強數據傳感器?" 有了更好的回答。

畢竟,美國國防部每年在員工身上花費 11-150 億美元,以求他們將數據處理成某種形式。經過數十年的投資、監管和標準制定,我們今天與 1970 年時候的 " 計算機化的大腦(computerized brain)" 提法相比,本質上并沒提高多少。然而,隨著計算機越來越先進,人們也越來越沉迷數據。

2

數據驅動的脆弱性

談論數據質量的方式具有誤導性。我們談到 " 干凈 " 數據,就好像存在一種數據既準確(且無偏差)又可重用的狀態。其實,干凈與準確不同,準確與可操作又不同。而無論哪種類型的數據出現問題,都有可能阻礙 AI 模型的開發,或者影響 AI 模型做決策。

數據出問題的方式有很多,例如:數據實際上不正確、已損壞或采用錯誤格式。還有些更微妙的錯誤:數據是在特定上下文中獲取的,但重用的時候不恰當;數據沒有標準化導致相同的事情,表達方式不一;對于模型來說數據處于錯誤的粒度級別 ......

對于上述問題,僅使用單一數據源是無法解決的。如果有攻擊者試圖往模型、系統中注入 " 錯誤 ",那么這些問題更不可能解決了。

AI 雖然創造了新機會,但我們也不能忽略它的脆弱性。換句話說,AI 帶來新解決方案的同時,也發明了新攻擊方法。例如 Deepfake、衛星數據的 " 位置欺騙 " 等。這些 " 有毒 " 技術正在和 " 良善 " 技術一起進步。

當前的 AI 系統完全依賴數據質量,雖然技術已經比較成熟,但這種設計方案極易受到攻擊。因此在這種情況下,AI 系統必須被設計成能夠靈活應對不良數據的模型。讓 AI" 反脆弱 " 是一種抵御攻擊風險的方式。

3

什么是反脆弱人工智能?

在系統思維中," 反脆弱 " 是一種設計,不僅可以從故障中恢復,而且在遇到故障時更加強大、更有效。基于實際改善決策的因素構建 AI 系統將為反脆弱人工智能創造機會。

認知科學的研究中提到,良好的決策是:主動闡明假設、構建假設檢驗驗證這些假設以及在利益相關者之間建立清晰的溝通渠道的產物。

許多引發人為錯誤的認知偏差都是上述三方面出現問題的結果。例如沒有清楚地闡明假設,就將解決方案應用于不合適的環境條件;不測試假設,就無法根據不斷變化的條件來調整正確的決策。

AI 很容易受到不良數據的影響,因為我們過分強調了它在分類和識別方面的應用,而低估了它在建議和情境化方面的應用。然而,決策型 AI 又非常容易被破壞。

設計反脆弱 AI 非常困難,因為將算法分析的結果作為結論和作為建議,這兩者之間有很大的差別。而決策者,為了節省精力非常有可能一股腦的將 AI 輸出作為結論。這種想法,已經在刑事司法和警務領域造成了災難性的錯誤。

那么在醫學中,為什么 AI 能夠提高決策質量?因為,許多診斷并沒有單一的正確答案,某種癥狀背后可能對應多種疾病,到底患有哪種疾病,可能只是概率問題。臨床醫生會在頭腦中建立一個決策樹,其中包含他能想到的所有可能病因,并讓病人做排除某些可能病因的測試。因此,醫學診斷是一個 " 定義假設、檢驗測試、進一步縮小可能病因集 " 的循環過程,直到決策收斂。

這時候,AI 決策模型的作用是提示醫生將可能的疾病類型納入他的決策樹,所以盡管可能數據不佳,但患者的治療效果卻有所改善。目前,這種 AI 已經在用于改善醫療專業人員之間的溝通和知識共享,或在關鍵時刻從患者那里獲得新的相關信息。

4

使用 AI 進行決策的正確姿勢

在決定如何最好地利用人工智能時,技術領導者需要首先考慮他們如何定義需要解決的問題。如果 AI 是改善決策,那么 AI 應該引導決策者進行假設檢驗,而不是試圖超越專家。

當 AI 試圖勝過專家,它完全取決于接收到的數據的質量,從而產生了一系列漏洞,攻擊者可以輕松地利用這些漏洞。

當人工智能的目標不是成為最好的頂級專家,而是加強和支持決策實踐時,其對不良數據具有彈性并能夠具有反脆弱的功能。

但這樣的人工智不能做決定。相反,它幫助人們闡明決策背后的假設,將這些假設傳達給其他利益相關者,并在與這些假設相關的條件發生重大變化時提醒決策者。

綜上,人工智能可以幫助決策者弄清楚什么狀態是可能的,或者在什么條件下它們是可能的。這樣的解決方案可以通過解決現有弱點來增強決策團隊的整體能力,而不是因不良數據產生一些新的弱點。

THE END
廣告、內容合作請點擊這里 尋求合作
AI
免責聲明:本文系轉載,版權歸原作者所有;旨在傳遞信息,不代表砍柴網的觀點和立場。

相關熱點

1月12日消息,據國外媒體報道,三星公司正在研發一種機器人,它可以取洗好的衣服、放洗碗機、擺桌子、倒酒,甚至還可以給你拿飲料。這個機器人叫做Bot Handy,三星表示它能夠通過攝像頭和人工智能識別物體...
業界
12月10日,當地時間周三,谷歌首席執行官桑德爾·皮查伊(Sundar Pichai)就公司人工智能研究員蒂姆尼特·格布魯(Timnit Gebru)的離職風波一事公開向員工道歉,并對公司如何處理格布魯的離職展開全面調查...
業界
人工智能機器學習領域里的科學家們表示將拒絕幫谷歌審核論文,直到谷歌改變對前AI倫理團隊聯合負責人Timnit Gebru的立場。
業界
9月25日,華為在全聯接大會上發布了一站式AI開發平臺ModelArts3.0和多樣性計算系列開發套件,云與計算開發者已達180萬。
業界
8月11日消息,在中國內地,智能電話營銷機器人(或稱人工智能電話助理)正給電話營銷領域注入新的活力。
業界

相關推薦

1
3
主站蜘蛛池模板: 性一交一乱一伧老太| 丰满人妻一区二区三区视频53| 男女免费观看在线爽爽爽视频| 国产啪精品视频网站免费尤物| 91成人午夜性a一级毛片| 尹人久久久香蕉精品| 久久久久亚洲精品无码蜜桃| 橘子没熟svk| 亚洲欧洲精品成人久久曰| 男女下面一进一出视频在线观看| 四虎成人免费网址在线| 麻豆文化传媒精品免费网站| 国产精品成熟老女人视频| 99精品久久久中文字幕| 性高湖久久久久久久久| 久久久噜噜噜久久网| 最好看的免费观看视频| 亚洲国产一区二区三区在线观看| 特级毛片爽www免费版| 北条麻妃在线一区二区| 色多多在线视频| 国产国产人免费人成免费视频 | a级毛片免费观看视频| 日本在线xxxx| 天堂网在线最新版www| 丝袜高跟美脚国产1区| 日本三级韩国三级美三级91 | 亚洲精品无码久久毛片| 精品不卡一区二区| 啊灬啊别停灬用力啊呻吟| 赵云腹肌下的紫黑巨龙h| 国产成人亚洲欧美激情| 青青青手机视频在线观看| 国产精品蜜芽tv在线观看| 99re在线精品视频免费| 奇米影视7777久久精品| 一二三四在线观看免费中文动漫版 | 欧美亚洲一区二区三区| 亚洲欧洲精品成人久久曰影片| 清纯女神被老头耸动| 免费在线观看污网站|