如果有一天,你想打我,你以為一拳頭揮過來就完事了嗎?
現在可不那么簡單了。現在你如果想要打我,不僅要問問我爸媽同不同意,還得問問 AI 答不答應,可能你還沒動手,就已經被我的 AI 所攔截下來了。
沒錯," 暴力檢測 " 成為了當下的一個熱門。在人群中實時檢測 " 暴力行為 " 成為了現實,如果你想打架,最好先看看 AI 同不同意。
" 檢測暴力 " 的 AI
這種能夠檢測 " 暴力行為 " 的 AI 系統由英國劍橋大學、印度國家技術研究院和印度科學理工學院的研究人員研發,此類 AI 技術利用懸停式四軸飛行器上的攝像頭來檢測每個人的身體動作。然后,當系統識別出攻擊性的行為,如拳打、腳踢、刺殺、射擊、掐脖子等時,它就會發出警報,準確率達到 85%。
它不識別人臉——只是監測人們之間可能的暴力行為。
借由無人機實現 AI" 暴力檢測 "
這個系統可以擴展到自動識別非法越境的人,在公共場所發現綁架事件,并在發現暴力行為時發出警報。因此,在某種程度上,這種自主間諜無人機可以幫助警察壓制犯罪,或幫助士兵在無辜群眾中找出敵人。
AI 在檢測暴力動作時,主要分為五個類型:扼殺、拳打、踢踹、槍擊,以及刺傷。系統先用 FPN ( 特征金字塔網絡 ) 檢測在場的所有人類,并標記出頭、上肢、下肢三個部分的 14 個重要位點,畫出人體的骨架。然后,SHDL 網絡可以分析四肢朝向等數據,判斷那些人是不是在使用暴力。
可用于檢測公共區域或大型聚會中的暴力分子姿態估計 pipeline
當然,AI 暴力檢測的效果也與數據處理人數有著很大關系。一般來說,系統需要處理的人數更少時,準確率會更高。如只需處理一人時,系統準確率可以達到 94.1%,如果人數超過了十人,準確率下降到僅 79.8%。同樣,其在檢測扼殺、拳打、踢踹、槍擊,以及刺傷五種暴力行為時,也存在著準確率差異。行為的準確率
檢測不同人數時的準確率
另一方面,無人機的應用也存在著一定的使用條件限制問題。在真正應用場景中,無人機無法直接靠近斗毆人群,只能實行高空檢測,而這一定程度上降低了能見度和檢測準確度。
AI 檢測暴力,依然存在著眾多問題
AI 檢測在人工智能領域早已經不是新鮮事。不論是此前的 Dextro 公司利用機器學習來解讀視頻的聲音和圖象信息,還是谷歌解決雞尾酒會問題,并成功推出新一代 Google Assistance,AI 檢測一直是各領域應用的重要方式。
在云端執行推理有潛在的安全和隱私風險,因為要將人們的視頻傳輸到第三方計算系統中。當 AI 滲入日常生活的監測過程之中,智能相對論(aixdlun)分析師柯鳴認為,其依然就幾個問題 " 有待解決 "。
1. 泛濫的用戶信息泄露
2017 年,是數據泄露極為猖獗的一年。根據金雅拓(Gemalto)近期發布的一份報告 "2017 Poor International Security Practices Take a Toll" 顯示,2017 年僅上半年被盜的數據,就已超過 2016 年全年被盜數據的總量。
2017 年 1 月到 6 月,平均每天有 1050 萬條記錄被盜。盡管很多數據泄露來自于外部黑客攻擊所致,但所造成的記錄被盜或遺失,僅占 13%;相比之下,內部惡意泄露、員工疏忽無意泄露等造成的卻占 19 億被盜數據中的 86%。
早在此前的 Cambridge Analytica 丑聞造成了 8700 萬人的信息泄露,并且對 2016 年唐納德 · 特朗普參與美國總統競選的結果造成了影響。Facebook 數據泄露事件再次向人們展現了信息泄露的危害," 被行為 " 或是 " 誘導行為 " 成為許多數據公司利用用戶信息進行的不良操作。
可想而知,如果當 AI 監測暴力系統被惡意使用,其帶來的風險更是相當嚴重。諸如此類的面部識別技術,如亞馬遜的 Rekognition 服務,已經被美國警方采用。這些系統經常受到高誤報率的困擾,或者根本就不準確,所以像這樣的技術要和無人機結合還需要一段時間。
2." 大數據殺熟 "
從目前眾多 AI 應用的表現來看,隱私數據的泄露所導致的 " 大數據殺熟 " 是一個不容忽視的問題。
信息泄露不僅會威脅到一個普通用戶的網絡賬戶安全,更會直接影響到其現實生活中的方方面面。最近鬧得沸沸揚揚的 Facebook 用戶數據泄露更是讓全球用戶紛紛自危,不少知名人士更是宣布從 Facebook 退出,揚言保護自身隱私數據安全。
在前段時間,滴滴被曝光對用戶進行大數據殺熟,一時之間輿論紛紛,顯然被人區別對待的感受不是每個人都喜歡,尤其是在加價的情況下。雖然之后滴滴很快對其進行了澄清,但大數據殺熟這種方式卻已經被世人獲知。
那么什么是大數據殺熟,通常而言,這種行為指的是通過大數據來判斷用戶消費潛力,當判斷用戶為高消費者時,則會對用戶進行區別對待,提高其消費價格,比其他用戶花費更多資金才能享受到相同的商品及服務。
互聯網上的殺熟早就不是什么新鮮的事情,自互聯網誕生以來,這種行為便一直存在。而在 2000 年,也發生了一件令人矚目的殺熟事件。有亞馬遜用戶反映,在其刪除瀏覽器 cookies 之后,之前瀏覽過的 DVD 商品售價從 26.24 美元降至 22.74 美元。
此消息一出,備受輿論壓力的亞馬遜只能出來解釋,稱這項功能只是向不同顧客展示的差別定價實驗,絕對與客戶數據沒有關系。最后也只能努力公關,才度過了這個信任危機。如今的一些互聯網公司,顯然已經忘記了亞馬遜當年的遭遇,試圖重蹈覆轍。
3.AI 監測恐侵犯主體的 " 知情權 "
在 AI 監測的過程中," 知情 " 確實成為了一個倫理爭論的焦點。" 如何監測 "、" 是否知情 " 爭議不斷。誠然,隨著行為識別技術的不斷發展,許多識別技術都可以實現 " 非受控性 ":即主體無需配合,依然可以實現精準識別。
這無疑將 AI 倫理提到了一個新的高度。信息不再為我所有,確實讓人細思極恐。那么,在公安與刑偵領域,AI 監測尚可讓人信服,但在其他民用甚至是商用領域,如何平衡好 " 獲取信息 " 與保障和滿足受眾基本的知情權將會成為一個重點和難點。
顯然,許多大公司在此類 " 獲取信息 " 與 " 保障隱私 " 兩者中積極尋求平衡。Facebook 首席運營官雪莉 · 桑德伯格 ( Sheryl Sandberg ) 宣布為了響應歐盟即將于五月份生效的新隱私法規,Facebook 將讓其 20 億用戶更容易地管理自己的個人數據。
在歐盟,將于今年五月份實施的《通用數據保護條例》 ( General Data Protection Regulation,GDPR ) 是自互聯網誕生以來對個人隱私數據法規的最大一次修訂。該條例旨在給予歐盟成員國內居民更多管理自身信息的權限,并規定了公司使用用戶數據的方法。
總的來說,AI 監測暴力的出現,為安防與刑偵領域提供了一個便捷之道。但是,作為極為敏感的領域,精確性的問題依然是不可忽視的。畢竟,冤枉一個好人永遠都不是一件好事。