出處:快科技 作者:雪花
近日,有程序員開發出一款名叫DeepNude的應用備受外界關注,這款應用之所以“走紅”是只要給DeepNude一張女性照片,借助神經網絡技術,App可以自動“脫掉”女性身上的衣服,顯示出裸體。
如此有爭議的做法,收到了AI人工智能行業工作者的強烈不滿,在大家看來,這與早前的DeepFakes換臉應用類似,DeepNude同樣打開了AI工具的陰暗面,因為開發者很難確保其他人會恪守道德準則。
迫于外界的輿論壓力,開發者已經關閉了DeepNude應用程序。其在Twitter消息中寫到:“我們其實并不希望以這樣的方式去賺錢”。
之前,反“色情復仇”組織Badass的創始人凱特琳·鮑登(Katelyn Bowden)感嘆說:“真是讓人震驚。現在每個人都有可能成為色情報復的受害者,即使沒有拍過一張裸體照片,也可能會成為受害者。這樣的技術根本不應該向公眾開放。”
而馬里蘭大學凱里法學院(University of Maryland Carey School of Law)教授丹尼爾·西龍(Danielle Citron)認為,DeepNude無疑是在侵犯用戶的性隱私。