還記得去年報道的“人工智能一鍵脫衣服”軟件——DeepNude嗎?。
2019年6月,一個程序員開發的名為DeepNude的應用在國內外大行其道。
然而,在其發布的幾個小時內,這個深加工軟件迅速關閉,由于過多的訪問請求。原因是它可以一鍵脫掉女人的衣服,制造出大量的色情圖片。。
最近,根據調查,這個色情軟件重新出現在即時通訊應用-電報。。
到目前為止,該軟件已經在TeleGram平臺上公開發布了約104852張色情圖片,而這一數據還不包括私下分享和傳播的圖片。
更重要的是,這些圖片中有70%來自社交網絡中的真實女性,甚至包括未成年人。也就是說,在Facebook、微博等社交媒體上分享的自拍照,很有可能被人們用來生成“水果照”。
DeepNude的目標是“你可能認識的人”。
這項調查來自阿姆斯特丹的網絡安全公司Sensity,該公司專注于所謂的“視覺威脅情報”,尤其是深度假視頻的傳播。。
他們的調查發現,截至今年7月底,Telegram平臺的7個主要頻道使用的是DeepNude軟件。
軟件在全球范圍內已經吸引了103,585個用戶,該頻道的用戶數最多的是45,615個。這些用戶大部分集中在俄羅斯和東歐周邊地區。
這個軟件爆紅的原因有三個。一是操作非常簡單,只需要一張照片,上傳到軟件后,幾秒鐘就可以自動生成一張裸照,不需要任何技術知識或特殊的硬件支持。第二,對所有人都是免費的。
不過,它也有盈利模式。未付費用戶獲得的裸照將被加水印或僅部分曝光。用戶可以支付1.28美元獲得未加水印的圖片,但使用權限限制為7天內100張照片。。
第三是得到熟悉的人的裸照。deep fake假色情視頻已經變得司空見慣,主要針對名人。但根據一項民意調查顯示,大多數用戶對“現實生活中認識的女性”更感興趣,占63%。
而DeepNude恰恰提供了這樣的支持,任何用戶都可以使用任何照片生成裸照。從TeleGram平臺的公開數據來看,照片中的女性很多都是普通的上班族和大學生,而這些照片都是來自TikTok、Instagram、Facebook等平臺的自拍。
需要注意的是,這個deepfake軟件只針對女性。如果你上傳的是男性或其他無生命的照片,系統會自動替換為女孩的身體,并識別為相應的器官。
Sensity的首席科學家Giorgio Patrini(喬治·帕特里尼)說,超過680,000名女性在自己不知情的情況下被偽裝成色情圖片,并上傳到公共媒體平臺上。
目前,Sensity的相關調查數據已對外披露,相關執法部門也已對其展開調查。。到目前為止,Telegram還沒有給出一個公開的答案,為什么會允許這款色情軟件出現在社交平臺。
此外,根據Sensity的調查,除了Telegram,另一家俄羅斯社交媒體平臺VK也發現了DeepNude,并且它已經開始公開宣傳這款軟件。
不過,事件一爆發,相關負責人立即做出回應,否認了這一說法。。同時,他強調,VK不會容忍平臺上出現這樣的內容或鏈接,也會屏蔽發布這些內容的社區。。
此外,此類社區或鏈接不使用VK廣告工具進行推廣,我們還進行額外的檢查,防止出現不適當的內容。
作者:我不是偷窺者,只是出于好奇。
然而就是這樣一款色情詐騙軟件,其初衷是出于對技術的好奇和熱情。2019年6月27日,DeepNude軟件首次公開發布,此后不久,系統因用戶訪問過多而宕機。。
但就在這幾個小時里,這種針對女性的“一鍵脫下人工智能”在國內外引起了軒然大波。。關于“侵犯隱私、性別歧視”以及推特、紅迪網、微博等各大社交媒體平臺的批評層出不窮。深度學習先驅吳恩達(Andrew Ng)也在推特上表示,DeepNude是“人工智能最惡心的應用之一”。
因此,要關閉Deepfake的潘多拉魔盒,需要制度的約束和人心的引導。
2019年6月,一個程序員開發的名為DeepNude的應用在國內外大行其道。
然而,在其發布的幾個小時內,這個深加工軟件迅速關閉,由于過多的訪問請求。原因是它可以一鍵脫掉女人的衣服,制造出大量的色情圖片。。
最近,根據調查,這個色情軟件重新出現在即時通訊應用-電報。。
到目前為止,該軟件已經在TeleGram平臺上公開發布了約104852張色情圖片,而這一數據還不包括私下分享和傳播的圖片。
更重要的是,這些圖片中有70%來自社交網絡中的真實女性,甚至包括未成年人。也就是說,在Facebook、微博等社交媒體上分享的自拍照,很有可能被人們用來生成“水果照”。
DeepNude的目標是“你可能認識的人”。
這項調查來自阿姆斯特丹的網絡安全公司Sensity,該公司專注于所謂的“視覺威脅情報”,尤其是深度假視頻的傳播。。
他們的調查發現,截至今年7月底,Telegram平臺的7個主要頻道使用的是DeepNude軟件。
軟件在全球范圍內已經吸引了103,585個用戶,該頻道的用戶數最多的是45,615個。這些用戶大部分集中在俄羅斯和東歐周邊地區。
不過,它也有盈利模式。未付費用戶獲得的裸照將被加水印或僅部分曝光。用戶可以支付1.28美元獲得未加水印的圖片,但使用權限限制為7天內100張照片。。
第三是得到熟悉的人的裸照。deep fake假色情視頻已經變得司空見慣,主要針對名人。但根據一項民意調查顯示,大多數用戶對“現實生活中認識的女性”更感興趣,占63%。
而DeepNude恰恰提供了這樣的支持,任何用戶都可以使用任何照片生成裸照。從TeleGram平臺的公開數據來看,照片中的女性很多都是普通的上班族和大學生,而這些照片都是來自TikTok、Instagram、Facebook等平臺的自拍。
需要注意的是,這個deepfake軟件只針對女性。如果你上傳的是男性或其他無生命的照片,系統會自動替換為女孩的身體,并識別為相應的器官。
Sensity的首席科學家Giorgio Patrini(喬治·帕特里尼)說,超過680,000名女性在自己不知情的情況下被偽裝成色情圖片,并上傳到公共媒體平臺上。
目前,Sensity的相關調查數據已對外披露,相關執法部門也已對其展開調查。。到目前為止,Telegram還沒有給出一個公開的答案,為什么會允許這款色情軟件出現在社交平臺。
此外,根據Sensity的調查,除了Telegram,另一家俄羅斯社交媒體平臺VK也發現了DeepNude,并且它已經開始公開宣傳這款軟件。
不過,事件一爆發,相關負責人立即做出回應,否認了這一說法。。同時,他強調,VK不會容忍平臺上出現這樣的內容或鏈接,也會屏蔽發布這些內容的社區。。
此外,此類社區或鏈接不使用VK廣告工具進行推廣,我們還進行額外的檢查,防止出現不適當的內容。
作者:我不是偷窺者,只是出于好奇。
然而就是這樣一款色情詐騙軟件,其初衷是出于對技術的好奇和熱情。2019年6月27日,DeepNude軟件首次公開發布,此后不久,系統因用戶訪問過多而宕機。。
但就在這幾個小時里,這種針對女性的“一鍵脫下人工智能”在國內外引起了軒然大波。。關于“侵犯隱私、性別歧視”以及推特、紅迪網、微博等各大社交媒體平臺的批評層出不窮。深度學習先驅吳恩達(Andrew Ng)也在推特上表示,DeepNude是“人工智能最惡心的應用之一”。
因此,要關閉Deepfake的潘多拉魔盒,需要制度的約束和人心的引導。