一鍵「脫衣」…網路出現製作假裸照AI程式 逾10萬人受害

香港01 房伊媚/報導
女子示意圖。圖片來源/ingimage

英國廣播公司(BBC)10月21日報道,荷蘭情報企業Sensity公開一份新報告,指出有人工智慧(AI)程式讓網民製作他人的假裸照,再在網上分享,估計在2019年7月至2020年7月期間,大約有10.5萬名女性受害。報告提到該技術是利用「深偽技術機械人」(deepfake bot)。

圖為荷蘭情報企業Sensity繪製的圖片,模擬Telegram上的人工智慧程式製...

網民只需要將一名女性的照片,可以通過社交程式Telegram把照片傳送予人工智慧程式,然後就可得到一張假的裸照。程式會繪製照片主角沒穿衣服的形象,助用戶為她們一鍵「脫衣」。他們可下載並分享照片。惟程式的功能只對女性的照片有效。

用家可以選擇付款來移除假裸照上的水印,還可比不付費的用家更快取得照片。

部分受害人未成年

Sensity的調查發現,部分假裸照中的主角看似未成年。以往曾有名人及政客成為假裸照的受害者。惟調查指,63%涉事Telegram人工智慧程式的用家稱,他們主要地有意為在現實生活中認識的女性「脫衣」。

調查員找到的大部分假裸照,其原圖似乎是從社交網或私人通訊的途徑取得,受害者可能不知道此事。Sensity總裁帕特里尼(Giorgio Patrini )表示:「任何人只要擁有社交媒體帳號及有公開的照片,就足以成為目標。」

程式管理人員稱只是娛樂功能

BBC報道,化名為「P」的程式管理人員稱,程式提供的功能只作娛樂用途,不涉及暴力。他指沒有人會用程式製作的假裸照來勒索他人,因為裸照的像真度不高。而管理人員亦會檢查用家分享的照片,會在看到未成年人的照片時封鎖用戶。

延伸閱讀:

沙田42歲女遭拍裸照勒索6萬元 51歲前男友被捕

【港姐2020】參選佳麗疑有裸照曝光 麥淑螢承認曾就事件報警

文章授權轉載自《香港01》

裸照 Instagram AI

延伸閱讀

留言

>