打印本文 关闭窗口 |
||
日本警方破获AI伪造艺人淫秽图像案 涉案金额巨大 |
||
| 作者:贯通日本 文章来源:本站原创 点击数 更新时间:2026/1/21 7:05:42 文章录入:贯通日本语 责任编辑:贯通日本语 | ||
|
|
||
因利用生成式AI制作女性艺人不雅图像并在网站上供人浏览而被捕的31岁嫌疑人供述称,“艺人的图片反响大,预期收益高”。据警视厅调查,嫌疑人涉嫌在约两年多时间内获利约1100万日元,目前正在深入调查。 无业人员千叶达郎(31岁,住札幌市西区)涉嫌于去年5月前的大约5个月内,滥用生成式AI,通过“深度伪造”技术,利用多位女性艺人的图像制作了14张不雅图片,并在网站上设置付费浏览,因涉嫌陈列淫秽电磁记录媒介被警视厅逮捕。 嫌疑人通过网站与用户签订定额包月浏览协议,据信自前年夏季起的两年多时间里,销售额约为1100万日元。 据警视厅透露,嫌疑人在接受调查时承认了指控,并供述称:“是为了赚钱才做的。觉得用艺人制作的生成图片反响更大,预期收益更高。关于生成式AI的知识没有专门学过,都是自己在网上学的。” 据悉,嫌疑人持续向生成式AI下达生成图像的指令,其家用电脑中存有约300名女性艺人的“深度伪造”不雅图像约52万张。警视厅正就此进行详细调查。 大量图像如何生成?作案手法揭秘 据警视厅称,嫌疑人此前一直作为创作者,在海外网站上擅自加工并发布女演员及偶像等人的图片。 他并不具备专业知识,但通过社交媒体得知可以自己使用免费的生成式AI软件制作不雅图片,由此产生了兴趣。 实际制作图片发布后,获得了反响并增加了粉丝,于是开始利用会员制网站向用户收取浏览费用。 据信,他首先让生成式AI学习女性艺人的图像,然后下达持续生成不雅图片的指令,从而生成了约52万张的大量图像。 嫌疑人在社交媒体的宣传账号上发布所制作图片的样本,并附上“所有图片中的女性均为AI生成的、不存在的成年女性”等评论,将希望浏览的用户引导至会员制网站。 这些网站采取用户支付浏览费后,部分费用返还给投稿者的机制。嫌疑人向两个网站投稿并提供浏览。 网站用户可在多个价格套餐中进行选择,最便宜的套餐约为每月2300日元,最贵的套餐为一年5万日元。据称,嫌疑人还会接受高价套餐订阅者等提出的、希望以其指定女性艺人为模特制作图片的要求。 嫌疑人供述称“最多的时候约有100名订阅者”。警视厅据此推测,其自前年夏季起的两年多时间内销售额约为1100万日元,正在详细调查。 “深度伪造”色情图像 儿童受害情况尤为严重 儿童的受害情况尤其严重,已发现多起利用毕业纪念册或学校活动照片通过生成式AI加工而成的“深度伪造”色情图像。 根据警察厅的汇总,截至去年9月,涉及未成年人学生或儿童的照片被滥用于“深度伪造”色情图像而向警方咨询或报案的数量已达79起。 调查发现,制作此类图像的加害者中,与受害学生或儿童是同班同学或就读同一学校的案例合计有42起,占总数的一半以上。 警察厅等部门提醒:“使用生成式AI加工图片并在社交媒体等平台传播,可能导致纠纷、犯罪或侵犯人权。” 此外,接连发生利用社交媒体“X”提供的生成式AI“Grok”,擅自将用户发布的真人图像加工成泳装等不雅图片并扩散的案例。日本政府已要求“X”运营公司迅速进行整改。 侦破此案的警视厅表示:“生成式AI虽便利,但用于犯罪绝不可恕,今后将继续严厉查处。这种行为也损害了被用于制作图像的艺人的名誉,希望人们不要轻易涉足此类生意。” 专家呼吁:“平台运营方应立即删除不雅图像” 本案是以涉嫌陈列淫秽电磁记录媒介的罪名进行查处的。但森律师指出,擅自将真人图像加工成“深度伪造”色情图像并在互联网等平台公开,可能构成诽谤名誉;若以未成年的真人为模特,还可能违反《儿童色情禁止法》。 他强调,为防止“深度伪造”色情图像造成的损害,社交媒体和网页等平台方的举措至关重要。 森律师表示:“曾有论坛管理员等因涉及不雅图像投稿而承担刑事责任的案例。当出现不雅图像等投稿时,网站运营或管理方应立即予以删除。希望平台能尽快探讨利用AI等技术检测图像投稿、封禁相关账号等应对措施。”
|
||
打印本文 关闭窗口 |