【澳纽网5月5日悉尼讯】悉尼精英私校圈近日曝出令人震惊的AI性犯罪案件。据澳洲七号台调查,多名私立学校男生涉嫌利用人工智能技术,将同校及外校女生的正常照片合成不雅图像,并在社交平台以每张不到5澳元的价格公然贩卖。这起事件再次引发对未成年人网络性暴力的高度关注。
涉案学生通过Instagram和Snapchat群组,散布经过AI深度伪造的女生”裸照”。网络安全专家罗斯·巴克指出:”现在生成这种图像毫无技术门槛,相关软件甚至可免费下载。这不是技术问题,而是赤裸裸的性虐待。”
广告 | Advertisement
在澳纽网做广告 | Advertise with us

– 新州eSafety委员会自2023年以来已受理38起未成年人AI合成不雅照投诉
– 数据显示,网络深度伪造色情内容99%针对女性,2019年以来激增550%
– 2022年,15岁少女蒂莉因不堪Snapchat性虐影像及长期霸凌而自杀
澳洲政府去年通过《2024年刑法修正案》,将非自愿传播AI色情内容定为刑事犯罪。今年3月,联邦警察在全球行动中逮捕25名涉嫌持有AI生成儿童性虐材料的嫌犯,其中包括两名澳洲男子。
广告 | Advertisement
在澳纽网做广告 | Advertise with us
今年初,悉尼西南区某中学12年级男生就曾因类似行为被控。新州教育厅向家长致信强调:”女孩们没有做错任何事”。此前墨尔本Bacchus Marsh Grammar学校50名女生也遭遇同样侵害,其社交照片被篡改成淫秽图像广泛传播。
eSafety专员朱莉·英曼·格兰特警告:”这种性别暴力会造成持久心理创伤。”随着技术滥用日益猖獗,专家呼吁学校加强数字伦理教育,家长需警惕子女网络活动。
注:为保护未成年人隐私,本网暂不披露涉事学校名称。案件进展请以警方通报为准。
分类: 澳纽资讯(即时多来源) 澳洲英语新闻 Australia English News

广告 | Advertisement
在澳纽网做广告 | Advertise with us
233 views