最近,“AI捏脸”视频在社交平台上颇为流行——一双手捏住各种立体人像■★★★◆,慢慢用力,把人像捏扁★★、捏爆■◆◆、捏碎★★,被捏的对象既有发布者本人★◆■★◆★,也有各种影视剧人物乃至虚拟人物。不少发布者表示“AI捏脸非常解压”■★★◆◆◆,并鼓励他人尝试◆■◆。
根据一名主播的推荐,记者搜索到一款声称免费提供“AI捏脸”效果的小程序。从该小程序的算法公式★◆■◆、隐私条款和服务方式看◆◆★★◆,它也让人不太放心。其在“算法公式”中称,基本原理是将人脸图片的面部特征转移到视频素材中的特定人物上,但并未表示哪些视频素材不能用■◆★★、哪些场景不适合合成。“隐私条款■◆◆★”表示,小程序会收集用户的昵称、头像■■◆◆★◆、性别■■◆★、地区◆■■■■、相册★◆、设备信息等个人信息,这些信息的存储地点和期限非常模糊,前者是“境内”★■★,后者是“小程序停止运营后即时删除◆◆”■■■。至于该小程序的服务内容◆★◆★■★,除了用AI技术为用户实现捏脸等效果外◆★■◆◆◆,还收费提供各种换脸、换背景的照片、视频产品■◆。
人 民 网 股 份 有 限 公 司 版 权 所 有 ,未 经 书 面 授 权 禁 止 使 用
例如,深圳市民吴先生收到陌生手机号码发送的彩信◆◆◆■,里面是他与一名陌生女子在酒店房间的不雅照片★■★★■■,并以此敲诈勒索。吴先生选择报警。深圳警方侦查后发现,全市有同样遭遇的不止吴先生一人◆◆,背后是一个犯罪团伙★■■★★★,内部分工明确,有人负责寻找作案目标,有人负责修图,有人负责发短信打电话敲诈勒索◆◆★★◆★。最终★★★■,警方成功抓获10多名犯罪嫌疑人■◆◆★■,并在他们的电脑里发现大量经过合成换脸后的不雅照片。
将个人照片等发送给不明来历的应用程序、平台等■★■,风险极大。此前,多地警方披露过犯罪分子使用AI换脸、换声等技术实施敲诈勒索案件■◆■◆★,作案的基础就是受害人的头像等个人信息有过泄露◆■★。
要预防这类犯罪★■★■■■,保护好个人隐私信息至关重要。眼下,部分网民有■★“晒■◆■”的习惯◆★■★■,会通过社交平台晒出身份证、结婚证、房产证★■、孩子的出生证等各种证件照片◆◆■◆■★。殊不知,各种证件照片包含了个人隐私信息,很容易被不法分子利用◆■★◆■◆,用来办理信用卡、网贷等金融业务。
网络安全专家提醒,公众在日常上网和使用各种AI工具及应用时◆◆★◆■,要有保护个人隐私、个人信息的意识■◆,不随意上传人脸、照片AG试玩welcome◆■■◆◆、声音等个人信息◆◆◆★。在朋友圈等社交平台分享个人生活时,也要避免晒出那些含有重要信息或容易被不法分子偷梁换柱的照片■■★■★。
其实★◆■,实现AI捏脸的技术并不复杂■◆★★。简单来说★★★★,就是应用人工智能技术,先将照片、视频里的人物进行3D建模◆◆,然后经技术处理,用捏脸模板中的“双手★◆◆■■”将3D模型捏扁、捏爆。
网络安全专家表示■◆■◆■,随着AI技术的发展,一张照片■★、一段语音、一段视频,都有可能成为不法分子的犯罪工具。他们利用AI技术,不仅能把人物的静态照片合成到各种背景中,还能变成动态视频;同样的,获得一定量的音频信息后■◆,AI技术可以模拟声音,制造更多的语音文件,从而实施诈骗等犯罪行为。
调查发现,“AI捏脸■◆■”效果起初来自一款海外AI工具软件■◆★■,随着相关视频走俏,国内平台上也出现类似应用软件。但上海辟谣平台试用发现,这些应用虽说能实现“AI捏脸”效果,但在保护个人信息★★◆★★■、不滥用个人信息上做得并不够◆★■★。对使用者来说,无异于主动将人脸等隐私信息拱手送上,安全风险极大。
招聘英才广告服务合作加盟供稿服务数据服务网站声明网站律师信息保护联系我们人民日报违法和不良信息举报电话举报邮箱:人民网服务邮箱★■◆■◆:违法和不良信息举报电话举报邮箱★★:rmw