- 精华
- 好友
- 阅读权限
- 20
- 最后登录
- 1970-1-1
- 在线时间
- 小时
|
警惕!“AI诈骗正在全国爆发”
总有人说耳听为虚 眼见为实
这话放在现代也一键不可用了,随着AI技术的愈发成熟,骗子们有了新的zha/骗工具和手段 那就是AIzha/骗
近日,内蒙古自治区包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元
(AI诈/骗通过AI合成技术 + 声音模拟+一系列收集到的关于你的所有可用的信息进行诈骗(包括声音+你日常朋友圈,照片等所发的地点【违规内容】信息,以及AI查询的父母至亲等姓名出生等信息)然后对你的至亲等进行诈骗。)
打比方你在谋国出差或旅游拍摄的照片 然后发朋友圈【违规内容】了
骗子通过 虚拟【违规内容】 场景还原 AI换脸 等手段给你至亲打电话 问你至亲进行借钱诈骗 成功了非常高!
有时候我们接电话 聊很久发现对面是个机器人在跟你说话 或者是对方无人回答无人理你 可能就是正在搜集你的声音信息 只需要3s 即可完成对你声音的合成和模仿
打比方 你在泰国旅游
你父母接到一个视频电话 背景是在泰国 脸是你的脸 声音是你的声音 所有信息都匹配上了 你觉得这zha/骗成果概率有多大?
加强防炸意识 宣传防炸知识 大家一定要提高最新的AIzha/骗!
建议:建议告知父母AIzha/骗的危害 让他们意识到AIzha/的可怕
(友提示:可通过询问一些细节来避免诈骗,举例:父亲的小名叫什么?父亲平时用什么称呼对你母亲?母亲最近出差过吗?等拐弯性问题多问几个来避免诈骗,AI是不会了解的)
最重要的还是保护自己隐私!尽量 避免 朋友圈的【违规内容】,sfz,手机号等泄露!避免陌生来电的接听特别是无回应和机器人的那种电话! 从源头开始遏制!
(内容非转载,均为手打原创,爱fg.爱生活.)
|
|