“很难找到防止坏人用它做坏事的方法”

2024-05-19 18:02:17发布    浏览108次    信息编号:72184

友情提醒:凡是以各种理由向你收取费用,均有骗子嫌疑,请提高警惕,不要轻易支付。

“很难找到防止坏人用它做坏事的方法”

“人工智能之父”杰弗里·辛顿有一个末日预言:人工智能可能对人类构成巨大威胁。 因为,“很难找到一种方法来阻止坏人利用它来做坏事。”

不幸的是,这个预测正在成为现实。

01

高端局来了

对于一名跨国公司的白领来说,一杯咖啡就让公司损失了2亿港元。

原因是他受邀参加公司高管的视频会议。 会议上,总部财务总监要求他立即将总计两亿转入多个账户。 在其他同事的配合下,他当场就把事情办好了。 就是这样。

但事实上,这次会议是一场骗局。 他是整个视频会议中唯一在场的“真人”!

这是香港警方近期披露的一起多人“AI换脸”诈骗案。 被骗者看到的每个人、听到的所有声音,都是来自被骗者进行了“AI换脸变声”。

这位员工并不是一个粗心的“白痴”。

当他最初收到英国总部C​​FO发来的电子邮件,称公司正在策划一项“秘密交易”,要求他将公司资金转移到香港的几个本地账户以供以后使用时,他并不相信,认为这是是一封网络钓鱼诈骗电子邮件。

但当骗子给他打视频电话,并邀请其他几位“真实友好”的同事协助他时,他彻底放松了警惕。

事发五天后,他向英国公司求证时才发现自己被骗了。

同样可怕的“经历”也发生在福州一家科技公司法定代表人郭先生的身上。

2023年4月20日,一位朋友突然发了一条微信视频:“老郭,我的一个朋友在外地竞拍,需要430万的押金,你看看能不能先开个公司账户,帮忙结清这笔钱。”帐户? ”

朋友说钱已经汇了,还发了银行转账收据的截图。

由于是视频聊天,郭先生没有核实钱是否到账,就直接将430万转入对方账户。

随后,郭先生打电话给朋友称“事情已经办了”,但对方很惊讶,回应称根本没有这件事。

9分钟,430万没了!

欺骗郭先生的也是AI诈骗。

从公开信息来看,这种防不胜防的骗局一般包括三个步骤:

1、犯罪分子利用AI机器人骚扰电话,获取目标语音素材进行欺骗,进而伪造语音;

2、盗取目标社交账号并找到受害者;

3、利用AI换脸技术对受害人进行视频通话,获取信任,实施诈骗。

经过三步走,以往“发语音”、“拍视频”的反诈骗手段面对AI诈骗基本失效。

更可怕的是,掌握AI的骗子越来越多!

公开信息显示,2021年以来,人工智能诈骗、不当牟利案件在多省份发生。 中国互联网协会2023年5月24日表示,利用“人工智能换脸”、“人工智能变声”进行诈骗、诽谤等违法行为屡见不鲜。

按照传统认知,诈骗的受害者大多是经不起诱惑、社会经验少的“上当受骗”,以及一些不经常上网的老年人。

只要给出几张照片和几秒钟的声音,AI诈骗就能复制一个“真人”,但每个人都未必能逃脱。

比如,冒充大学同学、亲戚、供应商等通过AI视频借钱的案例层出不穷。

认为从不借钱就可以防止被骗的想法是天真的。

当骗子冒充领导,因汇款、资金周转等紧急原因要求下属立即转账时,很少有人能顶住压力。 更有什者,骗子直接编造孩子或父母车祸住院等借口,利用亲人的感情实施诈骗。

据湖北网警检查执法公布的信息显示,新型AI技术诈骗的成功率接近100%。 诈骗成功率之高、涉案金额之大、速度之快令人咋舌。

更令人不寒而栗的是,信息泄露和隐私不安全的普遍现实,为人工智能欺诈创造了“天然滋生地”。

2023年2月15日,一则“几乎无一幸免,45亿条电商或快递信息疑似泄露”的消息成为热搜话题。 有网友不禁吐槽:“你得有多么强的防范意识才能认为视频里打电话的亲朋好友不是真人?你得有多么强的隐私意识才能保证”你的信息没有被泄露或被盗吗?” ”

微博@全民防骗大V甚至预言:“你还没被骗,不是因为你聪明,不是因为你没钱,而是因为适合你的‘剧本’还在路上。”

02

全球暴发

2023年4月末,一位名叫 的美国妈妈突然接到电话:“妈妈,救命!”

当詹妮弗的大女儿布丽安娜似乎陷入了大麻烦时,她惊呆了。

接下来是对手的威胁:

“如果你报警的话,你就再也见不到她了!”

挂断电话后,詹妮弗立即索要赎金。

幸好女儿恰巧打来电话,骗局不言而喻。 但尽管心有余悸,她还是感到无比惊讶:

“即使隔着一栋楼,我也认不出孩子的哭声。”

让詹妮弗没想到的是,人工智能技术的飞速发展已经比母亲更了解她的孩子了。 诈骗者每月支付的费用可能低于 5 美元。

2017年,一位名为“”的网友利用AI技术发布了色情演员变脸为盖尔·加朵等名人的视频片段,引起轩然大波。

被称为“深度伪造”的AI变声、换脸技术从此进入公众视野。

一些从事类似诈骗的犯罪分子立即将目光投向了这项先进技术。

2019年3月,诈骗者利用即使带有“微妙的德国口音”也毫无瑕疵的AI变声技术,冒充英国一家能源公司的老板,欺骗其高管转账22万欧元。 这被认为是世界上第一次。 人工智能欺诈案例示例。

随后,AI技术普及的欧美迅速成为AI诈骗的温床。

FBI年度报告显示,2022年美国AI诈骗同比增长50%至75%。美国互联网诈骗损失达103亿美元,创五年新高,AI针对老年人的语音诈骗受到的打击最为严重。

世界经济论坛研究与分析总监布鲁内曼的一项调查显示,“过去一年里,26%的小公司和38%的大公司经历过深度伪造欺诈”。 她甚至预言:

到2026年,90%以上的网络攻击内容将是AI合成。

人工智能诈骗的效果越来越现实,但技术门槛和成本却在不断降低。

加州大学伯克利分校教授法里德表示,现在AI变声只需要十多秒的录音,而换脸只需要一张照片。 相应的AI使用费用从每月仅5美元到数百美元不等。

这基本上意味着普通人可以“轻易”从事非法活动。

而且,人工智能还可以通过信息采集和大数据分析,智能筛选出“容易受骗的人”。 例如,在进行金融诈骗时,可以收集热衷于投资信息的人,成为潜在的目标。

AI甚至可以分析目标的社交网络,了解其个性化表达、人际关系、兴趣爱好等生活习惯,定制“诈骗脚本”。

法里德惊呼道:

“这很可怕,就像一场完美的风暴,具备引发灾难的所有因素。”

但尽管存在明显的风险,人工智能语音和视频合成技术仍然在疯狂运行。

今年春节期间,视频模特Sora横空出世,让AI视频制作变得更加简单、真实。 一夜之间,“现实已不存在”的感叹席卷朋友圈。

当AI签名、AI视频、AI变声换脸等,本应创造美好和便利的高端技术,成为坏人手中的“魔杖”,财产、信息和现实——无数人和机构的生命安全正变得越来越一致。 “裸奔”。

03

没有真理的时代

“现在已经到了大规模集中讨论人工智能风险的关键时刻”,清华大学教授沉阳曾呼吁。

事实上,针对人工智能欺诈的警惕和管理计划已经在进行中。

美国安全中心发布的《人工智能与国家安全》明确将人工智能造假技术列为威胁国家安全的关键技术。 中国也开始通过政策管理和技术限制来应对潜在的安全风险。

然而,AI诈骗似乎是一支所向披靡的“小强”——打击力度持续升级,案件屡创新高。

根本原因是法律法规的制定和推广速度跟不上人工智能技术的迭代和传播。 行业和公众很容易对人工智能的危险反应迟缓。

如今,人工智能诈骗早已超出了“诈骗”的范围,蔓延到社会各个角落。

今年1月底,明星泰勒·斯威夫特的大量“AI不雅照”在社交平台上流传。 这件事甚至震惊了美国白宫,并掀起了一股对人工智能的担忧热潮。

就连白宫也未能幸免。

上周,很多人接到了美国总统拜登的人工智能电话,要求把选票保留给他们而不是特朗普。

当然这也是假的,但还是有很多人相信。 一些人认为人工智能骗局可能会影响美国大选。

在中国,假新闻、假图片的情况也十分猖獗。

2023年5月,科大讯飞受一篇题为《科大讯飞重大风险警示》文章影响,股价迅速暴跌。 该公司最终紧急回应,称股价下跌是由生成式AI写的虚假“文章”造成的。

人工智能让人们的生活越来越便利,但也让犯罪分子变得更加容易。

2023年4月13日的索尼世界摄影奖颁奖典礼上,大奖获得者冲上台,抢过麦克风,悲伤又愤怒地说这是AI造假。 他问道:“如果索尼世界摄影奖的评委都分不清照片的真假,那其他人能做什么呢?”

当AI诈骗从专业层面走向“平民化”时,我们能做的,除了希望监管之外,可能是:

所有来自家人的电话、视频等都必须首先以高度怀疑的态度对待。 把那句话“不要给任何陌生人汇款”改成:

不要寄钱给任何人。

[1]《AI换脸风暴:骗局、产业与科技防御》36氪

[2]《如何防范“AI换脸”诈骗?》人民日报

[3]《警惕!》美国发生多起AI语音诈骗案,联邦机构将加强监管》第一财经

提醒:请联系我时一定说明是从奢侈品修复培训上看到的!