通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  三级通信军士

注册:2007-10-293
发表于 2024-10-25 17:01:39 |显示全部楼层

马斯克、特斯拉汽车和“马斯克”,正在转移他们的比特币。

嗯?你问我是不是说了两遍马斯克?

据链上情报交易平台Arkham披露,特斯拉最近悄悄地把价值7.65亿美元的比特币,移到了另一个钱包中。由于特斯拉拒绝作出评论、且昨日公布的Q3财报中并未显示他们卖出了这笔比特币,没有人知道马斯克到底在计划什么。

不过,我们知道另一个“马斯克”为什么要转移甚至卖掉比特币:这是从粉丝手里骗来的钱。



特斯拉转移了大约11,509个比特币丨Blockchain News


故事要从10月11日的Robotaxi发布会说起。

“分身”的伊隆·马斯克

马斯克要发布自动驾驶出租车Robotaxi的时候,出了个大乐子。

他没能准时现身发布会,迟到了整整一小时,理由是紧急医疗事故。但与此同时,超过22万名网友又亲眼看见伊隆·马斯克正在直播间推销虚拟货币。

这是什么情况?分身术?

困惑的观众们纷纷涌入直播间。这里的收看人数一度高达官方账号的2倍,点赞也突破了2万。



如此多的观众,希望没有人上当受骗 丨YouTube


直播中,“马斯克”正侃侃而谈——“给我1个虚拟币,我就还给你2个!数量有限,先到先得!快来扫码!”



诈骗犯甚至做了一个假网站,方便转账。别信,别信!


不是自动驾驶出租车的发布会吗?这……怎么听着不对劲啊?很快有人反应过来:这是诈骗团伙用AI生成的!大家不要上当!

因为,这个马斯克讲话不结巴!



不知道马斯克对此作何感想丨reddit


“完美”AI,造就一流诈骗犯

说来讽刺:骗局被识破,并非因为AI视频一眼假;恰恰相反,是因为如今的深度伪造技术(Deepfake)太“完美”了。

众所周知,马斯克的演讲向来磕磕巴巴。在Deepfake虽然能精准模仿马斯克的南非口音,甚至学习到挑眉毛的细微习惯,马斯克却完全没有口吃或卡顿,这不符合他的风格。

人类的不完美,变成了区别于AI的界限。



假直播中的这个人,也会向观众挑眉丨Tesla


这不是马斯克第一次被AI克隆了。

监控和检测Deepfake的公司Sensity,曾调查了2000多起骗局,其中近四分之一的主角都是伊隆·马斯克。如果把诈骗范围缩小到虚拟货币相关时,这个比例会骤升至90%。

这事儿可能还真得怪马斯克自己:他太爱虚拟货币了。

2021年初,特斯拉曾大笔购入价值1500万美元的比特币,还放出风说要允许大家用比特币来买车。后来大家发现挖矿这事儿过于耗电耗水、污染环境,才悄悄取消了这个付款渠道。马斯克他在虚拟货币领域的号召力让骗子一拍脑门:机会来了!



他的一条推特就让Floki币涨了近10倍丨X


香港证监会曾披露过“Quantum AI”如何专精诈骗虚拟资产。他们会先锁定关注了科技名人或金融大腕的用户,以及那些积极关注虚拟货币的人。这些行为并不违法,而且相当高效,靠广告投放工具就能实现。

正有问题的是下一步:精准投放广告后,他们再假扮成记者,和AI生成的名人互动;用机器人观众营造出热闹的假象,再通过“双倍回报”的承诺,一步步诱骗受害者完成转账,展示虚假的存款页面,鼓励他们投入更多的钱——直到受害者发现自己一毛钱也提取不出来。



利用TED和福克斯新闻的视频,就能生成AI马斯克丨纽约时报


除了马斯克,沃伦 巴菲特(Warren Buffett)、亚马逊创始人杰夫 贝索斯(Jeff Bezos)、美国前总统唐纳德·特朗普(Donald J. Trump)和著名歌手泰勒·斯威夫特(Taylor Swift)也是深度伪造的“常客”。

这类骗局就像是外国版的“我是秦始皇,打钱”,但确实有人因此上当:根据英国的国民威斯敏斯特银行(National Westminster Bank Plc)的记录,曾有骗子用杰夫 贝索斯的伪造照片宣称亚马逊要构建全新的虚拟货币投资平台,狂揽158873英镑后溜之大吉。



特朗普转发的这些照片也都是AI生成的丨卫报


根据受害者的描述,这些伪造的视频和照片实在太真了,他们很难不信。麦克菲安全公司的测试表明,只需3秒的音频就足以生成与原始语音匹配度为85%的克隆。名人抛头露面的机会更多,可用于AI学习的素材也就越多,伪造也就越逼真。

不仅如此,诈骗的成本还在逐渐降低。

2024年初,新罕布什尔州的许多选民收到了自动语音电话,拜登亲自打电话告诉他们“不要投票”。而这音频是由新奥尔良州的一位魔术师花了20分钟制作的,成本只需1美元,而他因此挣了150美元

伪造视频的价格会稍高一些,每分钟价格从300美元到20000美元不等,价格越高越难被识破,AI马斯克通常是价格比较高的那一档,毕竟假名人也得质量够高,才能不被识破。



SpaceX的星舰回收也有假直播丨TREND


根据德勤会计事务所的统计,深度伪造视频每年会造成数十亿美元的诈骗损失。Raisin的报告表明,在2024年的前三个月,AI诈骗已经从英国人的口袋里掏走了10亿英镑。这或许是因为谣言传播得太快了:根据2018年发表在Science上的一篇论文,Twitter(现在的X)上处于前1%热度的谣言能传播给1万至10万人,新闻事实却很少传播到1000人以上。

我们还有别的办法识破骗局吗?毕竟,不是每位CEO都有马斯克的口吃这项“独门绝技”。

用魔法打败魔法

能又快又准识别出深度伪造视频的,还得是AI。

不少公司已经做出了检测工具,例如英特尔的FakeCatcher、微软的Video Al Authenticator,也有面向政府场景的Sentinel(哨兵)检测。它们通常是提供给X、脸书或者油管这类大平台使用的,上手门槛有点高。



一些深度伪造检测程序丨VLink


要确认日常生活中的视频是否由AI生成,我们可以挑选简单一些的工具。例如CloudSEK、Attestiv和Deepware。

它们的使用方法都差不多:只需要把直播或视频的链接复制粘贴上去,或者直接将本地的视频文件上传,再敲下回车键,就能在一两分钟内判断出它是不是AI视频。

CloudSEK检测的视频需要短于5分钟,Attestiv则会限制每个用户的免费检测数量。它们都能给出一定的总结,解释视频被认为是AI生成的原因,而Deepware专注于AI生成的人脸检测,可以扫描最多10分钟时长的视频,不需要登录,页面也最为简单。







一眼识破AI伪造的摩根·弗里曼。界面依次为Attestiv、CloudSEK、Deepware


对于照片,可以试试Optic的AI or Not工具、Maybe's AI Art Detector以及HIVE MODERATION。第一个工具只会给出是或否的结果,不过除了图片,它还可以检测音频。第二个工具则能告诉你这张图片有多大概率是由AI制作的。第三个工具可以进一步告诉你,这张图最可能是由哪个AI模型跑出来的。







一拖一拽,操作简单。界面依次为Optic、Maybe's AI Art Detector、HIVE MODERATION


这些伪造作品是怎么检测出来的呢?通常有两种思路,第一种是先搜集一大堆深度伪造的视频和图片,然后从中找出AI人物共性:抖动的牙齿、跳舞的墙面、抽搐的头发,小到不自然跳动的像素……将这些整理起来,做成“黑名单”,如果视频有大量此类特征,那就得对真实性打个的问号了。

第二种方法则关注“伪造”这个行为本身:既然把人脸“缝合”到视频中,那只要抓住“缝合线”和人脸的特点,就能迅速找到伪造痕迹了。

当然,还有一些令人意想不到的解决方案:英特尔的工程师们想到,心脏每次泵血都会改变血管的颜色,虽然肉眼识别不出来,但只要好好训练AI,就能从画面里提取出心率。而深度伪造的人脸,心率数据自然是一团糟。



像这种心跳就不太对劲Giphy


国内也有了面向深度伪造的检测工具,例如中科院自动化所的团队VisionRush在GitHub上发布的Deepfake defenders。这个项目是全球Deepfake攻防挑战赛的第三名,通过检测微小的像素变化来识别伪造视频。如果读者有足够多的深度伪造数据,恰好还擅长AI的训练和调参,可以自行安装试一试。至于在线检测,国内的大部分平台还需要申请试用,或者只提供AI,对个人用户来说没有那么方便。

回过头来看,人类社会仿佛变成了一场大型的GAN(生成对抗神经网络)。我们造出伪造的AI,又造出了检测伪造的AI。我们希望生成的虚拟图像越来越逼真,又不希望自己被虚假所欺骗,直到两种AI都远远超出人类的能力极限。或许,人类才是被AI训练的那一方?

不论如何,当你下次怀疑自己看见假的马斯克、马云或者马化腾时,记得用AI来对抗AI。

参考文献

[1]https://www.nytimes.com/interactive/2024/08/14/technology/elon-musk-ai-deepfake-scam.html#

[2]https://www.yahoo.com/news/orleans-magician-says-democratic-operative-120008911.html

[3]https://www.theguardian.com/technology/article/2024/aug/24/trump-taylor-swift-deepfakes-ai

[4]https://finance.yahoo.com/news/fake-musk-bezos-crypto-ads-123317721.html

[5]Vosoughi S, Roy D, Aral S. The spread of true and false news online[J]. science, 2018, 359(6380): 1146-1151.

[6]Birrer A, Just N. What we know and don’t know about deepfakes: An investigation into the state of the research and regulatory landscape[J]. new media & society, 2024: 14614448241253138.

[7]周文柏,张卫明,俞能海,等.人脸视频深度伪造与防御技术综述[J].信号处理, 2021, 37(12):18.

[8]https://www.security.org/resources/deepfake-statistics/#citations

[9]https://moneyweek.com/personal-finance/ai-scams-to-be-aware-of

[10]https://www.unite.ai/best-deepfake-detector-tools-and-techniques/

[11]https://video.attestiv.com/dashboard/video

[12]https://www.aiornot.com/dashboard/home

[13]https://huggingface.co/spaces/umm-maybe/AI-image-detector


来源:36kr

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-11-7 21:21 , Processed in 0.280111 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部