据外媒报道,在过去几年中,人工智能假货的兴起让很多人非常担心,专家警告说这项技术可以用来在网上传播谎言和错误信息。但这种情况发生的实际证据迄今在地面上薄,这也就是为什么新的报告从美联社 使得这种有趣的阅读。
该AP说,它发现的证据似乎是一个使用AI-产生的档案图片来糊弄LinkedIn上的联系人想成为间谍。
该出版物称,假名凯蒂·琼斯(Katie Jones)的虚假档案与华盛顿的一些政策专家有关。其中包括众多政府人士,如参议员助理,副助理国务卿,以及目前正在考虑担任美联储席位的经济学家保罗温弗里。
美联社发现“凯蒂琼斯”的虚假档案。 图片来源:美联社
使用LinkedIn进行这种低风险的间谍活动是司空见惯的,美国和欧洲特别担心中国发起的大规模行动。正如威廉Evanina,美国国家反间谍和安全中心的主任,告诉美联社:“与其派遣间谍到美国的一些停车场招收对象的,它更有效地坐在电脑前在上海和发送好友请求达到30,000个目标。“
但是,“Katie Jones”的案例不同寻常的是使用称为生成对抗网络(或GAN)的AI方法来创建帐户的虚假个人资料图片。
近年来,使用GAN创建虚假面孔变得非常容易,正如ThisPersonDoesNotExist.com等网站的流行所证明的那样。虽然使用LinkedIn的间谍可以轻松地抓取股票图像或随机社交媒体照片来创建他们的帐户,但使用AI假货会增加一层保护。因为每个图像都是唯一的,所以无法将其追溯到具有反向图像搜索的源以便轻松去除。
虽然这些假货一眼就看起来很有说服力,但当你近距离观察时,它们很容易显露出来。在“凯蒂琼斯”的情况下,你可以看到脸部略微不对称,背景模糊。她的头发和耳朵边缘也模糊不清,肉体上有奇怪的条纹。美联社采访的几位专家得出的结论是,图像绝对是使用机器学习技术创建的。
当然,这样的事件并不能证明人工智能伪造会破坏我们的真理和证据。但它确实表明这些担忧不仅仅是理论上的,而且这种技术 - 与其他技术一样 - 正逐渐被恶意行为者调整。
然而,当谈到LinkedIn间谍时,最大的危险并不是真正的AI假货,而是简单的疏忽。正如美国联邦储备委员会成员保罗温弗里告诉美联社的那样:“我可能是LinkedIn历史上最糟糕的LinkedIn用户......我真的接受了我得到的所有朋友请求。”