4月20日,有犯罪分子使用深度伪造的视频,10分钟骗走了430万元人民币;仅仅一个月之后,安徽又出现一起AI诈骗案件,犯罪分子利用9秒钟的智能AI换脸视频佯装“熟人”,骗走受害者245万 。

文章插图
▲ 图:抖音相关媒体报道
显然,生成式AI的出现与普及,让网络安全的形势变得更加复杂 。这种复杂也不局限在诈骗,更严重的,甚至会已影响商业运转和社会稳定 。
比如5月22日,科大讯飞因为一篇由AI生成的小作文,导致股价一度大跌9% 。

文章插图
▲ 图:科大讯飞出示的股价下跌证据
而在这件事情发生的前两天,美国也出现了一起因生成式AI引发的恐慌 。
当天,一张显示美国五角大楼附近发生爆炸的图片在Twitter疯传,而在图片穿传播的同时,美国股市应声下跌 。
数据上看,在当天图片传播的10点06分到10点10分之间,美国道琼斯工业指数下跌了约80点,标普500指数0.17% 。

文章插图
▲ 图:由AI生成的虚假照片,来源已不可考
在此之外,大模型也可能成为人类实现网络攻击的利器 。
今年一月份,世界头部网络安全公司Check Point的研究人员曾在一份报告中提到,在ChatGPT上线的几周内,网络犯罪论坛的参与者,包括一些几乎没有编程经验人正在使用ChatGPT编写可用于间谍、勒索软件、恶意垃圾邮件和其他用于不法活动的软件和电子邮件 。另据Darktrace发现,自从ChatGPT发布,网络钓鱼电子邮件的平均语言复杂度就上升了17% 。
显然,AI大模型出现降低了网络攻击的门槛,增加了网络安全的复杂性 。
在AI大模型之前,网络攻击的发起者至少需要懂得代码,但在AI大模型之后,完全不懂代码的人也可以借助AI生成恶意软件 。
这里的关键在于,AI本身没有问题,AI也不会被人诱导产生恶劣影响 。而是有人利用AI从事违法犯罪活动 。这就像有人用刀杀人,但刀本身只是“凶器”,但却能让使用者从“步枪”换成“迫击炮”的威力 。
当然,从网络安全的角度而言,生成式AI的出现也并非全是负面 。毕竟技术本身是没有善恶,有善恶的是使用它的人 。所以当AI大模型被用作加强网络安全的时候,仍然会对网络安全带来裨益 。
比如美国网络安全公司Airgap.NETworks推出ThreatGPT,将AI引入其零信任防火墙 。这是一个基于自然语言交互的深度机器学习安全洞察库,能够让企业在与先进网络威胁的对抗中变得更加容易 。
Airgap首席执行官Ritesh Agrawal表示:“客户现在需要的是一种无需任何编程即可利用这种功能的简单方法 。这就是ThreatGPT的美妙之处——人工智能的纯粹数据挖掘智能与简单的自然语言界面相结合,这对安全团队来说简直是游戏规则的改变者 。”
除此之外,AI大模型还可以被用在帮助SOC分析师进行威胁分析,能够通过持续监控更快识别基于身份的内部或外部攻击,以及帮助威胁猎人快速了解哪些端点面临最严重的供给风险等等 。
将AI安全的不同阶段厘清便会发现,显然AI大模型的安全问题不是某一个单独的问题 。它很像人的健康管理,涉及到身体内外、眼耳口鼻等等复杂且多面 。准确的说是一个复杂的、体系化的,涉及多个主体结构和整个产业链的系统工程 。
目前,国家层面也开始有所关注 。今年5月份,国家相关部门在此更新《人工智能安全标准化白皮书》,就人工智能的安全具体归结为五大属性,包括可靠性、透明性、可解释性、公平性和隐私性,为AI大模型的发展提出了一个较为明确的方向 。
别慌,安全问题可解
当然,我们如今也不必为AI大模型的安全问题感到过多的担忧,因为它并没有真正走到千疮百孔的地步 。
毕竟就安全而言,大模型并没有完全颠覆过去的安全体系,我们过去20年在互联网上积累的安全堆栈大部分仍然能够被复用 。
比如Microsoft Security Copilot(安全副驾驶)背后的安全能力仍然来自于既有的安全积累,大模型仍然要使用Cloudflare、Auth0来管理流量和用户身份 。在此之外还有像防火墙、入侵检测系统、加密技术、认证和访问系统等等,保证了网络的安全问题 。
而这里我们其实要讲的是,当前我们遇到的绝大多数关于大模型的安全问题,都是有解决途径的 。
推荐阅读
- SSD硬盘暴跌 你仍然需要一块机械硬盘:存数据更安全
- 为什么合规性不等于网络安全
- AI时代,如何安全使用ChatGPT引发热议
- 同理心|新职业安全风险评估师出炉!为就业提供新方向
- AI换脸风暴:骗局、产业与技术防守
- ChatGPT爆火,网络安全再次被摆上台面
- 网络安全自动化的相对优势是什么?
- 谷歌开源 Rust Crate 审查结果:便于 Rust 开发者验证源码安全
- AI换脸冒充好友诈骗430万,听听网络安全专家们怎么说?
- 警惕加密骗局 盘点六大加密资产安全工具
