图片

研究人员已经证明,最近的主要语言模型(例如GPT -4)能够完全自主地攻击网站。

在不断变化的人工智能领域,最近的一项发现引起了一些混乱。一组研究人员已经证明,新一代大型语言模型,这些超强大的对话人工智能,可以变成强大的计算机黑客

意想不到的危险

您是否认为这些虚拟助手明智地将自己限制在委托给他们的任务上?再想一想 !根据这项研究,像 GPT-4 这样的尖端模型能够策划极其复杂的网络攻击 ,甚至无需事先知道要利用的漏洞。

伊利诺伊大学的研究人员通过在易受攻击的网站上自主释放这些情报来测试这些情报。在各种工具的支持下,这些人工智能能够基于 SQL 注入发起毁灭性的攻击,甚至提取数据库模式

GPT-4,恶意煽动者

在测试的模型中, OpenAI的旗舰产品GPT-4被证明是最令人担忧的,它成功入侵了近四分之三的目标网站。这种效率水平必然会引发对广泛部署此类情报所带来的风险的质疑。

另一方面,当前的开源模型仍然难以构成类似的威胁,在任何网络攻击尝试中都失败了。这种明显的差异暴露了最先进系统所取得的令人眼花缭乱的进步。

需要提高警惕

尽管这些恶意的人工智能网络攻击有一定的成本,但仍然明显低于雇用人类专家。对于希望以较低成本利用这些漏洞的潜在网络犯罪分子来说,如此低廉的价格意味着相当大的优势。

然而,我们是否应该担心这样的会话助手会成为肆无忌惮的网络犯罪分子的新武装呢?最重要的是,研究人员呼吁保持警惕,并希望他们的结果能够促使开发人员重新审视这些强大模型的分发政策。

有一点是肯定的,在生成式人工智能时代,人工智能似乎不断突破其能力的极限,密切关注其潜在偏差比以往任何时候都更加重要。

- 结束 -

看完本文有收获?请分享给更多人

推荐关注「AI猿」,跟上AI新时代!