1 月 1 日,一辆特斯拉 Cybertruck 在拉斯维加斯特朗普酒店前发生爆炸,再次引发人们对人工智能相关风险的质疑。据拉斯维加斯大都会警察局称,嫌疑人 Matthew Livelsberger 是一名 37 岁的士兵,据称他使用 ChatGPT 来策划他的行动。这将是美国第一个已知的人工智能模型参与此类性质的攻击的案例。

据当局称,据报道,Livelsberger 向 ChatGPT 咨询了与爆炸物相关的技术信息、弹丸速度以及亚利桑那州燃放烟花的合法性。这项研究,即使是基于公开数据,也有可能克服规划中的某些障碍。。警方还发现了一本日记和一系列笔记,证实这次袭击的目的是对该国的状况发出“警钟”。

OpenAI 捍卫其工具
面对这些爆料,ChatGPT 背后的公司 OpenAI 发布了一份新闻稿。该公司表示,其模型旨在拒绝有害指令,并根据查询定期显示有关非法活动的警告。OpenAI 表示:“我们对这一事件深感悲痛,并正在与执法部门合作支持调查。”。
但批评者已经认为这些保障措施仍然不够。例如,网络安全专家保罗·基纳 (Paul Keener) 表示人工智能工具仍处于早期阶段。他甚至预测:“随着技术的发展,控制将会加强。”

公共安全的转折点
警长凯文·麦克马希尔 (Kevin McMahill) 将这一事件描述为“令人担忧的时刻”,并坚称在此类攻击中使用人工智能显然对执法部门来说是前所未有的挑战。此外,通过以下方式进行的研究的详细信息袭击背后的人与其他机构分享更好地预测可能出现的类似情况。
爆炸造成七人轻伤,并造成少量物质损失。据警方称,利夫斯伯格在现场自杀,是单独自杀。他的个人笔记引发了政治挫败感,但尚未与极端主义团体建立直接联系。
即使此案目前仍处于孤立状态,它显示了与滥用人工智能工具相关的某些风险。关于这些技术监管的争论已经在进行中,而且很可能会加剧。尽管人工智能仍然可以提供很多东西,但它仍然提出了有关安全和道德的新问题。