这个人以凶手的身份提出了针对chatgpt的投诉

这个故事应该为阴谋者和新闻爱好者找到有利的耳朵。的确,这个挪威人什么都没要求,但他发现自己处于一个人工智能在各方发明的谋杀故事的中心,而不仅仅是任何方面。

©MAC4EVER 2025

100%假的“恐怖史”

Arve Hjalmar Holmen可能不会以自己的名字询问Chatgpt来期望这样的答案。正如Noyb协会所解释的那样(关你屁事),专门针对隐私保护,聊天机器人在汉尼拔莱克特(Hannibal Lecter)提供了个人资料,说这个人因杀死两个孩子并试图暗杀他的第三个儿子而被判处21年徒刑。

问题在于,虚假叙述还包含有关申诉人一生的真实信息,例如他的孩子的人数和性别以及他的家乡的名字。根据NOYB的说法,它代表了对一般数据保护条例(GDPR)的明显侵犯。

RGPD违规:欧洲当局取景器中的OpenAI

根据GDPR的第5条(请参阅本文末尾)任何处理个人数据的公司都必须确保其准确性。但是,通过产生这种幻觉,Openai冒着严重制裁的风险。因此,协会要求挪威数据保护局施加为了防止将来的违规行为,在Openai中处于行政罚款。

自此事件以来,Chatgpt已更新,并且不再将Arve Hjalmar Holmen视为犯罪分子。但是,Noyb强调,模型的培训数据中仍然存在虚假信息,这使其确定的删除不确定。

AI幻觉:反复出现的问题

这不是第一次被指控对真实人的事实发明事实。 2023年,法国代理人Éricbutorel在发现聊天机器人的回应中发现了有关他的错误信息后,已经对Openai提出了投诉。

尽管人工智能变得越来越无所不在,这种情况提出了一个问题,即我们在诸如个人的身份和声誉等敏感主题时是否真的可以信任这些模型。

GDPR的第5条说

1。个人数据必须是:

a)以合法,忠诚和透明的方式对待有关的人(独特,忠诚,透明);

b)收集出于确定的,明确和合法的目的,并且以后不会以与这些目的不相容的方式进行处理;根据第89条第1款,不考虑出于公共利益,出于科学或历史研究目的或出于统计目的的档案目的的待遇处理,与初始目的不符(目的的限制)是不兼容的;

c)足够,相关且仅限于处理它们的目的所需的内容(数据最小化);

d)准确的,如有必要,更新;必须采取所有合理的措施,以便考虑到处理的目的不准确,不准确地删除或纠正(准确性);

e)保持一种形式,允许对有关的人确定与他们所接受的目的所必需的那一段时间;可以在公共利益,科学或历史研究或出于统计目的第89条第1条第1款的统计目的而仅出于档案目的处理个人数据,只要为这些法规所需的适当的技术和组织措施而实施以保证有关人员的权利和自由(限制保护的限制);

f)为保证个人数据的适当安全性,包括防止未经授权或非法处理的保护,并使用适当的技术或组织措施(完整性和机密性)来防止损失,破坏或偶然起源的损害;

2。控制器负责遵守第1段,并能够证明其受到尊重(责任)。