最近几天,社交网络上出现了一种相当令人不安的趋势。以小黄人(《卑鄙的我》中不再需要介绍的角色)为主角的视频被改用来展示明显的暴力场景,例如自杀、谋杀或袭击。全部都在#Miniongore 标签下!

病毒式传播且危险的趋势
这些视频有几个共同点:它们是使用 Runway 等人工智能工具制作的,灵感来自真实事件。他们用动画人物代替了参与悲惨事件的人类,这使得场景更加令人不安。
在最火爆的视频之一中,我们可以看到一个小黄人坐在电脑前,通过重现小黄人的活体自杀来结束自己的生命。罗尼·麦克纳特2020 年。另一个则采用了视觉元素2019 年基督城枪击事件,发生在新西兰的两座清真寺。这些重建虽然风格化,但重复了原始事件的背景和声音,放大了它们的心理影响。
最初在俄罗斯推出,这种趋势迅速蔓延到 TikTok 和 Instagram 等平台,一些视频的观看次数达到数十万次。这些视频乍一看似乎很无辜,但它们的扭曲揭示了深深的不适,诺亚·格伦·卡特 (Noah Glenn Carter) 等许多内容创作者都指出了这一点。人类永远不允许的视频与这些动画角色一起发布。这允许您发布不应该存在的内容
。

呼吁保持警惕
被我们的同事提问404媒体,TikTok表示删除所有内容违反(其)社区规则,无论是否经过人工智能修改。这包括仇恨、血腥或极其暴力的内容
。该平台——然而在美国并不具有神圣的气息——也肯定了致力于更新其算法,以更有效地检测人工智能生成的视频并防止传播不当内容。
面对这一趋势的兴起,因此有必要证明提高警觉性。 《小黄人》表面轻松的背后隐藏着一些视频,这些视频除了使暴力正常化之外,还可能冒犯本案中最年轻的小黄人粉丝粉丝。除此之外,这些视频还提出了有关内容管理的几个问题:平台应该(能够?)如何管理人工智能生成的新形式的内容,同时保护其社区?在人工智能时代,这个问题似乎远未得到解决。