Google AI的令人难以置信的力量:阅读令人担忧的专家的情绪-Techguru

简而言之
  • 🤖新的Google Paligemma 2模型可以分析图像并确定人类的情感
  • 专家快递他们的担忧至于该技术中的道德含义和歧视的风险。
  • Google测试显示低偏差水平,但是这些方法的透明度尚不清楚。
  • ⚖️使用情感探测器受到限制欧洲法规避免潜在的虐待。

Google最近推出了其新的人工智能模型家族,即Paligemma 2,能够识别和描述人类的情绪。这种技术进步引起了专家的迷恋和关注的混合。如果有些人将其视为一场革命,其他人则关心这种技术可能产生的道德含义和潜在歧视。

Google Paligemma 2型号旨在分析图像并生成详细的描述。多亏了他们,AI现在可以超越对象的简单识别,以描述所观察到的动作,情感和整个场景。

但是,对情绪的识别不会自动起作用。它需要对模型进行细致的调整,以达到这种情感理解水平。

关心道德的专家

这种检测情绪的能力引起了伦理和人工智能专家的关注。牛津互联网学院教授桑德拉·沃克特(Sandra Wachter)认为,声称权力是有问题的lire人们的情绪。

她比较了这种尝试质疑水晶球以获取建议的尝试,并强调了这种技术的潜在危险。

探测情绪的限制

从历史上看,大多数情感探测系统都是基于保罗·埃克曼(Paul Ekman)的工作,后者是一位理论上六个基本情绪的理论上。但是,随后的研究通过显示情绪表达的文化差异来质疑这一假设。

玛丽皇后大学的研究员迈克·库克(Mike Cook)说,情感检测是一个复杂的挑战。不可能完全解决它,因为每个人都将自己的情绪独一无二。

Google偏见和测试

Google声称已在-Depth测试中进行了评估paligemma 2的人口偏见。该公司指出低毒性水平与行业标准相比。

但是,Google尚未透露用于这些评估的参考文献的完整列表,这使人们对结果的可靠性感到怀疑。

测试结果
公平脸高分
偏见低偏差水平

潜在的后果和法规

情绪检测系统引起了监管机构的负面反应,尤其是在欧洲。例如,AI法案禁止在学校和雇主中使用此类探测器。

主要风险是这些开放模型可以被转移或使用不足,从而在现实世界中造成有害后果。

情感技术的未来?

AI Now Institute的首席科学家Heidy Khlaaf强调,情感的解释是主观的,并且很大程度上取决于个人和文化背景。

如果这些技术基于伪科学的推定,它警告说,它警告歧视风险,特别是针对边缘化群体。

谷歌捍卫其道德考试时,问题仍然存在:如何保证这些技术进步不会损害我们的基本价值观?

来源 :TechCrunch

你喜欢它吗?4.6/5(5)