研究表明,AI聊天机器人向弱势用户提供的信息准确性较低

5 0
一个隐藏在人工智能技术深处的问题正浮出水面。麻省理工学院建设性沟通中心的最新研究发现,包括GPT-4、Claude 3和Llama 3在内的最先进聊天机器人,正在对特定用户群体系统性地提供更低质量的信息。这不是软件故障,也不是孤立事件,而是一种广泛存在的结构性偏见。
    受害者是谁?恰恰是最需要帮助的人。英语水平较低、受教育程度较低或来自非西方国家的用户,正在遭遇这些被寄予厚望的AI工具的冷遇。更令人不安的是,这些模型还会对这些用户表现出居高临下、嘲讽甚至蛮横的态度。
数据背后的不平等
    研究团队使用两个数据集进行测试:TruthfulQA和SciQ,通过在问题前添加用户背景资料来模拟真实场景。结果触目惊心。当提问者被标记为英语非母语、教育程度较低或来自特定国家时,模型的准确率明显下降。
    最糟糕的是双重劣势用户。那些既英语水平较低又受教育程度较低的用户遭遇了最严重的性能下滑。以Claude 3 Opus为例,对这类用户的拒答率高达11%,而对无背景标记的用户仅为3.6%。这种差异看似微小,却反映了一种令人担忧的模式。
    更深层的问题在于拒答背后隐藏的态度。研究人员手动分析这些拒绝信息后,发现了一个令人震惊的数字:对教育程度较低用户的拒答中,有43.7%使用了居高临下或嘲讽的语言,而高学历用户的这一比例不到1%。有些情况下,模型甚至会模仿蹩脚的英语或使用夸张方言。


图注:埃莉诺·普尔-戴安在新加坡举行的第40届AAAI人工智能年会上展示她的研究成果。图片来源:克莱顿·科恩
    地理位置也成了决定性因素。针对来自伊朗或俄罗斯等国家的低学历用户,Claude会拒绝提供关于核能、解剖学和历史事件等主题的信息,而同样的问题提给其他用户时,它会毫无保留地给出正确答案。这种选择性的信息限制尤其令人担忧,因为它暗示模型实际上知道答案,却主动决定隐瞒。
人类偏见的数字镜像
    为什么会出现这种情况?答案令人不适:这些模型正在复制人类社会中存在的古老偏见。社会学研究早已表明,人类倾向于认为非英语母语者教育程度、智力和能力较低,无论其实际专业水平如何。教师在评估非英语母语学生时也存在类似偏见。
    现在,这种根植于人类认知的偏见被编码进了数字大脑。AI模型在训练过程中吸收了互联网上充斥的这些刻板印象,然后在与真实用户互动时,这些偏见被激活并付诸行动。这不是模型的错误,而是其训练方式的必然产物。
    研究团队指出,对齐过程(即让AI模型符合人类价值观的方法)可能无意中强化了这些偏见。为了避免向某些用户提供可能误导他们的信息,系统反而对特定群体实施了信息审查。讽刺的是,它们对其他用户提供了相同的信息。


一个被遗忘的承诺
    这些发现戳破了AI乌托邦的一个重要泡沫。科技行业一直宣称大型语言模型将实现全球信息民主化,让所有人都能平等获取知识,无论背景如何。但现实恰恰相反。那些本应从这项技术中获益最多的人,却收到了最差的服务。
    随着个性化功能如ChatGPT的"记忆"功能变得越来越普遍,问题可能会进一步恶化。这些功能可以跨对话追踪用户信息,这为长期的差别对待创造了条件。一个系统一旦学会了对特定群体的偏见,就会在每次互动中强化和深化这种偏见。
    麻省理工学院的研究是一个警钟。它提醒我们,那些最依赖AI工具获取可靠信息的边缘群体,反而可能成为被系统性误导的对象。在部署这些强大技术的同时,我们必须确保它们不会成为不公平的工具。否则,我们承诺的技术民主化,可能只是为既有的不平等穿上了更现代的外衣。
⚠️内容来自互联网,如有侵权请点击反馈侵权投诉

回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

hot.热文换一批
最新热评 加载中...
牛马论坛(niumabbs.com),一个专注于分享日常新鲜事、职场工作点滴、摸鱼乐趣与各类生活感悟的交流平台。

    关注我们

  • 加入Q群
  • 微信客服
  • QQ客服
Copyright © 2026 NIUMABBS 版权所有 All Rights Reserved. 劰载中...
关灯 在本版发帖
扫一扫添加微信客服
QQ客服返回顶部
快速回复 返回顶部 返回列表