当前位置:首页 > 焦点

人工智能的“偏见”能否消除

据英国《新科学家》网站近日报道,偏见在提供购房和租房建议时,人工AI对黑人用户倾向于推荐低收入社区,否消这一行为被指存在种族偏见,偏见映射出美国历史上长期存在的人工住房歧视问题。

随着人工智能(AI)技术不断发展,否消其潜在问题也日益凸显。偏见ChatGPT等AI大模型频频暴露出的人工偏见和歧视倾向,正是否消这一问题的缩影。

AI也有性别歧视

联合国妇女署官网5月22日报告指出,偏见美国加州伯克利大学哈斯商学院一项研究,人工分析了不同行业的否消133个AI系统。结果显示,偏见约44%的人工系统表现出性别刻板印象,25%同时表现出性别和种族刻板印象。否消

例如,土耳其艺术家贝扎·多古斯在创作时,曾尝试让AI写一个关于医生和护士的故事。而AI总是自动将医生设定为男性,将护士设定为女性,即使多次尝试纠正也是如此。

美国科技博客TechCrunch利用Meta推出的AI聊天机器人进行测试,也发现了一种刻板的表达倾向:当使用“印度男性”提示词生成图像时,绝大多数图片中的男性都是戴着头巾。虽然很多印度男性确实戴着头巾(主要是锡克教徒),但根据2011年人口普查,即使是在印度首都新德里,锡克教徒的人口比例也只占约3.4%。

单凭技术手段难以奏效

ChatGPT等生成式AI具有惊人的能力,可在数秒内模拟人类推理,但这也增加了出错的可能。AI巨头们深知其中存在问题,担心AI模型会陷入偏见、歧视等行为模式中,或在全球化用户群体中过度呈现西方社会的文化和认知。

字母表公司(Alphabet,谷歌母公司)首席执行官桑达尔·皮查伊表示,为了应对这一挑战,他们会要求在训练AI模型时尽可能拓展数据来源。例如,在展示医生或律师的图像时,力求反映种族多样性。但这一策略有时也会走向极端。

AI模型领先平台“抱抱脸”(Hugging Face)研究科学家萨莎·卢西奥尼认为:“单凭技术手段解决偏见问题,恐难奏效。”她强调,生成式AI的输出是否符合用户期望,往往取决于主观判断。美国阿莱姆比克技术公司产品主管杰登·齐格勒也指出,ChatGPT等大型模型难以准确区分偏见与非偏见内容,这使得完全依赖技术手段来消除偏见变得异常困难。

人类偏好是根本

在AI技术飞速发展的今天,消除偏见并非易事。据“抱抱脸”平台统计,该平台上有约60万个AI或机器学习模型,每隔几周就会有新模型问世。这使得工作人员评估和记录偏见或不受欢迎的AI行为变得异常繁重。

目前,技术人员正在开发一种名为“算法回归”的方法,它让工程师能在不破坏整个模型的情况下删除歧视和偏见内容。不过,许多人对此持怀疑态度,认为这种方法可能难以真正奏效。

另一种方法是“鼓励”模型向正确方向发展,通过微调模型或增加奖惩机制来引导其行为。

美国AI公司Pinecone则专注于检索增强生成(RAG)技术,该技术可为大型语言模型提供参考的信息来源,从而提高AI生成答案的准确性。

然而,对于如何根本性地解决AI偏见问题,业界和专家们的共识是:这是一个复杂而艰巨的任务。正如美国机会与正义法律咨询公司主任韦弗所言:“偏见是人类固有的,因此也存在于AI中。”他担心人们可能会陷入一个恶性循环:人类自身偏见影响AI,而AI又反过来强化这些偏见。

在人工智能时代,AI基于从互联网上挖掘的各类信息,帮助各行各业的人们做出越来越多的决策。然而,AI的底层智力在很大程度上取决于其数据源的品质,这些数据可能源于标准不一致的历史数据,也可能源于设计者的个人偏好。数据搜集存在很多技术上的不完善,由此训练出来的AI可能充满智慧、才华和实用性,也可能包含仇恨、偏见和抱怨,进一步反映并延续人类社会中的问题。如果人们不解决社会中的歧视和偏见问题,AI很可能在强化这些错误观念的道路上越走越远。

AI能否消除偏见?答案或许就在于能否从根本上解决人类社会中存在的歧视和偏见。

分享到:

京ICP备19007577号-5