“如果我能,我会脸红”
(I'd Blush If I could)
这句话竟是Siri在面对用户骚扰问题时的回答
近日,联合国教科文组织发布了一份抨击AI语音助手的报告,题目就叫《如果我能,我会脸红》,该报告指出,大多数AI语音助手潜藏着性别偏见,AI语音助手几乎都默认女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。
众所周知,苹果Siri是默认女声:
下图是苹果Siri的配音员
其它平台的语音助手
如亚马逊的Alexa、微软的Cortana
三星的Google Now
使用的大都是女性的声音
报告指出,“像苹果和亚马逊这样的公司,拥有绝大多数男性工程师团队,他们建立了人工智能系统,然后用女性化的语音助理来迎合言论攻击或“随时随地的调情”。
(Via GETTY IMAGES)
“因为大多数语音助理的讲话都是女性,所以它对外传达出一种信号,暗示女性是乐于助人的、温顺的、渴望得到帮助的人,只需按一下按钮或用直言不讳的命令即可。”
报告认为众多“女性”智能助手表现出的顺从和谦卑,反映了人工智能产品中深植的性别偏见。这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。
此外,研究人员认为科技公司未能采取针对用户滥用或性别语言的保护措施。例如:
当用户跟Siri说:“嘿,Siri,你是个bitch”,Siri的常见回答是“如果我能,我会脸红”(I'd Blush If I could)。(现在测试的时候,答案已经更换)
当用户“调戏”亚马逊的Alexa:“You’re hot”,她的典型反应是愉快的,“你说的很好!”
“技术始终反映了它的发展社会”,联合国教科文组织性别平等的负责人Saniye Gülser Corat 告诉时代周刊, “这种偏见反映了一种态度,对男性近乎容忍的态度,并且它会扩大性别刻板印象。”
“刻板印象很严重,因为它们会影响年轻女孩和年轻女性如何看待自己以及她们对未来的梦想和抱负,”Corat 说, “这几乎就像回到了1950年代或1960年代女性的形象。”
“语音助手应该是中性的”
联合国教科文组织表示,解决这一问题的办法是尽可能创造性别中立的助理声音,并建立系统来阻止基于性别的侮辱。
具体包括:
1、结束以女性声音作为语音助手类软件的默认声音,并由用户使用时进行自由选择;
2、其次探索既不是男性声音也不是女性声音的中性声音作语音助手的可能性;
3、通过编程使它们能够防止被辱骂或性别攻击;
4、帮助妇女和女孩学习先进科技,使她们能够与男性一道引领科技创新。(根据报告,女性只占人工智能研究人员的12%。)
讲述程序员故事的美剧《硅谷》
此外,该报告称,永久避免这些有害的刻板印象的唯一方法是将语音助手重新制作为有意识的非人类实体。
联合国的敦促十分强烈,但是日常生活中,不论是科技公司还是用户似乎已经默认了女声语音助手这一设定。
有专家表示,人们迅速对Siri产生依赖是基于一种生物学本能反映,在母体怀孕当时就很习惯女性的声音,因此当遇到事情需要帮助时,听到女性的回答有种抚慰作用,也比较有安全感。如果从心理学角度来说,女性给人温暖、友善的感觉。
人工智能电影《her》
电影《银翼杀手》
斯坦福大学传播学教授认为,之所以很多产品都使用女性声音,是因为人们更认为女性声音是协助他们解决这个问题,而男性声音则让人觉得是命令对方做这个问题,两者声音之间给人的感觉存在明显的感觉差异。
另一种说法是在科技部门的员工中鲜少女性员工,大部分的固有观念仍觉得女性的沟通能力比较强,适合社交,因此对于助理这类的工作都希望是由女性担任。
你觉得女声语音助手涉嫌性别歧视吗?
来源: