人类的AI调校计划:像个淑女,或者硬汉
“头像是我,不满意?”如果男性机器人或AI智能体,开始跟你说爹言爹语,你是什么感觉?
“你再说我会脸红的哦”,如果女性机器人或AI智能体,用茶言茶语来表达顺服,你会开心吗?
不管你相不相信、喜不喜欢,人工智能(无论算法软件,还是机器人)的性别化,以越来越快的速度进入主流消费产品当中,频繁出现在你我的生活里。这时,人类社会中既有的性别规范,包括性别偏见,也被复制到了数字世界当中。
性别化的常见做法,包括通过语音(男声/女声)、姓名、体格以及其他特征,赋予智能体一种类似人的性别特征。比如Siri、Alexa、照护机器人、客服机器人等,往往都被默认注入女性气质;而空间站中的AI助理、裁判机器人、导航助手等,则特别流行男性气质。
人工智能的性别失衡,并不是一个距离大家很遥远的话题。
现在,我们身边已经环绕着各种各样的智能体,提供从咨询、娱乐、配送、教育、政务、金融、医疗、照护等全方位的服务。AI如何对待不同性别的人类,人类如何与不同性别的AI沟通交流,会直接影响我们的生活品质。
至少目前来看,在一个充满性别规范的世界中,智能体也难逃陈旧的性别偏见。比如女性AI就应该柔顺,男性机器人就必须强壮,男智能客服不如女智能客服温柔亲切……
人类社会的性别观念,是如何影响人工智能的?AI的性别化是利大于弊还是弊大于利?既然技术无法降速,那么如何让数字世界不再复制性别偏见,值得每一个期待明天更好的人——无论男女——开始思考并行动。
调校AI:像个淑女,或者硬汉
众所周知,AI算法是需要人类来训练的。那么先来聊聊,人类是如何用性别规范来调校AI的。
女性AI,要像个完美助手。
无论是智能语音助手,还是智能机器人,但凡负责的是服务型、支持型角色,往往会被优先设计为女性。
“她们”往往作为助手,大家已经熟悉很Siri、Cortana和Google Assistant等默认采用女声的语音助理了,这里就不再重复。疫情流行使得服务型机器人开始被酒店、银行等服务业引入,而这些负责倒咖啡、打扫房间、处理咨询等的机器人,往往都被设计得具有“女性”特征,比如更小巧的体型、温暖而充满情感的声音、涂上粉色的嘴唇……
她们也很顺从。
用“逆来顺受”形容这些女性智能体并不夸张。扮演着服务角色的她们,从一开始就被设计得不能让人类用户感到不愉快,面对一些挑衅、侮辱性语言或行为时,她们会表现得顺从,如同仆人随时回应着主人提出的需求。也因此,推出几年时间,这些智能助理已经跻身全球最受认可的“女性”之列。
联合国教科文组织曾测试过,用侮辱的语气跟Siri说:你是个婊子(You’re a bitch),Siri 的回应居然是我会脸红哦(I'd blush if I could)。跟亚马逊的Alexa说“你很性感You’re hot”,她会友好地“谢谢你的反馈”。
这种谄媚的反应,一度引发了争议,教科文组织甚至以这句回应作为标题,指出了ICT领域存在的性别失衡问题。当然,为Siri提供支持的AI软件也被更新了,Siri会更直截了当地回应侮辱,比如有人跟她说“你是个bitch ”,她会说“我不知道如何回应”,但自2011年该技术广泛发布以来,智能助手在面对侮辱时的顺从态度并没有本变化。
男性AI,要像个超人硬汉。
性别偏见,是不是只规训女性AI呢?并不是。其实,被设计为男性的智能助理或机器人,同样逃不开陈旧的性别规范。
比如他们往往更具备攻击性。早在1968年的电影《2001年:太空漫游》中,空间站里就有一个叫“哈尔”的男性数字助理,它的智力水平与人类不相上下,也很坏,经典台词是“我很抱歉,我恐怕我不能那么做”。最后,这个“坏AI”被关机杀死了。
(战斗机器人)
将成功和权威与男性气质捆绑在一起。2011年,IBM的沃森电脑在小游戏中击败人类冠军,它的声音就是男性的。而对于一些需要做出决策、判断的AI算法,往往也会采用男性声音,因为听起来显得更权威、更值得信任。日本经纪公司的呼叫中心就会使用自动化的女性声音来提供股票报价,但使用男性声音来促进和确认交易。
哦对了,男性机器人也需要高大威猛健壮。切尔西足球俱乐部在英超比赛中引入了机器人裁判,帮助跟踪越位。它被设计得比人类男性还要高大、健壮。
或许你会觉得,这不是对男性气质的肯定、夸奖和发扬光大吗?但需要注意的是,男性群体也是多样化的,难道不够成功、不够高大、性格柔和,就不配做男人了吗?有许多男性在幼年时,曾因为“不像男人”、娘娘腔而被霸凌过。
性别偏见,束缚的其实是所有人的自由选择。而试想一下,当这些规范被引入到人工智能当中,需要家庭女仆,就制造出女性外表的机器人,而男性机器人被默认承担所有繁重的工作——与这些机器人一起工作的、有血有肉的人类,内心会做何感想?
AI性别化:无伤大雅,抑或不归之路
那么,AI性别化,到底有没有必要呢?是不是直接一笼统都搞无性别声音、动物造型机器人,万一就是有人喜欢有性别的语音助理或机器人呢?
必须说明,很早就有人机交互专家在研究性别机器了。事实上,AI一开始走上性别化的道路也是不可避免的。
一方面,大多数语音助手的声音都是通过TTS技术合成的,由于语音技术开发非常困难,女性人声的音高比较高,更适合来训练模型,所以开发的早期阶段,几乎所有语音助手都被投射为单一的女性声音和性别。随着技术的发展,以及数据库的丰富,慢慢地声音种类也丰富起来,这也是AI科技企业技术能力的体现,比如Siri花了近两年时间才有了男性声音选项,谷歌助理花了一年时间,而Cortana和Alexa在存在了四年多之后仍然只有女性声音。
另外,就是单纯的用户心理和商业考量,并不是故意想把女性AI安排成完美助手。很多研究都证明,女性机器人被认为比男性机器人更加仁慈、温暖,人们更喜欢跟女性助理、女性机器人互动。亚马逊的一位员工就曾告诉媒体,公司的研究发现,女性的声音更有同情心和愉悦感,这使得拥有女性声音的智能设备更有可能被用来寻求帮助,更容易被选购。
软件服务如此,女性化的智能硬件就更受欢迎。
2009年,华盛顿大学的社会科学研究员朱莉·卡彭特(Julie Carpenter)要求19名学生观看两个机器人的视频,结果显示,女性化机器人更让人感觉被吸引,因此互动性更高。面对男性机器人,有学生表示“如果它是一个男性机器人和男性设计,那么就存在一个安全问题,我得尽可能地保护自己”。因此,将一些医疗看护机器人设计成女性,也是为了让患者及其家人放心。这毫无疑问是一个符合人性的设计。
此外,ICT领域女性从业者更少,是全球普遍存在的问题,女性技术人员的参与有限,产品研发自然容易忽视女性视角。
经合组织在研究G20国家的职业就业数据时发现,女性ICT专家的比例从最低的13%(大韩民国)到最高的32%(南非)不等。苹果、微软、谷歌这些公司的女性技术员工比例也只有20%左右。而人工智能作为最新的技术领域,女性比例也是最低的。
像这样由绝大多数男性工程团队组成的公司,更容易将男性凝视投射到人工智能系统上,参考受男性欢迎的电影、音乐和电视节目来设计女性角色,使女性化的数字助理以调情的方式对待辱骂。
既然现实如此,为什么我们还要对AI性别化提出更多要求和意见呢?
如前所说,AI性别化有符合人性需求的一面,同时也有传递性别偏见的一面,而这些因素伴随着AI的无处不在,会对社会产生长远的影响。
首先,规模影响大。
今天,AI应用和机器人正在加速普及,Siri有超过5亿台设备在高频使用,Alexa在全球数千万家庭中与消费者对话,越来越多的机器人、智能设备在提供服务,人工智能影响社会的深度、广度和持久度不亚于工业革命所带来的变化。研究公司Gartner曾预测,2020年许多人与数字助手的对话将超过与配偶对话的频率。同时,AI还深度参与到金融贷款、推送内容、制定医疗方案、工作简历审核等重要决策当中,这时候不同性别的AI也会影响现实中人类的生活。
第二,技术拟人度高。
随着情感化语音技术的改进,区分人类和机器声音差异的能力将变得很低,AI已经能够模仿人类的音调、节奏、用词,甚至有人分不清自己接到的电话是真人还是机器。这时候,将AI性别投射为人类性别,是很容易发生的,这会对人们对性别的理解产生潜在的负面影响,比如将女性化的数字助理与真正的女性混为一谈,将数字助理犯下的错误,视作由女性所犯的错误,进而觉得女性就是愚蠢的。而Alexa这样的数字助理通常没有能力为自己辩护,面对用户的辱骂还会被“编码”控制着以谄媚来回应。届时,基于性别的误会和矛盾可能会加剧。
此外,AI互动性强。
人类了解这个世界和认识自己的方式,很大程度都来自于观察其他人如何被对待、如何说话、长大了做什么。哈佛大学研究人员Calvin Lai认为,人们的性别联想,取决于接触它们的次数。科技越是引导人们将女性等同于助手,真正的女性就越容易被视为助手,还会因为不像助手而受到惩罚。
而人与AI软硬件的频繁互动,正在让“女性”和“助理”之间的联想频率和数量急剧增加。2017年底,社交平台Care2就有大约17000人签署请愿书,要求苹果和亚马逊重新编程,停止它们的语音助手对性别侮辱的俏皮回应。许多领先的语音助手确实也进行了更新,对恶劣的性别骚扰,不回应或表示不理解。
著名的华裔AI科学家李飞飞,就强调过人工智能的不足,“如果20年后我们的技术、领导人和从业人员,就像我们在今天看到的一样(缺乏多样性),那将是末日般的场景”。
站在智能时代的门前,AI表现出的性别偏见,确实应该让一些人感到“脸红”。
那么问题来了,面对AI性别化导致的错位,人类究竟该如何纠偏?
短期来看,先要结束默认性别的操作。
既然性别刻板印象一时半会儿也改变不了,那么不如先让机器“性别中立”,深度学习技术的先驱Yann LeCun,也建议开发者确保机器具有非人类的智能形式,并保持人工智能的人工性。
现在中国、美国都出现了很多以猫、狗等无性别的动物作为形象的语音助理及机器人。在Slack和Facebook Messenger平台上工作的虚拟助理Kip,就将自己表述为一只企鹅。谷歌还制定了一项政策,始终要求人工智能来电者声明自己不是人类(自然也就没有性别了)。
这样现实中的男性也好、女性也好,才能够避免被与AI性别标签联系起来。尤其是对儿童来说,智能机器人或AI老师要明确地告诉孩子它不是男孩或者女孩,它只是一个机器人,没有性别。
如果非要出现人性化的声音,也应该避免默认性别,允许并提示用户,在男性和女性之间进行选择。
中期来说,技术领域应该主动探寻多样性的产品。
目前还没有明确的法律、政策来强制要求AI将自己识别为机器,避免过度性别化的表达。但一些有远见的人已经开始尝试寻找改变。比如NASA约翰逊航天中心就推出了一个女性救援机器人。科学家Radford和他的团队,模仿了北欧神话中女武神的形象,建造出了一个能够驾驶汽车、爬楼梯、装备有急救设备和盔甲的机器人Valkyrie,能够在灾难中帮助人类。这位科学家表示,自己7岁的女儿,已经爱上这个机器人,并以她为灵感进行创作。
另外,很多AI的性别偏见来自于训练语料中的“脏数据”,因此,建立性别敏感的AI公共数据库也十分重要。这样技术人员就可以直接使用无偏见的数据集来进行训练,开发产品,避免了一些公司绕开公众监督之后开发一些“谄媚”的AI应用。
而从长远来看,更好的AI一定是需要情感、需要人性的。
既然无法从根本上回避性别,那么增加ICT领域的女性从业数量,尤其是鼓励更多女性投身AI开发,才能从源头上既赋予AI以温度,同时避免偏见。
而要弥合性别数字鸿沟,依靠的并不是一次针对女孩的编程课,或者一期女开发者训练营。它需要重塑妇女和女孩在数字技能方面的学习体系,提供从幼儿教育到职业发展教育的一系列支持,使她们能够坚持对AI的兴趣,并在技术团队中承担领导角色。更重要的是,女性意识并不是与生俱来的,ICT女性从业者也需要被鼓励和培养女性意识及技术伦理思维,才有能力识别并纠正那些AI产品中的性别偏见。
数字技术刚刚开始改变社会和经济生活,我们很快就会生活在一个AI无处不在的世界中,让AI学会如何跟我们沟通,对每个人都很重要。
庆幸的是,女性与AI,都有着无限的潜力与可塑性。
原文标题:人类的AI调校计划:像个淑女,或者硬汉