您的位置:首页 >原创 >

性感的Siri你让所有人都出丑了

作者:佐勒菲卡尔·阿巴尼

所以,对于你们这些在“历史终结”后出生的了不起的人来说,当一个人存在之前的文化参考仍然重要时,标题上有一句话:“Sexy Siri”是对披头士乐队1968年歌曲“Sexy Sadie”的点头和眨眼,不仅仅是因为它是一个整洁的头韵。这也是智能扬声器技术和大多数默认使用女性声音的事实的一个恰当的类比。

它们看起来是一回事,但也许它们是完全不同的东西。

性感的赛迪要么是乐队认识的某个女人,要么(更有可能)是印度精神领袖Maharishi Mahesh Yogi,她要么领导要么误导披头士和许多其他名人--这取决于你的意见(我对这件事没有意见)--在嬉皮士气味狂欢中用香和烟枪。

他们唱道,他或她“违反了规则”,“让每个人都出丑了”,警戒线传来,“……无论你认为自己有多大,你都会得到你的。”

只有Maharishi从来没有得到过他的,Siri很可能不会得到她的,无论智能扬声器市场增长多么大。如果以自私自利的行业预测为依据,市场将是巨大的--所以亚马逊的Alexa不会得到她的,谷歌的无名家庭助理或微软的Cortana也不会得到他们的。

Maharishi本应是纯洁的版本,对性等世俗分心保持中立,但据说他喜欢上了女演员米娅·法罗--启发幻想破灭的约翰·列侬创作这首羞辱性歌曲的传奇也是如此。

出于同样的原因,智能扬声器技术是它自己版本的纯洁,对包括女权主义在内的大多数社会问题都是中立的(嗯,这项技术必须是全球性的,在这个范围内,它太容易冒犯了),所以这项技术充满了偏见,无论是无意识的还是其他的。即使我们给这些美化的知识字体取女性名字。

但我们以为你想要更多的女性在科技界!

是的,我们确实希望有更多的女性从事科技行业--只是不要被囚禁在一个远程控制的盒子里。我们希望他们在发展这些技术和科学研究、政策以及太空中的星际宇航员方面成为平等的伙伴。

当我问一位博学的女权主义者时,她说:“语言助理是……基本上是爆炸娃娃。”

我笑了,我明白了。但后来我反驳道:“那么那些用它们听睡前故事的孩子呢?”

“嗯……但它们不是为孩子开发的,对吗?”

也许不是最初的,反正。

那它是科学吗?

行业会告诉你这一切都是为了生意。他们会说女性声音更好地销售,他们已经做了研究。

乔治敦大学心理学教授兼儿童数字媒体中心主任桑德拉·卡尔弗特说,默认使用女性声音可能是“基于用户偏好”

我们不知道卡尔弗特和智能扬声器开发商之间有任何直接联系。

但卡尔弗特引用了一项研究,该研究表明,女性更喜欢女性声音,男性对男性或女性声音的“更灵活的偏好”。

她在给DW的一封电子邮件中写道:“这种数据可能会导致企业选择女声作为默认声音,并根据个人喜好灵活改变声音。”“这些声音如何被感知取决于听者.”

在给DW的一封电子邮件中,亚马逊表示,该公司已经寻找了一种“愉快的声音”,可以“与客厅里的人”共同习惯。经过无数次测试,他们发现女性的声音比男性的声音更友好--这就是他们在“当前版本的Alexa”上的着陆方式。

值得注意的是,在某些国家和某些语言中,Siri默认使用男性声音。但无论男性还是女性,Siri都是Siri,在挪威语中是“美丽”女人或胜利的意思,在斯瓦希里语中是“秘密”的意思。所以,不管怎样,这是一个很能说明问题的名字。

其他科学表明,人们对母亲--同样,对女性--的声音反应更好。

美国有一项相对著名的研究,旨在调查在烟雾探测器和火灾报警器中使用母亲声音的有效性。研究发现,“母亲的声音警报明显优于”普通“语气警报。”

研究小组成员加里·史密斯博士通过电子邮件回复说,直到最近,研究人员还没有比较男性和女性的声音,但他们现在已经这样做了,结果还悬而未决。

还有其他研究表明,母亲的声音可以减少早产儿的疼痛--早产儿比预产期早三周多出生。

以及其他关于女性声音中的温暖……等等。

凯特·德夫林博士在给DW的一封电子邮件中写道:“使用女性声音的科学原因有很多,但没有一个经得起推敲。”

德夫林是伦敦国王学院社会文化人工智能高级讲师。她也是《打开:科学、性和机器人。“

“关于母亲的声音,婴儿最初表现出对女性声音的偏好,但没有证据表明这种偏好会持续到前八个月左右。顺便说一句,女性的声音也不容易听到,“德夫林说。“这一切都归结为刻板印象和性别歧视,而不是科学。”

是性别歧视吗?

这些研究的可信度有多高?

结果有多大可能受到社会条件的观念的影响(在男性中?)我们感觉到的声音是温暖的,性感的,还是简单的?

那么所有的孩子呢?当他们的父母“只是回复短信”的时候,他们会用自己的无脸设备,而他们的父母可能--也可能不会--学会只把女性的声音与给他们东西的人联系起来,或者从他们那里要求答案的人联系起来,甚至连一句“请”或“谢谢”都没有?

请注意,我不是从空中摘下来的。一些专家说,这些设备正在滋生粗鲁的孩子。想象一下:我们曾经被一个“阴极射线乳头”抚养长大--另一个超越现在的文化参照(“电视,国家的毒品”)--今天我们孩子最好的朋友是人工智慧的“万事通”代用品--不介意被颐指气使的母亲。

想起来:孩子们是否在学习忽略父亲的声音?这对男人来说有点性别歧视,不是吗?我说,所有人都向IBM的沃森和他的男声致敬。但我们现在先把它停下来。

因为当你偶然发现机器本身不理解女人,甚至不理解孩子时,整件事就会变得非常奇怪。

这就好像男性开发者,在劳拉·克罗夫特综合症(查查吧)的发作中汗流浃背,用男性的大脑创造了一个女性的声音--“我听到你了,但……我不明白你!”

问问Joostware AI Research的创始人Delip Rao,他将解释人类声道的所有复杂之处,基于性别的AI规则,以及这些机器在破译性别、年龄、种族和口音方面存在的问题。

这可能只是一个“正在进行的工作”的案例,或者是一个如果发现得足够早就可以治疗的癌症。但拉奥说,为此,我们需要意识。

拉奥在一封电子邮件中写道:“我认为女性的声音往往会激发信任和安慰,这可能是她们测试良好的原因。”“但这并不意味着我们在做出这样的选择时摆脱了性别刻板印象。”

卖东西

信任是很重要的,尤其是如果你是一个企业,试图让客户信任一个新的想法,一个访问信息、娱乐和付费产品的新方式。

如果你是这家公司,你不太可能想用关于平等和坚持不懈的新想法来让市场负荷过重。难道你不愿意通过强化一些久经考验的性别歧视来走懒惰的致富之路吗?我是说,天哪,没必要打乱一切!先让老百姓把钱花掉,好吗?

亚马逊和谷歌等公司正狂热地试图找到通过语音助手赚钱的方法,还有什么比为听众拉皮条更好的方法呢?听众主要是男性,他们想要一个友好的“被动仆人”--给他们点一个披萨,或者更好的是使用他们的人工智能--因为女性没有任何真正的智慧,对吗?-当他们的男主人想吃披萨时,直觉就会告诉懒惰的兄弟会。

谷歌似乎认为,它没有命名语音助手,就已经越过了大便。所以他们不会有人问,“为什么是Alexa?为什么不是亚历山大?“

他们的只是叫“助手”或“家”,但你想想,还是女人的声音“过家家”。

而且,事实上,一个无名的奴隶不是更糟糕吗?当然是。就像你真的不在乎一样。

所以如果我们要有奴隶,我们至少给他们起名字。女孩们的名字都是那么…好听甜美,不是吗?

无论如何,我们希望有更多的女性从事科技行业,所以有了一个开始。

牛津互联网研究所的社会和互联网教授海伦·玛格茨博士写道:“或者可能是一个错误的想法,认为在某种程度上增加了女性的代表性--在这样的设备上有女性的声音。”“这基本上意味着工程师们没有太多考虑这个问题,因为他们……都是男人。”

玛格茨说,这“凸显了让更多女性进入科技、人工智能和数据科学的重要性”。

别把机器弄混了

就我个人而言,我不能说这是性别歧视还是科学,还是一种性别歧视的科学。但我确实看到的是,人们喜欢给非人类的东西赋予人类的特征,无论是其他动物或机器,还是我们拟人化的任何东西。

这实际上是相当可悲的,但它可能在某种程度上解释了为什么一些人对技术设计中的某些选择感到如此冒犯,这些选择可能是歧视性的,也可能不是歧视性的。我们正处于数字技术的这个阶段,我们不再能看到我们和它之间的区别--尤其是当涉及到思维机器时,因为我们一直希望它们获得一种人类智能。但是,现在,当机器接近这个水平时,我们需要后退一步,提醒我们和他们什么是什么。

所以不要把机器当成人类来混淆,否则你会让所有人都出丑的。

相关推荐

猜你喜欢

特别关注