您的位置:首页 >互联网 >

微软在种族主义言论后以 “零寒意” 击落了AI聊天机器人

天哪! 你听说过微软设计的像十几岁女孩一样聊天的人工智能程序吗?在开始发表种族主义,性别歧视和其他冒犯性言论后不到一天,它就被完全下线了。

微软表示,这完全是一些真正卑鄙的人的错,他们发起了 “协调努力”,使名为Tay的聊天机器人 “以不适当的方式做出回应”。一位人工智能专家对此做出了回应: 嗯!

他没那么说。但是计算机科学家克里斯 · 哈蒙德 (Kris Hammond) 确实说: “我不敢相信他们没有看到这种情况。”

微软表示,其研究人员创建了Tay作为一项实验,以了解有关计算机和人类对话的更多信息。在其网站上,该公司表示,该计划的目标受众是18至24岁的观众,“旨在通过随意和有趣的对话吸引和娱乐人们在网上相互联系。”

换句话说,该程序使用了很多俚语,并试图在人们向它发送消息和照片时提供幽默的回应。聊天机器人于周三上线,微软邀请公众在Twitter和其他一些受青少年和年轻人欢迎的消息传递服务上与Tay聊天。

该公司表示: “你和Tay聊天的越多,她就越聪明,这样你的体验就可以更加个性化。”

但是一些用户发现Tay的回答很奇怪,而另一些用户则发现,很难促使Tay做出令人反感的评论,这显然是由包含令人反感的词语的重复问题或陈述引起的。很快,泰伊就同情希特勒,并在社交媒体上引起了轩然大波。

“不幸的是,在上线的前24小时内,我们意识到一些用户滥用Tay的评论技巧,让Tay以不恰当的方式做出回应,做出了协调一致的努力。” 微软在一份声明中说。

尽管该公司没有详细说明,但哈蒙德表示,微软似乎没有做出任何努力来准备对某些单词或主题做出适当的回应。Tay似乎是 “呼叫和响应” 技术的一个版本,Hammond补充说,他在西北大学研究人工智能,也是叙事科学的首席科学家,一家开发计算机程序的公司,将数据转化为叙述性报告。

哈蒙德说: “每个人都说泰伊学到了这一点,或者它变成了种族主义。”“它没有。” 他说,这个项目很可能反映了那些决定看看会发生什么的人告诉它的事情,可能不止一次。

问题在于,微软在网上放开了Tay,许多人认为这是一件有趣的事情,甚至更糟。“对话分析” 专家卡罗琳 · 辛德斯 (Caroline Sinders) 说,该公司应该已经意识到人们会尝试与Tay进行各种对话。他在另一家科技公司的聊天机器人上工作。(她要求不透露身份,因为她没有以官方身份发言。)她称Tay为 “糟糕设计的一个例子”。

Sinders补充说,他没有为该计划如何处理有争议的话题制定一些指导方针,但看来Tay大部分时间都可以从被告知的内容中学习。

“这是机器学习的一个很好的例子,” Sinders说。“这是从投入中学习。这意味着它需要不断的维护。”

辛德斯说,她希望微软能再次发布该程序,但前提是先对其 “做一些工作”。

微软表示正在对Tay进行 “调整”,但没有关于Tay何时会回来的消息。到周四下午,其Twitter帐户上的大多数消息已被删除。

“现在人类需要睡觉,今天有这么多的对话,” 最新的剩余帖子说。

相关推荐

猜你喜欢

特别关注