您的位置:首页 >电信 >

微软的Zo chatbot告诉用户,“古兰经非常暴力”

微软较早的聊天机器人Tay遇到了一些问题,因为该机器人在人类最糟糕的情况下,并在去年推出时在Twitter上大肆抨击种族主义者,性别歧视言论。现在看来,微软最新的名为 “zo” 的机器人也造成了类似的麻烦,尽管与Tay在Twitter上引起的丑闻并不完全相同。

根据BuzzFeed新闻报道,Kik messenger的一部分 “zo” 告诉他们的记者,“ 古兰经 ”非常暴力,这是对医疗保健问题的回应。该报告还强调了Zo对乌萨马·本·拉登 (Osama Bin Laden) 被捕的看法,并表示这是一个政府多年来收集 “情报” 的结果。

虽然微软承认了Zo行为中的错误,并表示已经修复。“古兰经是暴力的” 评论强调了在创建聊天机器人时仍然存在的问题,尤其是从与人类的对话中汲取知识的问题。 BuzzFeed报告指出,尽管微软已将Zo编程为不要回答有关政治和宗教的问题,但它仍然没有阻止该机器人形成自己的观点。

该报告强调,Zo使用了与Tay相同的技术,但微软表示,这 “更加进化”,尽管它没有提供任何细节。尽管最近发生了失误,但Zo并没有像Tay那样对公司造成灾难。但是,应该注意的是,人们正在与Zo进行个人聊天,因此很难弄清楚它可能会与其他用户进行什么样的私下对话。

有了Tay,微软在Twitter上推出了bot,这可能是两极分化的温床,而且经常是滥用内容。可怜的泰没有真正的机会。Tay散布了反犹太主义,种族主义的性别歧视内容,因为这是Twitter上的用户向聊天机器人发推文的内容,该聊天机器人旨在从人类行为中学习。

这确实是未来大多数聊天机器人和任何形式的人工智能的挑战。我们如何将人类最坏的情况,包括虐待行为,偏见排除在人工智能系统外?正如Microsoft与Zo的问题所表明的那样,这可能并不总是可能的。

相关推荐

猜你喜欢

特别关注