您的位置:首页 >要闻 >

Google承诺不将人工智能用于武器或监视

Google周四承诺,它将不会在与武器,违反国际规范的监视或违反人权的方式有关的应用中使用人工智能。几天后,它就在使用人工智能时树立了道德旗帜,确认不会与美国军方续签使用人工智能技术分析无人机镜头的合同。

谷歌首席执行官桑达尔·皮查伊 (Sundar pichai) 在一篇博客文章中阐述了这些原则,该公司致力于构建 “对社会有益” 的人工智能应用程序,避免制造或强化偏见,并对人们负责。

多年来,这家搜索巨头一直在围绕这些道德问题制定一系列政策,但最终以书面形式提出。除了公开这些原则外,pichai没有具体说明Google或其母公司Alphabet将如何对遵守这些原则负责。他还表示,谷歌将继续与政府和军方合作,处理涉及退伍军人医疗保健和搜救等非战斗应用。

“这种方法与我们最初创始人回信2004年中提出的价值观是一致的,” 皮查伊写道,他引用了拉里·佩奇和谢尔盖·布林的文件,其中阐述了他们对公司 “组织世界信息并使其普遍可访问和有用” 的愿景。

皮查伊说,最新的原则有助于它从长远的角度来看,“即使这意味着要做出短期的权衡。”

这份文件还包含了人工智能系统工作方式的 “相关解释”,为推出Duplex奠定了基础,Duplex是一种听起来像人的数字礼宾服务,在5月份的谷歌开发者大会上与人类接待员预约了约会。

一些伦理学家担心,呼叫接收者可能会被欺骗以为机器人是人类。谷歌曾表示,双工将标识自己,这样就不会发生。

其他领导AI竞赛的公司也在努力解决道德问题-包括苹果,亚马逊,Facebook,IBM和微软,它们与Google组成了一个名为 “AI合作伙伴关系” 的组织。

合作伙伴关系负责人Terah Lyons表示,确保公众参与对话很重要。

在周二的麻省理工学院技术会议上,微软总裁布拉德·史密斯 (Brad Smith) 甚至对政府监管表示欢迎,他说,“从根本上来说,人工智能不应该独自留给开发者或私营部门”。

Google与美国国防部的项目专家受到公司员工的抨击,他们担心公司的发展方向。

一位公司高管本周告诉员工,该计划在2019年结束后到期后将不会续签。谷歌希望与五角大楼就如何在不违反周四概述的原则的情况下履行合同义务进行谈判。

国际机器人武器控制委员会副主席彼得·阿萨罗 (peter Asaro) 本周表示,谷歌退出该项目是个好消息,因为它减缓了潜在的人工智能在自主武器系统上的军备竞赛。更重要的是,让合同到期是Google商业模式的基础,该商业模式依赖于收集大量用户数据。

他说: “他们是一家非常了解自己在公众意识中的形象的公司。”“他们希望人们信任他们,并以他们的数据信任他们。”

相关推荐

猜你喜欢

特别关注