您的位置:首页 >互联网 >

随着大数据开始促进人工智能的增长,以下是一些针对印度的推荐指南

大数据推动人工智能(AI)创新。由于每个国家的隐私规范程度不同,私人和公共实体在人工智能创新方面收集和利用的大数据量受到了重大影响。在中国,对个人数据的低保护导致了人工智能创新的增加。而在欧洲,随着GDpR的实施,隐私和安全准则的增加,对人工智能部门的增长产生了负面影响。

印度承认需要加强人工智能行动,但需要有针对性的指导方针,将国际原则与现有的当地隐私标准相结合,以实现有效和负责任的人工智能生态系统。人工智能战略的精心策划是强制性的,因为印度目前正在国防、法律和金融部门投资人工智能。例如,联合国全球脉动在其2018年报告中阐述的大数据原则之一是“目的说明”,即在收集数据之前提供收集数据的目的。然而,Srikrishna法官委员会偏离了“目的说明”的概念,并指出,在该组织收集数据后,可能会出现对大数据的二次使用。因此,很难强制要求印度实体具体说明所收集数据的确切目的。

目前,政府还没有具体规定任何指导方针来监管自己或公司,无论是印度还是外国,关于收集大数据和随后的人工智能项目。谷歌在其人工智能原则中明确指出,它将对人们负责,然而,如果人们不知道人工智能项目中数据使用的方法,责任本身的基础就会被侵蚀。私营和公共实体必须制定人工智能行为准则,以下准则试图为发展中的印度人工智能生态系统提供量身定制的大数据准则:

可解释性

将人工智能可解释性工具嵌入人工智能平台,如加州大学伯克利分校和德国马克斯·普朗克信息学研究所的“生成可视化解释”工具,向最终用户解释了决策的理由。这对于人工智能在医疗、法律、金融甚至国防等特定部门的部署至关重要。在特定情况下,类似的嵌入式工具可为私人或公共实体提供避免不断获得同意的能力,以便二次使用大数据(敏感个人数据等例外情况除外),但须得到数据质量控制员的确认。数据质量控制员必须在国家和公司一级参与执行预定义的数据质量参数。此外,可解释性是自主智能系统的必要条件,而不是特定任务的“狭义人工智能”,后者可能涉及到循环中的人。

不同程度的自动化

虽然正在努力实现跨部门和跨国家的完全自主人工智能,但为了确保问责制,必须做出某些例外。如果在对人类生活产生任何可预见的或直接的负面影响之后找到正当理由,那么(上文提到的)可解释性可能不成立。较低的自动化水平将导致这些部门更大的人力控制,从而导致更大的道德责任。随着印度在人工智能领域的发展,关键是根据经过测试的研究和证据,修改授予特定行业的自动化水平。

<iframe src=“https://www.dailymotion.com/embed/video/kf7hplnckjzn9zuejsg”width=“100%”height=“363”></iframe>

大数据质量与风险评估

收集的数据集的数量和质量不能由AI项目的预定义目标决定。对于任何人工智能项目来说,一个基本的必要性是确保收集大量的、无错误和无偏见的数据集。在这方面,国际机构提出的“数据最小化”概念,确保收集的数据被限制在必要的最低限度,是不可取的,尤其是当大数据由3 V定义时:体积,品种和速度。第二,数据质量控制器必须确保为任何人工智能项目收集的数据是广泛和公正的。第三,质量参数和指导方针可能会因每个项目而异,但必须对人工智能项目中使用大数据进行风险评估。在启动人工智能项目之前,如果没有进行风险评估测试,可能会导致个人数据的多次泄露。

对人的好处

根据麦肯锡全球研究所的一份报告,成功采用人工智能可能会提高中国经济的生产率,每年可能为其国内生产总值增长增加0.8%至1.4%。中国在人工智能领域的快速增长,目前共有4040家人工智能初创企业,这归因于国内可获得的大量数据,人们愿意为更大的创新而放弃这些数据。虽然印度的数据隐私规则不同于中国,但如果人们在向实体授予二次使用数据的许可时获得好处,人工智能创新的数据池可能会增加。这可以通过数据库或简单地研究人们分享数据(即,非敏感数据)以换取利益或奖励的意愿来实现。GfK Global进行的一项研究显示,包括中国、俄罗斯和荷兰在内的各国愿意用数据换取利益的人的百分比。一项以印度为中心的研究可能会为政府提供更多的信息,说明人们为了更高的创新而降低隐私规则的意愿,或者反之亦然。

阅读更多: 华为现在希望开发者利用其人工智能能力

上述指导方针是由公共和私人实体提出的监管大数据主导的人工智能空间的方法,这对印度的经济增长至关重要。其目的是重新定义和简化人工智能空间对人们的好处,以便在不损害隐私和道德的情况下收集数据和创新。

相关推荐

猜你喜欢

特别关注