您的位置:首页 >电信 >

揭开AI的神秘面纱: 管理人工智能中的风险并实现其真正的潜力

作者: 拉维·梅塔,合伙人; 苏迪。H,副总监; Akshay Kumar和prashant Kumar,均为高级顾问; 德勤印度

2004好莱坞电影《我,机器人》中有一个非常强大的场景,其中一个高度智能的机器人试图在车祸现场挽救两个生命。按照逻辑和生存几率,这个机器人救了一名警察,让一个12岁的女孩淹死。电影中的主角,顺便说一句,机器人拯救了同一个警察,认为他本可以拯救自己,一个人类 (不是机器人) 会照顾孩子并拯救她,这是机器人在逻辑上排除的。正如这个虚构的故事所强调的那样,人工智能的使用存在风险,任何强大的新兴技术都可以预期这一点。因此,有必要采取良好的平衡措施,以最大程度地减少这些风险的可能性,并利用AI的有益功能。数据质量和隐私问题是与人工智能计划相关的风险的两个主要原因 (德勤 (Deloitte) 进行的一项调查中,21% 的受访者强调这些是人工智能实施的最大障碍)。本文试图探讨有效管理人工智能使用风险的三种方法。这些方法是- (1) 人工智能在中心 (2) 人类在中心 (3) 人工智能和人类在一起。

人工智能在中心: 在这种方法中,人工智能被赋予充分的权力来推荐或实施特定的行动方案,而无需人类用户的任何干预或超越。这种方法通常在错误的含义很低的用例或应用程序中很有用。这方面的一个示例是基于用户的阅读模式/偏好推荐书籍的AI算法,或者基于他/她的位置、食物偏好和客户评论向客户推荐潜在餐馆的AI算法。在这两种情况下,人工智能交付的错误不会导致对用户的重大负面影响,因此没有 (或非常有限) 需要人工智能的输出进行验证或验证。

中心的人类: 在这种方法中,人类扮演着关键角色,并拥有根据AI引擎的输入和建议做出决策和决定未来行动方向的全部权力。当需要对情况有背景和判断的观点,并且犯错误的含义很高时,通常会采取这种方法。例如,在AI辅助医疗诊断中,合格的医疗专业人员会验证AI引擎提供的输入,并根据患者的病史,当前的身体和精神状况得出结论。这种方法避免了由于AI引擎缺乏足够的上下文信息而得出错误的结论。

人工智能和人类在一起: 这种方法要求人类和AI与人类一起在过程中改变输入参数,以使AI引擎达到最佳结果。人类和人工智能都在密切协作和相互配合的情况下工作,由于人类的存在和控制,与结果出错相关的任何风险都得到缓解。这种方法的一个例子是GpS导航系统。

虽然在人工智能计划中有三种管理风险的原则方法,但关键的决策是为正确的实施用例确定正确的风险缓解策略。为了有效地做出此决定,我们提出了一个框架来评估两个杠杆上的每个用例或场景-风险发生的概率与风险影响的严重程度。这将有助于绘制四个不同象限的用例/场景,并决定识别和最小化风险的最佳方法。例如,这两个杠杆都具有高值的使用情况需要较高的人类参与,因此可以在那里考虑 “中心的人类” 方法 (类似地,在这些情况下,“中心的人工智能” 方法可以是一个可行的选择。这些值都很低)。

大多数组织可能知道AI实施是一个充满挑战的旅程。然而,许多组织很快发现,同样具有挑战性的是在与人工智能解决方案相关的风险和收益之间保持完美的平衡。通过正确的方法来识别,最小化和减轻风险,组织可以以正确的方式实施AI并实现其最佳收益 (并希望在具有挑战性和快速发展的情况下做出正确的选择,类似于电影 “我,机器人” 中的主角发现自己的选择)。

相关推荐

猜你喜欢

特别关注