本杰明·富兰克林曾经说过:“如果你没有计划,你计划失败。”1但计划失败可以让人不舒服,它把他们避免谈论失败,而不是把失败视为一个机遇。这个网站使案件的理解和分享信息关于人工智能(AI)失败可以为更好的预防提供经验,期待,或者减轻未来的失败。
这些经验来自自动化技术的一个更全面的视图。这些技术不仅仅是独立的部件;他们是一个复杂的生态系统的一部分,与人类行为和影响,决策、偏好、策略,在有益的生活方式,有时少有益的,方式。
“AI失败”角度提出了转变:我们应该衡量成功的一个人工智能系统,它对人类的影响,而不是优先考虑其数学和经济属性(例如,准确性、误警率或效率)。这种转变有可能赋予神奇的开发和部署以及负责任的人工智能。
所以请深入和探索。以下6类每个包含几种类型的失败,以及经验教训适用于失败。此外,所有的经验都可以发现7号通过点击图标。如果你想要更多的上下文,阅读这个网站是如何定义“人工智能”和“我们”,和一个大纲的关键课程,滚动下面的图标。
人工智能的崇拜: |
你称之为“智能”吗? |
把柠檬变成回流: |
我们还没有完成: |
发射失败: |
AI注册表: |
经验教训 |
艾未未的平衡:神奇的可能性和潜在危害
这些技术的最先进的人工智能——不仅仅是新兴无处不在,它正在迅速融入人们的生活。2018年国防部人工智能策略提供了一个很好的思考方式AI:仅仅是“机器执行任务的能力,通常需要人工智慧。”2
人工智能已经非常有价值的应用程序,例如当承诺一个人的对话翻译成另一种语言,3更准确地诊断和提出治疗病人,4或者照顾老人。5在这些情况下,每个人都能热情地接受人工智能。
然而,当有报道称,个人可以通过伪造microtargeted信息影响选举的选择,6质量监控导致监禁和抑制人口,7,8日,9或者自动驾驶汽车造成死亡,10人们意识到AI会导致真正的伤害。在这些情况下,对人工智能的必然性可以引起恐惧。作为人工智能开发人员和部署人员,我们的经验和观察连续体的两个极端,和介于两者之间的。
拥抱和学习的艾未未的深厚的历史
这个网站在很大程度上吸引了数十年的研究和专业知识,特别是在领域失败的代价足够高(例如,军事和航空),人为因素和人机合作已经彻底分析和研究结果集成到系统开发。虽然许多这些失败和教训适用于超过AI,集体他们代表了系统性AI开发者和从业者所面临的挑战。
此外,人工智能完全不同于其他技术在几个方面,值得注意的是,1)决策并不是静态的,由于数据和模型更新版本,和2)模型并不总是有解释,这意味着即使设计师可能不知道什么因素影响甚至决定决策。
AI也从根本上不同的方式与人类,因为1)技术是新的足够大多数人,他们可以(已经)的影响比他们应该更信任一个人工智能系统,和2)达到足够庞大,一个人工智能与一个编程目的可以扩展影响人类决定在全球层面。
在这个网站上,从以前的“人工智能”一词包含功能和通常更简单的版本的自动化技术的课程仍然适用,通过更复杂的人工智能方法,一些的课程是相对较新,未解决。
关于人工智能关键教训以人为中心的心态
1。人工智能发展是一个多学科的问题。人工智能的挑战和产品技术或基于人类行为,通常是一个混合的两个。通过包括多学科的视角,我们可以更清楚地表达设计不同优先级和之间的权衡的结果。然后整个团队可以努力拥有人工智能的人类和技术方面加强,而不是干扰对方。
2。人工智能应用程序影响的不仅仅是终端用户。输入从利益相关者必须帮助我们结构采用人工智能的目标增加和减少潜在的不良后果。我们需要涉及最终用户、领域专家和社区受到人工智能的影响,早期和反复。这些利益相关者也可以提供社会和政治环境领域,人工智能的操作,并且可以分享信息关于以前曾试图解决他们问题的表现。采用客户心态,所有涉众都将帮助我们与他们所有的目标和设计创造资源给他们他们需要的环境和工具使用AI成功。
3所示。我们假设形状的人工智能。没有所谓的中立、公正、客观的人工智能。我们对数据的基本假设、模型、用户行为和环境影响人工智能的目标和结果。我们应该记住这些假设源于自己的,经常的潜意识,社会价值观,一个人工智能系统可以无意中复制和编码这些价值观付诸实践时,人工智能部署。鉴于目前的人工智能发展的劳动力,往往这些值代表多么年轻,白色,技术上的,西方男人与世界互动,和不均匀的组织,无论其特征,可以反映优先级的全谱,考虑所有可能的系统用户。为了解决这个问题,我们应该争取多样性在队友的经历和背景,能够响应当队友或利益相关者提出问题,并提供文档假设进入人工智能系统。
4所示。文档可以减少未来失败的关键工具。当我们做一个好的产品,终端用户和消费者想要使用它,和其他人工智能开发人员可能要重新为自己的域。适当和安全,他们需要知道使用AI的我们没有意愿,设计权衡我们考虑和行动,我们识别和应对风险。因此,最初的开发人员需要抓住他们的假设和权衡决策,和组织的发展过程促进积极的和正在进行的推广。
5。问责制必须与人工智能的影响。当使用数据或AI可能导致金融、心理、身体、或其他伤害,我们必须考虑如果AI提供给定问题的最佳解决方案。除了我们的善意和伦理价值的承诺,监督、问责制、和执行机制会导致道德的结果。这些机制不应该等同于过度标准化或阻碍科技发展的政策。相反,他们应该鼓励积极的方法来实现前面的教训。越AI应用程序可能会影响人们的行为和生活,需要更加谨慎的考虑和治理。
增加你的经验!这个网站应该是社区资源,将受益于你的例子和声音。你可以写信给我们通过点击在这里。
