数据越多,AI决策模型越脆弱( 二 )


对于上述问题 , 仅使用单一数据源是无法解决的 。如果有攻击者试图往模型、系统中注入“错误” , 那么这些问题更不可能解决了 。
【数据越多,AI决策模型越脆弱】AI虽然创造了新机会 , 但我们也不能忽略它的脆弱性 。换句话说 , AI带来新解决方案的同时 , 也发明了新攻击方法 。例如Deepfake、卫星数据的“位置欺骗”等 。这些“有毒”技术正在和“良善”技术一起进步 。
当前的AI系统完全依赖数据质量 , 虽然技术已经比较成熟 , 但这种设计方案极易受到攻击 。因此在这种情况下 , AI系统必须被设计成能够灵活应对不良数据的模型 。让 AI“反脆弱”是一种抵御攻击风险的方式 。
什么是反脆弱人工智能?
数据越多,AI决策模型越脆弱
文章图片

文章图片
在系统思维中 , “反脆弱”是一种设计 , 不仅可以从故障中恢复 , 而且在遇到故障时更加强大、更有效 。基于实际改善决策的因素构建 AI 系统将为反脆弱人工智能创造机会 。
认知科学的研究中提到 , 良好的决策是:主动阐明假设、构建假设检验验证这些假设以及在利益相关者之间建立清晰的沟通渠道的产物 。
许多引发人为错误的认知偏差都是上述三方面出现问题的结果 。例如没有清楚地阐明假设 , 就将解决方案应用于不合适的环境条件;不测试假设 , 就无法根据不断变化的条件来调整正确的决策 。
AI很容易受到不良数据的影响 , 因为我们过分强调了它在分类和识别方面的应用 , 而低估了它在建议和情境化方面的应用 。然而 , 决策型AI又非常容易被破坏 。
设计反脆弱AI非常困难 , 因为将算法分析的结果作为结论和作为建议 , 这两者之间有很大的差别 。而决策者 , 为了节省精力非常有可能一股脑的将AI输出作为结论 。这种想法 , 已经在刑事司法和警务领域造成了灾难性的错误 。
那么在医学中 , 为什么AI能够提高决策质量?因为 , 许多诊断并没有单一的正确答案 , 某种症状背后可能对应多种疾病 , 到底患有哪种疾病 , 可能只是概率问题 。临床医生会在头脑中建立一个决策树 , 其中包含他能想到的所有可能病因 , 并让病人做排除某些可能病因的测试 。因此 , 医学诊断是一个“定义假设、检验测试、进一步缩小可能病因集”的循环过程 , 直到决策收敛 。
这时候 , AI决策模型的作用是提示医生将可能的疾病类型纳入他的决策树 , 所以尽管可能数据不佳 , 但患者的治疗效果却有所改善 。目前 , 这种AI已经在用于改善医疗专业人员之间的沟通和知识共享 , 或在关键时刻从患者那里获得新的相关信息 。
使用AI进行决策的正确姿势
在决定如何最好地利用人工智能时 , 技术领导者需要首先考虑他们如何定义需要解决的问题 。如果 AI 是改善决策 , 那么 AI 应该引导决策者进行假设检验 , 而不是试图超越专家 。
当 AI 试图胜过专家 , 它完全取决于接收到的数据的质量 , 从而产生了一系列漏洞 , 攻击者可以轻松地利用这些漏洞 。
当人工智能的目标不是成为最好的顶级专家 , 而是加强和支持决策实践时 , 其对不良数据具有弹性并能够具有反脆弱的功能 。
但这样的人工智不能做决定 。相反 , 它帮助人们阐明决策背后的假设 , 将这些假设传达给其他利益相关者 , 并在与这些假设相关的条件发生重大变化时提醒决策者 。
综上 , 人工智能可以帮助决策者弄清楚什么状态是可能的 , 或者在什么条件下它们是可能的 。这样的解决方案可以通过解决现有弱点来增强决策团队的整体能力 , 而不是因不良数据产生一些新的弱点 。