目前无法打开的黑箱

作者:黎荔
目前无法打开的黑箱
文章图片

文章图片

了解AI神经网络如何做出决策 , 一直是人工智能研究人员长期面对的问题 。
神经网络是以人的大脑为参照开发的AI系统 , 旨在复制人类学习的方式 。简单的神经网络有一个输入层、一个输出层 , 两者之间还有一个将输入转换为正确的输出结果的层 。然而一些深度神经网络非常复杂 , 无法遵循这种简单的转换过程 。所以逐渐地 , 神经网络的设置层越来越多 , 决策过程成为了一个“黑箱”(blackbox)问题 , 内部流程非常不透明 , 以至于该网络的开发者可能都无法完全掌握 。
本身人类大脑的运行机制就是一个“黑箱” , 人脑的黑箱对我们来说 , 几乎还是一个难以解开的谜 。神经病学 , 心理学 , 社会学等等许多学科都尝试去定义人类意识 , 描述意识产生的机制 。但至今都没有一个足够强力的学说能解释一切 。而模拟人脑的AI神经网络 , 尤其是目前最先进的复杂神经网络 , 也缺乏有效的机制能让人理解其推理过程 。
现在的AI深度学习并不遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程 , 而是由计算机直接从事物原始特征出发 , 自动学习和生成高级的认知结果 。在人工智能输入的数据和其输出的答案之间 , 存在着我们无法洞悉的“隐层” , 也即是“黑箱” 。这里的“黑箱”并不只意味着不能观察 , 还意味着即使计算机试图向我们解释 , 我们也无法理解 。哥伦比亚大学的机器人学家HodLipson把这一困境形象地描述为“这就像是向一条狗解释莎士比亚是谁 。”这也就是事情最吊诡之处 。正如我们也同样无法解释 , 人类意识如何诞生?我们为什么在万千生灵中 , 拥有这独一无二的秘藏 。意识到底是什么?意识即是自我本身吗?为什么它海纳百川 , 又空无一物?意识仅仅源自于人类学习与实践的过程吗?
既然我们目前还无法很好地解释人工智能如何处理大数据 , 如果算法无法解释其输出原理 , 这是否意味着深度学习成为非法的方式?今天 , 各种弱人工智能应用场景如雨后春笋般涌现 , 在万物互联的背景下 , 以云计算为用 , 以个人数据为体 , 以机器学习为魂的智能应用 , 忽如一夜春风来 , 遍地风流 。通过自动化的数据处理 , 评估、分析及预测个人的工作表现、经济状况、位置、健康状况、个人偏好、可信赖度或者行为表现 , 进而利用这种“数据画像”(profiling) , 正在不同的业务场景中 , 做出有关数据主体的各项决策和决定 。
然而 , 人工智能的自动化决定一方面可以给我们带来便利 , 比如智能投顾或智能医疗 , 但另一方面 , 它如果因为某种原因出错 , 甚至可能存在着某种“恶意” , 我们应当如何应对?在美国 , 每周超过1000人被机场使用的算法错误地标记为恐怖分子 。一名美国航空公司的飞行员在一年中被拘留了80次 , 因为他的名字与爱尔兰共和军领导人的名字相似 。人工智能在饕餮着海量大数据的同时 , 是基于什么样的算法 , 进行了复杂的结构重组与数据挖掘 , 然后 , 在一名无辜者毫无察觉和无从申辩的时候 , 就直接把他当做了被锁定的数据攻击的目标?我还知道一个案例 , 是华盛顿特区的SarahWysocki是一位被普遍认可的老师 , 但当2009年政府用一个自动化决定程序来评价教师表现时 , 她和其他205人因得分不佳被解雇 。据称 , 该决定以少数学生的成绩为依据 , 可学校始终无法解释为何优秀教师会落得如此下场 。我不知道 , 未来我会不会成为 , 一名因算法评估而被下课的教师?