道德和人类水平的判断是 AI 技术无法做到的事情之一
道德和人类水平的判断是 AI 技术无法做到的事情之一
尽管科技界经常谈论生成人工智能技术的进步将达到“人类智能”的水平,但业内专家认为,有些事情该技术根本无法做到。
圣克拉拉大学马库拉应用伦理中心领导伦理主任安·斯基特 (Ann Skeet) 表示,道德推理和人类水平的判断是人类认知的两个关键组成部分,而人工智能等技术无法有效培养这两个组成部分。在《财富》杂志于旧金山举办的Brainstorm AI 会议上,斯基特与 Workday 人工智能副总裁凯西·范 (Kathy Pham) 和 Indeed 市场产品和用户体验执行副总裁拉吉·穆克吉 (Raj Mukherjee) 一起向一屋子的技术高管和人工智能专家发表了讲话。
“道德推理是不断发展的,就像学习阅读和写作一样,”斯基特说。“最终,你会在 40 岁左右达到完全意识,但对某些人来说,这永远不会发生。我们需要意识到人工智能无法做到这一点——它没有道德推理的能力。”
在场的一些人表达了人工智能支持者、乐观主义者和投资者的共同观点,即人工智能和机器将在未来几十年内以如此快的速度发展,以至于这种技术将比任何事物都更擅长人类。即使这种科幻结果真的发生了,Workday 的 Pham 也认为专家们需要思考“那么,我们想为我们的人性保留哪些部分。”
Indeed 的 Mukherjee 补充道:“我们应该思考我们想要创造的世界,我们不想排除人类。”
Pham、Skeet 和 Mukherjee 都认为,技术的使用和结果仍然由人们和领导者控制。“这是我们决定是否要为技术工作,还是让技术为我们工作的地方,”Skeet 说。她补充说,十年前,当她开始在圣克拉拉大学工作时,不可能让企业高管聚在一起讨论道德问题——而现在,这些领导者只想讨论道德问题。
范敦促有权势的人知道在未来如何使用人工智能方面何时说足够了,并引用了演员兼导演本·阿弗莱克最近向 CNBC 发表的关于“艺术就是知道何时停止”的评论。
范说:“也许优秀的领导力也知道何时停止。”