自动驾驶技术是对人类劳动的替代吗
自动驾驶技术是对人类劳动的替代吗
2022年秋季以来,由OpenAI发布的ChatGPT引发了全世界对人工智能(AI)技术的关注。自动驾驶技术正是本轮AI热潮的重要组成部分。今年以来,基于百度自动驾驶技术的“萝卜快跑”正在加快无人出租车的推广,其中涉及的因技术替代而导致的潜在失业问题引发了全网的热议。那么,我们应该如何理解这些热议背后更深层次的问题呢?
对人类认知活动的替代日益普遍
技术对人类劳动的替代并不是一个新话题。自工业革命以来,技术对人类劳动的替代就是技术变革的一个长期趋势。在马克思看来,这种技术变革始终具有双重效应:一方面,技术替代可以提高生产效率,带来社会生产力的提升;另一方面,随着劳动技能的分解和替代,资本可以对劳动过程实行更严格的控制。从长期来看,这种替代的确会造成劳动者相对于资本积累过程的过剩。但以往的分析认为,这种替代主要针对的是集中于制造业的较为标准化的体力劳动,而人类的认知活动是技术无法逾越的屏障,是技术替代人类劳动的天然界限。
在过去几十年的发展中,我们确实能够看到认知活动对于司机劳动的“屏障”作用。司机劳动通常需要两方面技能。一是对路线和整体交通环境(包括对某时某地的交通流量估算等)的经验积累;二是涉及大量认知活动的驾驶技术本身,因为司机需要对即时路况作出反应。在以往的驾驶经验中,司机劳动的第一个方面能力早就发生技术性替代,特别是基于卫星定位的导航功能,让司机不再需要花费大量的时间去积累路线信息,网约车平台的出现更是让司机基于经验判断寻找乘客的方式几乎彻底消失。但总体上来说,司机劳动的第二个方面,也就是驾驶汽车所需的认知活动,并未发生根本性变化。这也就是为什么之前的技术变化从未引起司机对失业问题的大规模关注,因为整个驾驶过程的核心劳动技能仍然被劳动者所掌握。
但目前AI技术的发展态势正在“突破”人类认知劳动的屏障。当前的人工智能技术正在经历向通用人工智能(Artificial general intelligence,AGI)的转变。AI技术的核心仍然是数据与算法,其主要过程是用算法对数据进行归纳总结,然后对特定情境作出判断与预测。传统的AI技术已经在很多领域实现了对劳动者的替代,但AGI之前的AI技术主要是用来处理需要大量计算但指向相当明确的任务,在认知能力上仍然无法与人类相比。大模型的出现带来了改变,随着用于训练的数据规模的增加,AI在认知方面的能力开始出现飞跃,并出现了可以整合各种认知信息(如视觉和听觉)的多模态模型。无论是写作、翻译、绘画还是编曲,都已有大量可用的AI辅助工具,而在传统的观念中,这些活动都与人类认知活动密不可分,是机器无法取代的活动。自动驾驶技术也是如此,借助已经积累的大量驾驶数据,以及摄像头和雷达等硬件提供的即时信息,AI开始能够在复杂路况中作出准确即时的反应。
所以,自动驾驶对司机劳动替代所引发的争议,是更广泛的AI技术对人类认知活动替代的一个具体表现。AI具有认知能力,意味着AI对人类劳动的替代范围可能涉及各种技能水平的劳动,因而出租车司机担心的失业问题可能是一个更大范围的社会问题。当然,在短期内,司机劳动无法被完全替代。无论是依赖单车智能和高精度地图的自动驾驶,还是基于车、路、云三类基础设施协调的自动驾驶,都需要大量的投资与长期的基础设施建设工作。目前的自动驾驶技术仍会出现在复杂路况下无法合理决策的问题,所以需要人类的适时干预,司机仍扮演着安全员或远程操作者的角色。但从长期来看,AGI可能真的不一样,这一次我们必须重新审视AI大规模替代劳动的可能性。
平台决策的权责不对等不容忽视
在“萝卜快跑”引发的系列争议中,除了直观的失业问题,还隐藏着数字经济发展带来的社会决策权力转移的问题。当前,我们更多关注的是数字平台快速扩张可能带来的市场地位滥用问题,忽视了平台对社会决策权力的集中与私有化。
而AI决策,或者说算法决策正是这一过程中的关键。与传统的决策方式相比,算法决策具有即时性、自动化和无人化以及“黑箱”化三个特征。依赖于数字技术体系的特性,各种数字终端可以即时地收集、传递和处理数据,从而形成基于现实状况的即时反馈循环。而人不会直接干预算法的过程,任何人都无法完全追溯算法的决策逻辑,因此算法决策成为一个无法理解的自动化决策“黑箱”。这意味着算法可以施加更强的控制力,同时人们又很难直接对抗算法决策的结果。因为决策过程既不涉及人,又不透明,是一种根本上的权力不对等,意味着劳动者决策自主权的丧失,也是“自动驾驶恐慌”的深层根源。
目前,算法决策的特性已经深刻影响到司机的劳动过程,司机普遍需要接入网约车平台才能够获得工作。司机只能看到订单派发的结果,却难以对派单的合理性提出质疑,且司机如果多次拒绝派单,还可能受到平台的惩罚。同时,平台可以为司机规划路线,司机的实际行程与规划路线之间的区别,往往成为引起司机与乘客之间冲突的关键。但问题在于,如果算法真的出现了问题,平台自己也无法对算法的结果做出解释,往往选择规避所有责任。随着越来越多的社会活动开始集中在平台上运行,平台具有的进行社会决策的权力将会不断增加。而AI的发展将进一步增强这种决策的即时性、自动化和无人化以及“黑箱”化,平台的责任也会越来越难界定。在AI时代,平台决策的权责不对等问题同样值得关注。
诚然,新技术为社会带来了一些“困扰”,但其代表着先进生产力的发展方向,任何试图回到“前技术时代”的尝试都不会成功,也无助于问题的解决。不断发现问题、解决问题,推动数字经济高质量发展,才能最终实现科技与社会的和谐发展。
本文原文来自澎湃新闻