AI 让人变笨?微軟最新研究揭露:知識型白領正喪失獨立思考能力
AI 让人变笨?微軟最新研究揭露:知識型白領正喪失獨立思考能力
微软与卡内基梅隆大学最新研究揭示:AI工具虽然能提升知识型工作者的效率,但长期使用可能会影响批判性思考和问题解决能力。研究发现,AI工具改变了人们的思考方式,使人们更倾向于验证AI结果,而非独立思考与解决问题。
微软(Microsoft)与卡内基梅隆大学(Carnegie Mellon University)近期发表的一项研究显示,生成式AI虽然能提升知识型工作者的效率,但长期使用可能影响批判性思考(Critical Thinking)与问题解决能力(Problem-Solving Skills),并改变人们的思考方式。
该研究针对319名定期使用AI工具(如ChatGPT、Microsoft Copilot)的知识型工作者进行调查,发现AI工具对他们的产生以下影响:
问题解决能力下降
使用者在使用AI后,更倾向于验证AI的结果,并将思考重心放在信息验证、整合AI回应和任务管理上,而非从零开始分析问题或思考解决方案。
批判性思考减少
对AI产出内容较为信任的使用者,更可能直接接受AI提供的答案,而不会进行额外验证或批判性检视。具备较高自信心的使用者仍会审视AI结果,但AI的可靠性提升后,他们主动思考的频率可能下降。
研究人员认为,AI并非让人变笨,而是改变了思考习惯,使人更偏向“验证AI结果”而非“独立思考与解决问题”。
长期依赖AI,知识型工作者可能面临哪些风险?
研究指出,工作者对生成式AI工具的信心与批判性思考的程度呈负相关。这与过去科技发展对人类认知能力的影响相似,如计算机的普及降低人们的心算能力、GPS让人们较少使用地图,影响空间认知能力,或是拼写校正工具降低了人们对拼写的敏感度。
如今,AI可能正在以类似方式影响批判性思考与问题解决能力,特别是在数据分析、决策制定和内容创作等知识型工作中,其潜在风险不容忽视。
研究还发现,长期依赖AI可能导致过度依赖现象,这种过度依赖可能进一步影响专业人士的思维模式与技能发展,其风险包括:在高风险决策情境下,难以进行独立判断;由于AI产生的内容大多基于现有数据,较少创新元素,长期使用可能影响独立思考与创意发展;当AI自动提供答案时,使用者较少主动检索与思考,可能影响学习动机与对问题的深度理解。
如何避免AI让我们“习惯不思考”?专家提出3点建议
研究者提出以下策略,帮助知识型工作者在使用AI时仍保持思维灵活性:
- 提高自身思考参与度,避免被AI主导决策
在使用AI工具时,使用者应提高自身的思考参与度,以保持思维灵活。例如在AI提供答案前,使用者可以先尝试解决问题,再由AI补充建议。
- 让AI促进反思,而非单纯提供答案
请AI提供不同选项的优缺点分析,帮助使用者评估最佳方案,而非直接给出“标准答案”。
- 交叉检查信息,别被AI产出的内容误导
使用者应主动参与AI产出的内容,而非被动接受。在使用AI产出结果后,仍应主动检查与修改。此外,交叉检查不同来源,确保信息的准确性,避免完全依赖单一AI产出内容。
通过这些策略,知识型工作者可以在享受AI带来的便利时,仍保持独立思考与问题解决能力。AI是工具,关键在于“如何使用”,如果将AI作为“思考辅助工具”,而非完全依赖它来决策,并培养信息验证、回应整合和任务管理等技能,仍能维持并强化批判性思考与问题解决能力。