生成式AI引发科研伦理新挑战
生成式AI引发科研伦理新挑战
生成式AI在科研领域的广泛应用
近年来,生成式AI如ChatGPT在科研领域的应用日益广泛,引发了新的伦理挑战。根据《自然》杂志最近的一项调查显示,全球超过31%的博士后研究人员经常使用ChatGPT,而早在2022年底,斯坦福大学的调查也显示有17%的学生曾用其完成作业和考试。
生成式AI带来的科研伦理挑战
生成式AI在科研领域的广泛应用引发了诸多伦理挑战。其中最突出的是学术不端问题。例如,近期有教授署名的论文中出现ChatGPT常用提示语,医生用AI制作论文插图疑似违反常识等事件引发广泛关注。这些行为不仅违背了学术伦理,还可能对科学研究的可信度造成严重影响。
此外,生成式AI还可能带来隐私泄露风险。AI系统在处理科研数据时,如果缺乏有效的隐私保护机制,可能会导致敏感信息泄露,从而损害研究对象的权益。
各机构的应对措施
面对生成式AI带来的伦理挑战,各科研机构和政府部门纷纷出台相关规范。
2024年1月,科技部监督司编制印发《负责任研究行为规范指引(2023)》,明确提出不得使用生成式人工智能直接生成申报材料,不得将生成式人工智能列为成果共同完成人,不得直接使用未经核实的由生成式人工智能生成的参考文献等。
2024年4月,湖北大学、福州大学、南京工业大学、天津科技大学等高校相继发布通知,将在本科毕业生毕业论文审核过程中试行加入对文章使用生成式AI风险情况的检测。其中,湖北大学明确,如发现该论文检测结果为“AI代写高风险”,教师应指导学生进行修改。福州大学强调,检测结果将作为成绩评定和优秀毕业论文评选的参考依据。
生成式AI对科研领域的深远影响
生成式AI对科研领域的影响是深远的。一方面,它为科研人员提供了强大的辅助工具,可以提高研究效率,帮助研究人员处理大量数据,生成初步分析结果。另一方面,过度依赖生成式AI也可能导致研究人员失去独立思考和创新的能力,影响科研质量。
此外,生成式AI还可能改变科研成果的呈现方式和传播途径。例如,华东师范大学教授王峰团队采用“国内人工智能大语言模型+提示词工程+人工后期润色”的方式完成第一部人工智能长篇小说《天命使徒》,整部小说超过110万字,而人工智能仅用了一个半月就完成了写作。这一案例表明,生成式AI正在改变传统的内容创作方式。
结语
生成式AI的应用无可避免,它如同一场汹涌的科技浪潮,正席卷各个领域。麦可思2024年中国高校师生生成式AI应用情况研究结果表明,高校师生普遍担忧生成式AI导致的隐私泄露风险和可能取代某些岗位的问题。此外,被访高校师生中超六成对生成式AI感到焦虑,其中非常焦虑的比例为14%。
总体来看,目前生成式AI在高校师生中的应用较为广泛,但随之而来的问题和挑战也不容忽视。技术依赖性、学术诚信受损、隐私保护等问题都是必须认真对待的议题。为了最大限度地使AI技术在教育领域产生积极影响,高校应该适时开展相关课程引导高校师生正确使用AI工具。未来,AI的发展仍将继续,我们需要不断完善相关的法律法规和道德规范,充分发挥它的优势,同时避免其带来的负面影响,让AI真正成为推动社会进步的强大力量。