问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

八大社交媒体平台均未能阻止AI机器人,专家指经济利益影响监管

创作时间:
2025-01-21 23:18:58
作者:
@小白创作中心

八大社交媒体平台均未能阻止AI机器人,专家指经济利益影响监管

圣母大学最新研究揭示,社交媒体平台在应对有害AI机器人方面存在显著不足。研究团队对八个主要社交媒体平台的机器人政策和执行机制进行了深入分析,发现尽管这些平台声称采取了措施来打击恶意机器人,但实际效果却令人堪忧。

研究负责人保罗·布伦纳指出,尽管一些平台在技术上设定了障碍,但整体上,社交媒体平台在保护用户免受恶意机器人活动的影响方面仍显得力不从心。这一现象的背后,部分原因在于社交媒体平台的经济激励机制。为了维持高用户活跃度和广告收入,平台往往倾向于放宽对账户的监管,这使得恶意机器人更容易渗透到社交媒体环境中。

AI机器人威胁的具体表现

AI机器人在社交媒体上的威胁主要体现在三个方面:恶意信息传播、信息操纵和网络水军活动。

恶意信息传播

生成式人工智能技术的发展,使得恶意信息的制造变得更加便捷。从政治宣传到诈骗信息,各种意图的恶意内容在社交媒体上泛滥成灾。例如,2016年美国大选期间,剑桥分析公司通过社交媒体平台获取了约5000万个注册用户信息,分析用户的心理特征和政治倾向,精准推送定制化竞选广告,严重干扰了选举结果。

信息操纵

国家、媒体平台、商业团体等组织为实现其政治、影响力、盈利等目的,利用人工智能、大数据分析等技术在网络空间实施信息操纵。信息操纵包含用户特征画像、群体精准传播等关键环节。其中,用户特征画像主要是使用技术手段对网络主体的活动轨迹、行为方式、特点等进行数据化表示,最早被应用于电子商务的个性化推荐、针对性营销与服务等领域,后来被广泛应用于信息操纵、图书推荐、电子商务、旅游管理等领域。群体精准传播主要使用人工智能、机器学习等技术手段对目标群体进行建模,根据不同群体的特点,针对性地选取信息传播的内容数据、传播源、传播路径等,进而实现对特定群体的大面积、快速传播的目的。

网络水军活动

在流量至上的互联网思维主导下,基于自主机器人、生成式人工智能等技术的网络水军应运而生。网络水军是指具有特殊目的的公关公司或组织,根据雇主或者委托方的需求,在网络空间中伪装成普通网民,针对特定内容、特定人群、特定话题等,发布、回复或者传播网络内容以炒作某个话题、人物或事件,进而达成影响网络空间用户认知、情感、行为、舆论倾向等目的的群体。
网络水军已经发展成为一种黑色产业链,给网络空间舆论环境、市场经济秩序、社会稳定甚至国家安全造成了严重的威胁。2013—2014 年,中央广播电视总台“3·15”晚会连续 2 年曝光网络水军黑色产业链。从作案工具来看,网络水军产业涉及隐藏真实身份的手机黑卡、网络 IP 地址秒拨工具、全球定位系统(Global PositioningSystem,GPS)定位模拟器、智能终端控制器,以及包含用户账号信息的智能终端设备等多种现代化工具。从技术特点来看,网络水军可以是各行业的普通用户,甚至是非自然人的社交机器人,其对计算机理论、内容制作、信息传播等行业知识的要求门槛低,可以通过在多个网络平台择时活动、模仿真实用户网络轨迹等方式隐蔽网络水军行为。

平台应对措施的不足

研究团队通过在八个主要社交媒体平台上测试“无害”机器人,发现所有平台均未能有效阻止机器人的发布,显示出政策与实际执行之间的巨大差距。具体而言,Meta旗下的Facebook和Instagram在技术上对机器人的发布设置了一定的障碍,用户需要多次尝试才能成功发布内容,而TikTok则通过频繁使用验证码来增加难度。然而,Reddit、Mastodon和X(前身为Twitter)则几乎没有任何限制,允许用户轻松部署机器人。

Notre Dame的研究还指出,所有测试的机器人账户和发布的内容在研究发布时仍然活跃,这进一步强调了社交媒体平台在监管方面的不足。研究负责人保罗·布伦纳(Paul Brenner)强调,当前的经济激励机制使得社交媒体平台更倾向于维持高账户数量以获取广告收入,这无疑加剧了对用户安全的威胁。用户在辨别人类与机器人账户时常常感到困惑,而平台的政策未能提供足够的保护。

解决方案与建议

面对AI机器人带来的威胁,立法者和社交媒体公司正在积极探索解决方案。加州最近通过的AI透明法案(California AI Transparency Act)是一个重要的立法进展。该法案要求拥有超过一百万月活跃用户的AI系统在生成或修改内容时进行明确披露。这一措施旨在提高用户对AI生成内容的识别能力,帮助他们更好地理解信息的来源和真实性。此外,加州还通过了其他几项与AI相关的法律,例如要求医疗服务提供者在与患者沟通时标明内容是否由AI生成。这些法律的实施将有助于增强消费者的透明度和信任感。

然而,尽管这些立法措施是朝着正确方向迈出的重要一步,但在实际执行中仍面临诸多挑战。首先,社交媒体平台的经济激励机制往往与用户安全相悖。平台通常依赖于高用户活跃度来获取广告收入,这使得它们在打击恶意机器人活动时可能缺乏足够的动力。研究表明,社交媒体平台在识别和删除恶意机器人方面的努力往往不够,导致用户在辨别真实与虚假信息时面临困难。

此外,立法的执行也面临技术上的挑战。尽管有一些技术解决方案正在开发中,例如AI检测工具和算法透明度要求,但这些工具的有效性和准确性仍需进一步验证。社交媒体平台的多样性和复杂性使得统一的监管标准难以实施,立法者需要在保护用户和促进创新之间找到平衡。

为了更有效地应对AI机器人带来的挑战,立法者应考虑以下改进建议:首先,建立跨州和跨国的合作机制,以便共享最佳实践和技术解决方案。其次,推动社交媒体平台在算法设计中更加注重用户安全和信息的真实性。最后,加强公众对AI技术的了解和识别能力,提高他们的媒介素养。

未来展望

随着AI技术的不断发展,社交媒体平台面临的挑战将愈加复杂。如何在促进技术创新与保护用户安全之间找到平衡,成为了亟待解决的问题。正如圣母大学的研究所强调的,立法者和社交媒体公司需要共同努力,制定更为全面的解决方案,以应对AI机器人带来的潜在危害。未来,技术解决方案与社会责任的结合将是确保用户安全和维护公共利益的关键。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号