问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

数据治理为何比以往任何时候都重要:互联网泡沫破裂对人工智能时代的教训

创作时间:
作者:
@小白创作中心

数据治理为何比以往任何时候都重要:互联网泡沫破裂对人工智能时代的教训

引用
36氪
1.
https://www.36kr.com/p/3181725916943488


当今世界再次陷入技术革命的漩涡。正如20 世纪 90 年代末的互联网热潮有望改变企业一样,如今的人工智能爆炸式增长正以前所未有的速度重塑行业。初创公司获得的资金创下了历史新高,人工智能产品正在迅速推向市场,组织正以惊人的速度将人工智能融入其运营中。
然而 ,历史给我们留下了警示。
互联网时代充满了兴奋、投机和快速增长——直到2000 年泡沫破裂,市值蒸发 5 万亿美元。许多公司失败不是因为互联网没有革命性,而是因为他们缺乏可持续的基础。
如今,我们在人工智能领域看到了惊人的相似模式:大规模投资、不受监管的创新以及对非结构化、不可靠数据的过度依赖。区别是什么?人工智能完全建立在数据之上。如果没有适当的治理和管理,人工智能不仅会失败,还可能引发广泛的道德、金融和法律危机
问题是:我们会从历史中吸取教训吗?或者认识到根本的差异吗?

互联网泡沫期间发生了什么

20 世纪 90 年代末,互联网企业迅速崛起。投资者向没有真正商业模式的初创企业投入了数十亿美元,希望从数字革命中获利。
承诺:互联网将使信息获取民主化,颠覆传统行业,并创造新的经济机会。
现实:到 2000 年,炒作远远超过了实际价值。许多公司倒闭了,无法将其平台货币化、有效管理数据或建立可持续运营。
现实生活中的互联网泡沫失败案例:
1.Pets.com——
该公司在广告上花费了数百万美元,但没有真正的策略来管理供应链数据和客户分析。它在两年内就倒闭了。
2.Webvan——
一家在线杂货服务公司,扩张速度太快,缺乏对物流和库存数据的管理。在倒闭前,该公司耗费了 10 亿美元。
3.eToys——
未能有效管理客户数据,并因缺乏治理而做出错误决策,导致破产。
导致崩溃的关键错误:
1.数据管理不善
——公司收集了大量数据,但缺乏数据治理框架来确保质量、安全性和合规性。
2.过度炒作可持续性
——企业在没有稳固的商业模式的情况下匆忙进入市场,就像今天的人工智能初创公司追求快速应用一样。
3.缺乏监管和信任
——隐私问题和安全漏洞被忽视——直到它们变成灾难性的。
生存教训:只有将数据视为战略资产并建立强大治理结构的企业(如亚马逊和 eBay)才能变得更加强大

人工智能如何重复互联网泡沫

人工智能是新的淘金热。各组织竞相将机器学习、大型语言模型 (LLM) 和自动化纳入其业务战略。但如果没有强大的数据治理,人工智能就有可能陷入与互联网时代相同的陷阱。

人工智能与互联网热潮:相似之处与不同之处

1.人工智能与互联网泡沫的相似之
指数增长和市场炒作人工智能和互联网泡沫都经历了投资的快速涌入,公司估值基于未来潜力而非实际利润。例如,Nvidia 在人工智能领域的股价飙升反映了思科在互联网时代的崛起,两者都被视为各自繁荣时期的重要基础设施提供商。
投机性投资和市场投机正如纳斯达克在 20 世纪 90 年代末飙升一样,当今由人工智能驱动的公司——尤其是七巨头(苹果、微软、英伟达、谷歌、亚马逊、特斯拉、Meta)——正在根据未来人工智能的潜力推动市场反弹。
⚠️监管追赶和道德问题20 世纪 90 年代,各国政府努力监管互联网,就像他们现在努力解决人工智能道德、偏见和数据隐私法一样。人工智能治理仍然是一个不断发展的领域,就像互联网泡沫期间数字法律的滞后一样。
缺乏治理的市场崩溃风险当投机活动超过真正的创新和可持续的商业模式时,就会形成经济泡沫。目前,许多人工智能初创公司在运营时都没有经过验证的收入模式,这引发了人们对估值过高和潜在市场调整的担忧。
2.人工智能与互联网泡沫之间的主要区别

  • 经济和商业模式成熟度与互联网公司不同, Nvidia、微软和谷歌等人工智能领导者已经建立了高利润的人工智能驱动业务。人工智能不仅仅是一种新兴趋势,而且是医疗保健、金融和自动化行业的组成部分。
  • AI 正在产生可观的回报。Nvidia等公司由于 AI 芯片需求而实现了创纪录的收入增长,这与互联网高峰时期的思科不同。云计算、自动化和分析领域的 AI 应用具有即时盈利能力,而不是投机性的未来收益。
  • 监管是主动的,而不是被动的。世界各国政府都在积极制定人工智能政策,欧盟人工智能法案、美国人工智能权利法案和 GDPR 修订旨在在危机发生之前防止人工智能滥用,这与互联网泡沫破灭期间的缓慢监管反应不同。
  • AI 是行业变革者,而不仅仅是数字工具。虽然互联网彻底改变了企业的联系方式,但AI 正在从根本上改变行业的运作方式。金融领域的预测分析医疗保健领域由 AI 驱动的药物研发,AI比互联网时代的公司更深入地融入到日常运营中。

不受监管的人工智能风险日益增加

尽管人工智能的基础更加牢固,但风险仍未完全消除。数据治理仍然是确保人工智能长期成功的关键因素。
1. 数据质量差会破坏 AI 模型AI 的好坏取决于训练它的数据。如果数据有偏差、过时或不一致,AI 决策就会出现缺陷。
🔴示例:亚马逊开发了一款人工智能招聘工具,该工具由于训练数据存在偏见而系统性地降低了女性候选人的排名。如果没有治理,人工智能可能会加剧歧视,而不是消除歧视。
2. 合规和法律风险不断上升监管机构已开始严厉打击滥用人工智能的行为。仅 GDPR 罚款就已超过 40 亿美元,欧盟的《人工智能法案》也将实施严厉管控。
🔴示例:面部识别公司 Clearview AI 因未经同意抓取数据而面临诉讼,导致多个国家的监管罚款和禁令。
3. 人工智能道德和偏见会破坏信任从医疗保健到金融,人工智能正在做出关键决策。如果没有治理,这些系统可能会产生有害或不道德的结果。
🔴示例:微软的 AI 聊天机器人 Tay 在被用户操纵发表种族主义和攻击性内容后,于 24 小时内被关闭。缺乏实时监控和治理使其变得脆弱。
4. 企业面临竞争和财务风险。管理不善的人工智能可能导致客户不信任、声誉受损和财务损失。在没有强大治理框架的情况下投资人工智能的组织可能会失去市场信誉。
5. 监管风险:麦肯锡 2023 年的一项研究发现,70% 的人工智能模型因数据治理不善而失败。

为什么数据治理是人工智能成功的关键

与互联网时代不同的是,我们有机会正确对待人工智能——但这需要将数据视为战略资产,而不是事后才考虑的事情。
数据治理如何防止人工智能崩溃:
1. 数据质量和沿袭控制——组织需要明确的治理政策来追踪 AI 数据的来源、如何处理以及如何影响决策。
2. AI 合规性和风险管理——公司必须使 AI 模型与 GDPR、CCPA 和即将出台的 AI 法规保持一致,以避免法律和经济处罚。
3. 人工智能道德与偏见审计——实施偏见检测和透明机制可确保人工智能保持公平公正。
4. 持续的人工智能监控和管理——人工智能模型必须随着时间的推移进行监控、审核和改进——而不仅仅是推出然后被遗忘。
实施 AI 治理的框架:1️⃣ 在团队之间建立数据所有权和责任制。2️⃣确保数据质量、安全性和沿袭跟踪。3️⃣实施AI 风险评估和偏见审计。4️⃣使 AI 计划与全球法规和道德标准保持一致。5️⃣持续监控、测试和更新AI 模型以确保性能和合规性。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号