人工智能发展历程中的六篇里程碑式论文
人工智能发展历程中的六篇里程碑式论文
在人工智能快速发展的今天,了解其发展历程中的关键论文对于从业者和爱好者都具有重要意义。本文将介绍六篇在计算机视觉(CV)和自然语言处理(NLP)领域具有里程碑意义的论文,这些论文不仅推动了技术的进步,也在实际应用中产生了深远影响。
1.《A Convolutional Neural Network for Modelling Sentences》 (2014)
官方描述:这篇论文提出了一个用于句子建模的卷积神经网络(CNN)架构,该模型使用一维卷积来学习句子嵌入的层次特征。
论文意义:传统的认知是,CNN就是做图片分析的,现在可以跨界做NLP的活,为以后新的特征提取器transformer(本来这个特征提取器的定位和RNN一样,是为了做NLP)在Sora上的应用开辟了新篇章!
2.《Attention is All You Need》 (2017) ---谷歌公司
官方描述:这篇论文提出了Transformer模型,它在处理序列数据时不依赖于循环网络结构,而是使用注意力机制,对NLP领域产生了革命性影响。
论文意义:里程碑式的论文,一种全新的特征提取器,一开始只是取代了两架马车中的RNN,但是现在正在慢慢的也要取代CNN。不仅在ChatGPT上应用,而且在Sora上应用。包括国内目前所有的主流语言大模型---文心一言、清华智谱。不过清华智谱死不承认自己是用的transformer,非得叫自己glm,其实就是换汤不换药。
3.《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》 (2018)---谷歌公司
官方描述:BERT模型通过双向Transformer预训练,显著提高了多种语言理解任务的性能。
论文意义:当所有的算法工程师都对中文NLP感到绝望的时候,这篇论文给全国的顶级NLP工程师带来了希望,并且一步步的工程化应用,至今都在百度、腾讯、美团、字节跳动公司的平台发光发热。
4.《Deep Residual Learning for Image Recognition》2015---华人之光(也可称为广州之光)何恺明,该论文获得顶会CVPR Best
官方描述:何恺明的残差网络(ResNet)是人工智能视觉算法领域的一个重大突破。ResNet通过引入残差学习框架来解决深度神经网络训练中的退化问题,使得训练深层网络成为可能。ResNet的影响力非常广泛,它不仅在图像分类任务中取得了显著的性能提升,也推动了其他计算机视觉任务的发展,如目标检测和人脸识别等。
论文意义:有了Resnet,才有了深度学习。没有Resnet,就什么都没有。没有人脸识别、没有目标检测、没有ChatGPT、没有Sora。
5.《Generative Pre-trained Transformer 3 (GPT-3)》2020---OpenAI
官方描述:这是一个强大的语言生成模型,能够执行各种语言任务。
论文意义:让所有的行业内的技术从业人员,开始将目光投向生成式人工智能技术。但是大部分都是静静的看着,没有动作,普遍心态是--->你这个gpt3,也就是比bert强一丢丢,先看着再说。没想到,3.5的问世,翻天覆地。
6.《You Only Look Once: Unified, Real-Time Object Detection (YOLO)》2015
官方描述:它能够实时进行目标检测,对实时应用产生了重要影响。
论文意义:没有该技术,也就没有所谓的人体检测、人脸检测、旗帜检测等所有目标识别类的国内蓬勃应用。也就不会有所谓的商汤、旷视、依图等公司,海康威视要砍掉一半市值。
总结
有些论文已经完成了它的历史使命,有些论文仍在发光发热,有些论文将在未来的某天,决定着真正的类人智能体。以上列举的文章,不是权威的业界排名,只是一个从业10余年的资深用户的深刻体验。有的是极具落地价值的,比如1、3、5、6. 有的是人工智能领域里程碑意义的(堪比人类登月),比如2、4.
声明:本文所有配图,均来自于GPT4作图。