1989年:美国达特茅斯学院乔治·赛本科(George Cybenko)证明了“万能近似定理”(universal approximation theorem)。证明了多层神经网络具有强大表达能力,根本上消除了当时对神经网络表达能力的质疑。</p>
AI复兴与硅的革命(1990年代-2000年代)</p>
1990年代,互联网的兴起和硅基计算技术的飞速发展为AI研究提供了大量数据和计算资源。机器学习和数据挖掘开始成为AI研究的重要分支。2000年代,随着硅基计算能力的极大提升,深度学习技术开始崭露头角,特别是在图像识别和语音处理等领域取得了显着进展。</p>
1993年:Pentium处理器推出</p>
英特尔Intel发布了Pentium处理器,它采用了超标量架构,大幅提升了计算性能,支持了更复杂的软件和AI应用。</p>
1997年:IBM的深蓝(Deep Blue)计算机在国际象棋比赛中击败了当时的世界冠军加里·卡斯帕罗夫(Garry Kasparov),这一事件被视为人工智能在复杂策略游戏中取得的重要突破。</p>
1998年:万维网联盟的蒂姆(Tim Berners-Lee)提出了语义网(Semantic Web)的概念。语义网的核心思想是通过为万维网上的文档添加可被计算机理解的语义信息(元数据),从而使得整个互联网成为一个基于语义链接的通用信息交换媒介。</p>
1999年:英伟达发布第一款GeForce图形处理器 - 英伟达发布了GeForce 256,这是世界上第一款集成了图形处理和几何运算功能的图形处理器单元(GPU),开创了现代图形处理器的先河。</p>
2001年:美国加州大学布雷曼博士提出了随机森林(Random Forest)算法。通过将多个有差异的弱学习器(通常是决策树)进行Bagging并行组合,来提高整体模型的泛化性能。</p>
2003年:Google推出了AdSense,一个基于机器学习的广告系统。同年,Google公布了3篇大数据奠基性论文:非结构化文件分布式存储(GFS)、分布式计算(MapReduce)及结构化数据存储(BigTable),奠定了现代大数据技术的理论基础。</p>
2000年代:多核处理器出现</p>
Intel于2005年推出了首款商用多核处理器,即Intel Core Duo处理器。AMD在2007年推出了其首款商用多核处理器,即AMD Phenom X4处理器。多核处理器技术的发展使得单个芯片上能够集成多个处理核心,大幅提升了并行计算能力,对AI和机器学习算法的发展尤为重要。</p>
2005 年:波士顿动力公司推出一款动力平衡四足机器狗“BigDog”。</p>
2006年:华裔科学家李飞飞(Fei-Fei Li)开始研究ImageNet视觉数据库。ImageNet是一个庞大的视觉识别数据库,包含数百万张标记图像,涵盖了各种不同类别的物体和场景。</p>
2006年:“深度学习之父”、加拿大多伦多大学教授杰弗里·辛顿Geoffrey Hinton和他的学生提出了“深度置信网络”(Deep Belief Networks,DBN)的模型,特别是对无监督预训练的发现。</p>
2007年:苹果发布了首款iPhone,标志着智能手机的兴起,为移动智能应用的发展提供了巨大的推动力。</p>
AI爆发与硅的无处不在(2010年代-至今)</p>
2010年代:智能手机和云计算的普及使得硅技术无处不在,AI开始进入日常生活的方方面面。深度学习在图像识别、自然语言处理等领域取得了巨大成功。2020年代:硅基量子计算的探索和AI技术的不断进步预示着一个全新的计算时代。AI在医疗、自动驾驶、智能家居等领域的应用不断拓展,成为推动社会发展的重要力量。</p>
2010年:谷歌推出无人驾驶汽车项目,标志着自动驾驶技术进入了实际应用阶段。</p>
2011年:IBM的Watson在《危险边缘》(Jeopardy!)节目中击败了人类冠军。</p>
2012年:计算机科学家Alex Krizhevsky、IIya Sutskever和Geoffrey Hinton开发的基于深度学习的卷积神经网络模型AlexNet在ImageNet计算机视觉挑战赛中取得了显着成果。</p>
2013年:Google推出了TensorFlow,一个开源的机器学习框架。</p>
2014年:生成对抗网络(GAN)被提出,开启了生成模型的新篇章。</p>
2015年:OpenAI创立</p>
马斯克等人共同创建非营利研究组织OpenAI。其使命是确保通用人工智能(一种高度自主且在大多数具有经济价值的工作上超越人类的系统)将为全人类带来福祉。</p>
2016年:英伟达将世界上第一台AI超级计算机DGX1交付给初创的OpenAI。</p>
2016年:谷歌提出了联邦学习(Federated Learning)方法。这种方法旨在在多个持有本地数据样本的分散式边缘设备或服务器上进行模型训练,而不需要将数据样本发送到中心服务器进行训练。</p>
2016年:AlphaGo战胜围棋世界冠军</p>
DeepMind公司开发的人工智能程序AlphaGo以4比1的比分击败了围棋世界冠军李世石。</p>
2017年:Google团队发表论文《Attention Is All You Need》(注意力就是你所需要的一切),介绍了基于Transformer的深度学习架构。</p>
2017年:中国香港的汉森机器人技术公司(Hanson Robotics)开发的类人机器人索菲亚成为历史上首个获得公民身份的机器人。</p>
2018年:Google提出BERT模型(Bidirectional Encoder Representations from Transformers),这是一种用于自然语言处理的预训练模型,在多项任务上取得了state-of-the-art的效果。</p>
2019年:IBM推出Q System One,它是IBM量子计算计划的一部分。被视为量子计算技术迈向商业化和实用化的重要里程碑。</p>
2020年:苹果公司推出了首款基于自家芯片的Mac电脑,采用了M1芯片,标志着苹果向自主芯片转型的开始。</p>
2020年:马斯克发布脑机接口</p>
马斯克的脑机接口BCI公司现场直播植入Neuralink设备的实验猪的脑部活动。通过这种设备,人们可以直接与计算机或其他外部设备进行交互,实现脑部信号的读取和控制。</p>
2020年:OpenAI发布了GPT-3,一个具有1750亿参数的语言模型,展示了自然语言处理的巨大潜力。</p>
2021年:DeepMind的AlphaFold在蛋白质结构预测方面取得了重大进展。</p>
2022年:ChatGPT席卷全球</p>
11月30日,OpenAI正式发布ChatGPT,其宗旨是为人们提供一种高效、自然的与计算机进行对话的方式。ChatGPT一经推出就席卷了整个行业,短短5天,注册用户数就超过100万,仅两个月月活用户数已经破亿。</p>
2023年:AI元年,百模大战</p>
国际上,微软宣布GPT-4接入office,Meta发布LLaMA 模型并开源,Google发布Gemini 1.0、Bard开放测试,Runways发布Gun-2。在中国,2023年10亿参数规模以上的大模型厂商及高校院所数量已超过250家。华为盘古大模型3.0,百度:文心一言,阿里云:通义千问,科大讯飞:星火认知大模型,360智脑等备受关注。</p>
2024年:Sora问世,Kimi来了</p>
2月15日,国际领先AI公司OpenAI正式发布人工智能文生视频大模型Sora。其所生成的影像画面展示了令人震撼的光影和细节,被誉为AI版的“神笔马良”。但是,OpenAI视Sora为“世界模拟器”,而不是单纯的视频模型。</p>
3月18日,中国AI初创公司月之暗面宣布,Kimi 智能助手可支持的无损上下文长度由20万汉字增至200万汉字,并于即日起开启产品“内测”,从而引爆行业。</p>
……</p>
3月20日,春分,我们开始了《人工智能日记》。</p>