首页 AI发展前景内容详情

那个最早把AI训练模型搞出来的人,到底是谁?

2025-11-27 484 AI链物

你有没有想过,现在天天挂在嘴边的“AI训练模型”,最早到底是谁提出来的?

可能很多人第一反应是:“肯定是图灵吧?”或者,“会不会是某个硅谷天才?”这个故事比我们想象的要曲折得多,甚至可以说,它并不是某一个人的灵光一闪,而是一群“偏执狂”跨越半个世纪的接力。


要说清楚这件事,得先回到上世纪50年代。

那时候,计算机还像一台台笨重的铁柜子,内存小得可怜,速度慢得让人想打瞌睡,但偏偏有一批人,已经开始琢磨怎么让机器“学习”了。

这里面有个不得不提的名字——弗兰克·罗森布拉特(Frank Rosenblatt),这老兄是个心理学家,却在1957年搞出了一个叫“感知机”(Perceptron)的东西,你可以把它理解成今天神经网络的“曾祖父”,感知机能通过调整权重,学着去识别一些简单的模式,比如分辨字母是“O”还是“X”。

那个最早把AI训练模型搞出来的人,到底是谁? 第1张

当时《纽约时报》还吹过牛,说这玩意儿“将来能走路、说话、看东西,甚至能自我复制……”结果呢?感知机虽然轰动一时,但它的局限性很快被另一个大佬——马文·明斯基(Marvin Minsky)——给戳破了,明斯基在1969年写了本书,直接指出感知机连“异或”这种简单逻辑都搞不定,这一盆冷水泼下来,整个领域差点凉透,进入了所谓的“AI寒冬”。

你看,罗森布拉特虽然没提出“训练模型”这个词,但他实实在在地做了第一台能通过数据调整自己、完成分类的机器——这,不就是训练吗?


时间晃晃悠悠来到80年代。

寒冬里总有人不放弃点火,有个叫杰弗里·辛顿(Geoffrey Hinton)的英国人,偏偏对“神经网络”着了魔,那时候搞这玩意儿,在学术界简直像个异类——没钱、没资源、没论文可发,但辛顿就是不信邪,他带着几个学生,硬是琢磨出了“反向传播”算法。

简单说,反向传播就是让网络能够从错误中学习,一层层往回调整参数,这玩意儿在今天看来理所当然,但在当时,它让多层神经网络的训练成为可能,因为计算机算力太差,数据又少,他们的成果一开始也没掀起多大水花。

辛顿后来回忆说,那段时间他们经常被同行嘲笑是“搞玄学的”,但他没放弃,一边教书一边写论文,偶尔还自嘲:“我们大概是在等待计算机跑得足够快的那一天。”


这一等,就等到了21世纪。

互联网爆发,数据井喷,GPU被拿来干计算的活儿……突然之间,算力、数据、算法三件套齐了,2006年,辛顿和团队发表了那篇著名的深度信念网络论文,一下子把“深度学习”这概念重新点燃,再后来,2012年,AlexNet在图像识别比赛里碾压全场,准确率甩开传统方法一大截——所有人都坐不住了。

从那时起,“训练模型”不再只是实验室里的玩具,它成了科技公司争相押注的赛道。


回到最初的问题:AI训练模型是谁提出来的?

你会发现,根本没法单独归功于某一个人,罗森布拉特做了第一个能学习的机器;明斯基虽然“泼冷水”,但也逼着后人去找更强大的方法;辛顿在无人看好的角落里坚持了几十年,终于等到时代赶上了他的想法,还有吴恩达、杨立昆、本吉奥……太多人填了砖、加了瓦。

这就像一场没有终点的接力赛,有人起跑,有人中途加速,有人摔倒又爬起来,还有人是在观众席上突然冲进跑道——比如那个用GPU加速训练的程序员,或者那个灵机一动改了个激活函数的博士生。


有时候我会想,如果我们今天觉得“训练模型”理所当然,那可能是因为我们忘了它背后那些“不酷”的部分——那些在机房熬夜调参的夜晚,那些被拒稿的论文,那些没人相信时的自我怀疑。

也许真正的答案并不是某个名字,而是一种固执:总有人愿意去做那些“看起来没啥用”的事,哪怕要花上一辈子。

而我们现在用的每一个AI工具,背后站着的,都是这样一群人。

(免费申请加入)AI工具导航网

AI出客网

相关标签: # AI训练模型是谁提出来的

  • 评论列表 (0条)

 暂无评论,快来抢沙发吧~

发布评论