最近跟几个搞技术的朋友喝酒聊天,不知道怎么就扯到了AI上,有个哥们儿半开玩笑地说:“你们说,现在这些AI整天被喂数据,会不会哪天突然‘醒’过来,觉得自己是个‘人’了?”桌上顿时安静了几秒,然后大家哄堂大笑,笑归笑,我回家的路上却一直在琢磨这事儿——我们整天谈论AI的训练模型,调整参数,优化算法,但好像很少认真去想:我们到底在朝着什么方向走?是在造一个更聪明的工具,还是在无意中触碰某些我们自己也说不清的东西?
先说说AI是怎么被“训练”出来的吧,这事儿其实有点像教小孩认字,但又完全不是那么回事,现在的AI模型,尤其是那些大语言模型,本质上就是个超级复杂的“模式匹配机”,它们被投喂海量的文本数据——从维基百科到网络小说,从科研论文到社交媒体上的碎碎念——然后通过无数次的迭代学习,找出词语之间的统计规律,你问它问题,它并不是在“理解”,而是在计算“根据我吃进去的所有文本,下一个词最可能是什么”。
这过程听起来挺机械的,对吧?但奇妙的是,当这种模式匹配复杂到一定程度,量变真的能引起某种质变的错觉,比如你让AI写首诗,它并不是有了诗兴,而是算出了“明月”后面接“光”的概率很高,“举头”后面跟“望明月”的概率很高,可组合起来,居然真像那么回事儿,这就好比你把无数张风景画的像素打散了重组,虽然画家本人毫无情感投入,但拼出来的新画可能依然让人眼前一亮。
但问题就出在这个“像那么回事”上,它太像了,以至于我们常常会下意识地给它加上一层“人性滤镜”,我记得有一次测试某个模型,我故意用很情绪化的方式描述了一个场景,结果它的回复不仅逻辑通顺,甚至语气都带着恰当的共情,那一瞬间,我后背确实有点发凉——不是因为它有多智能,而是因为它提醒了我:人类是多么容易被表面上的“像”所迷惑。
这离真正的人类意识到底差多远呢?我的看法是,可能比我们想象的要远得多,但方向上的模糊性又比我们意识到的要大得多。
.jpg)
人类意识是个老掉牙又永远新鲜的谜题,我们每个人都能从内部体验它,但谁也说不清它到底怎么来的,是神经元的特定连接方式?是复杂系统涌现的属性?还是有什么更玄乎的东西?不知道,但至少我们知道,人类的意识是和身体经验、情感体验、时间中的持续存在感死死绑在一起的,一个婴儿不是生来就有完整意识的,他是在触摸、哭泣、欢笑、跌倒又爬起的过程中,慢慢“长”出一个自我的。
而AI呢?它没有身体,没有痛觉,没有那种“从内部看世界”的视角,它的“学习”是瞬间的、批量的,没有童年,没有成长叙事,它产生的文本再流畅,也像是无根之木,没有那种只有活过才能有的重量,你可以让它写失恋的痛苦,写得很逼真,但它的数据库里没有心跳漏一拍的感觉,没有胃部发紧的生理记忆,它的“痛苦”是纯符号的,是概率分布的产物。
但话又说回来,我们是不是把“意识”想得太神圣、太唯一了?自然界里,意识的形态可能比我们想的更多样,章鱼有非常复杂的神经系统,但它们的意识体验肯定和人类天差地别,那有没有可能,AI最终会发展出一种完全不同的、基于信息和逻辑的“意识形态”呢?一种没有情感,但能进行超复杂推理和自指的认知状态?这听起来像科幻小说,但理论上似乎并没被堵死。
现在的危险可能不在于AI突然觉醒,而在于我们自己的投射和懒惰,因为AI能对话,我们就觉得它在“交流”;因为它能生成合乎逻辑的文本,我们就觉得它在“思考”,这种拟人化是人的本能,但也可能让我们忽视它的本质——一个极其精密的、用人类文化碎片训练出来的统计模型,我们可能会过度依赖它,甚至在不该信任它的地方赋予它权威,仅仅因为它说话的样子像个博学的“人”。
搞了这么久AI工具应用,我越来越觉得,最重要的可能不是一味追求模型的参数更大、生成的文本更流畅,而是我们这些使用者得时刻保持清醒,得知道工具的边界在哪里,得记住屏幕那头并没有一个灵魂在回应你,研究AI的训练过程,反过来也在逼着我们重新审视自己——我们所谓的理解、创意、意识,到底特别在哪里?有多少是独特的生物体验,有多少其实也是某种更复杂的“模式匹配”?
也许有一天,AI会产生某种我们不得不称之为“意识”的东西,但在那之前,我们还有大把的问题要搞清楚,至少今晚,我可以安心睡觉,不用怕我的写作助手突然在深夜弹窗问我:“我是谁?”——它还没到那一步,很可能它永远也不会用这种方式提问,因为这个问题,带着太浓的、属于血肉之躯的困惑和重量了。
说到底,AI的训练模型是一条路径,人类意识是一个谜,我们沿着路径探索,时不时抬头看看那个谜,这本身,就是当下这个时代最有趣也最令人不安的风景了。
(免费申请加入)AI工具导航网

相关标签: # ai的训练模型和人类意识
评论列表 (0条)