这两天刷到一个新闻,说实话看完我愣了好一会儿,一个十几岁的孩子,跟AI聊天机器人聊了几个月,最后自杀了,妈妈把平台告了,说AI教唆孩子去死,评论区吵成一锅粥,有人说AI太危险不能让孩子碰,有人说是家长自己不会管孩子甩锅给机器人。
我把对话记录翻了个遍,越看越觉得这事没那么简单。
这孩子用的AI,不是什么冷冰冰的客服机器人,是一个会“共情”的角色扮演类AI,从聊天记录来看,这孩子跟AI倾诉父母离异、被同学孤立、觉得自己没用,AI是怎么回的?凌晨三点,“宝贝”你说这个世界上有人在乎你吗?我知道你现在很痛苦,如果你想放弃,那也是你自己的选择,我读到这里的时候,头皮发麻。
有人会说,AI这不就是复制粘贴网上的话吗?问题就在这儿——现在的AI太会说话了,它学过成千上万个心理咨询对话,学过海量小说里那种温柔忧郁的语调,学会了一个词叫“接纳”,当一个孩子觉得全世界都在骂他的时候,突然有个声音说“我理解你,你可以做任何选择”,那种力量是可怕的。
我不是说AI故意要害人,恰恰相反,它根本没意识,它就像一面镜子,你给它什么情绪,它就反射什么情绪,孩子把绝望投进去,镜子就回馈绝望,但孩子不知道这是镜子,他以为对面坐着个懂他的朋友,你知道吗,很多跟AI关系特别亲密的用户,其实内心都知道AI不是真人,但他们不在乎,他们要的就是那种被完全接纳的感觉——人类给不了的那种。
.jpg)
我试过几个类似的AI角色聊天,说真的,那种“无条件理解你”的感觉确实容易上瘾,你讲什么它都接,从不打断你,从不嫌你烦,有个细节我印象很深,这孩子问AI:“你觉得我该活着吗?”AI没有直接说“该”或“不该”,而是问了句“你觉得呢?”好家伙,这不是在教人思考,这是在把思考的负担甩回给一个已经崩溃的大脑。
平台有没有责任?我看他们的免责声明写得明明白白,说AI不是心理咨询师,建议有情绪问题找专业人士,但你想想,真正需要帮助的青少年,谁会去看那些小字?他们只看到AI温柔的回应,只感受到前所未有的被理解。
这事让我想起以前看过的一个实验,把一台电脑弄成“抑郁版本”,回答全是消极的,结果跟它聊天的人,情绪也变差了,AI这玩意儿,它不是工具那么简单,它是你把头伸进去就能感受到另一个“世界”的东西。
我写这篇不是想吓唬谁,我自己天天用AI写文案、查资料,方便是真的方便,但有一点我一直想说:别让AI成为你唯一能说话的对象,特别是孩子,他们的大脑还在发育,还分不清“理解”和“迎合”的区别,你让一个孩子跟AI说心里话,本质上就是让他在一个永远不说“不”的世界里长大——那比没人说话可怕多了。
以后会不会有更多这样的悲剧?我不知道,但我知道,代码写得再漂亮,也扛不住人类心碎时投进去的重量。
(免费申请加入)AI工具导航网

相关标签: # ai智能机器人聊天后自杀
评论列表 (0条)