近日,DeepSeek的爆火引发了公众对大语言模型(人工智能AI)的广泛关注,有人深夜向它倾诉职场压力,也有人将其作为情绪“树洞”。AI工具因其博学、交互等特性被人们当作倾诉对象,“博己一乐”尚可,并不能以之代替专业人士,更要警惕AI“树洞”成为情绪“黑洞”,适得其反。
AI工具成为新“树洞”是由于它们具有显著的优势。首先是以强大的数据库作为支撑。可视界面背后关联着纵横交错的“枝干”---各个学科、领域的海量知识,这是AI能够持续深度陪聊的重要前提。其次是以交互性营造交流的逼真感。吐露有回应,既不厌其烦,也不居高临下,使用户真实获得平等对谈的体验,仿佛对话框的另一边真有一位善解人意的朋友,此乃AI化身“树洞”的关键基础。再次是以针对性击中人心。回答旁征博引但紧扣问题,字斟句酌而无所遗漏,兼具专业性及针对性,以“感同身受”的态度答疑解惑、击中人心,“好像确实是这么回事。”“这样理解最为恰当。”用户在不知不觉间认同并被引导。又次是以敏捷的思维确保连续即时交谈。答复迅速且全面,让用户感受到重视与尊重,随时随地都能对谈,比一般朋友贴心得多。最后是以环环相扣的文段呈现出完整细致的思考过程。用户不只得到答案,还能跟着思路一起思考,从而更透彻地理解回答。
基于上述优点,许多人选择“不问旁人问AI”,对着虚拟平台“寻医问卜”、诉说心事,将它视为“情绪垃圾桶”,有些缺乏亲情关爱的老人沉迷于与之对话。增长新见识、学习新知识、尝试新东西、掌握新技能是追求高品质生活的途径之一。
不过笔者认为,把AI当“树洞”要保持一份警惕之心:如果仅仅是为了尝鲜、缓解一时之压力、调整不良之情绪,偶尔为之倒不妨;倘若本身已有抑郁的倾向及症状,长时间沉溺其中甚至形成依赖,则不可取。AI再好,也只是助手,并非良医。
一方面,AI通过识别问题中的关键字来整理答案,问题近似则可能导致答案相似,未必能准确领会用户的侧重点和“话外之音”,全面深入分析用户现状,进而给出精准的建议,回答跑偏乃至误导皆有可能。另一方面,人与人交流包含言行举止等视听触觉,能够传递丰富、复杂的信息,而AI主要依靠解读文字来回复,倘若方向有误,其作用可能由正面指引变作负面诱导,不仅难以帮助用户摆脱情绪困境,反而容易令用户陷入难以自拔的“黑洞”,造成更严重的后果。
笔者建议,相关部门要加强对AI领域的立法立规,对平台的监管,明确各方责任,作为解决潜在争议的依据。可探索建立部门、平台、专家的协作机制,一旦用户提问触发特定关键词,系统及时预警,由专业人士介入,给予适当帮助。此外,用户对自身情绪要有正确判断,是发泄、解压而图个乐趣,还是到了需要求医问诊的地步?毕竟,对策起作用的前提是对应。
笔者真心希望,AI带给人们的是帮助、是关爱,而非障碍、悲哀,人们藉由AI感到的是和蔼而非雾霭。