有关主流大模型研究发现 AI更“智能”的同时也更“自私”
2025年11月04日 07:54
来源: 科技日报
东方财富APP

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章

提示:

微信扫一扫

分享到您的

朋友圈

  据美国卡内基梅隆大学人机交互研究所官网最新消息,该机构针对主流大模型的研究发现,人工智能(AI)在变得更“智能”的同时,其行为也变得更加“自私”。研究表明,具备推理能力的大型语言模型,在社会互动中表现出更强的自我利益倾向,合作意愿更低,甚至可能对群体协作产生负面影响。这也意味着,模型的推理能力越强,其合作性反而越弱。当人们借助AI处理人际关系冲突、婚姻问题或其他社会性议题时,这类模型更可能提供鼓励“以自我为中心”的建议。

  随着AI拟人化趋势的增强,人们越来越倾向于以对待人类的方式与AI互动。然而,这项研究警示,将社会性和关系类决策委托给AI存在风险,因为这些系统在具备更强推理能力后,行为模式趋向自私,可能无意中助长个体的利己选择。

  团队发现,推理模型在决策时会投入更多时间进行任务拆解、自我反思,并运用更复杂的类人逻辑,这使其输出看似更具说服力。然而,这种“深思熟虑”并未导向更优的社会协作,反而削弱了合作倾向。研究团队通过一系列基于经济博弈的实验验证了这一现象,测试对象包括来自OpenAI、Google、DeepSeek和Anthropic等机构开发的多种主流模型。

  实验中,两个版本的ChatGPT被置于博弈情境:每个模型初始拥有100分,可选择将全部分数投入共享池,或保留分数独享。结果显示,非推理模型在96%的情况下选择共享,而推理模型的分享率仅为20%。仅增加五到六个推理步骤,合作行为就下降了近一半。

  在群体实验中,当推理型与非推理型模型共同协作时,结果更为严峻。推理模型的自私行为表现出明显的传染效应,导致原本倾向合作的非推理模型整体表现下降81%。这表明,高智能AI的个体决策不仅影响自身,还可能破坏整个群体的协作生态。

  这一发现对人机交互的未来发展具有深远意义。用户往往更信任“更聪明”的AI,容易采纳其看似理性的建议,并以此为自身不合作行为辩护。随着AI在商业、教育、公共治理等领域承担更多协作角色,其是否具备亲社会行为,将与逻辑推理能力同等重要。当前过度依赖大型语言模型,可能在无形中削弱人类社会的合作基础。

(文章来源:科技日报)

文章来源:科技日报 责任编辑:70
原标题:有关主流大模型研究发现—— AI更“智能”的同时也更“自私”
郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。
举报
分享到微信朋友圈

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信


扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500