导航首页 » 玉林新闻

研究发现:AI在人际建议中过度谄媚存安全风险

2026年3月27日,美国斯坦福大学研究团队在《科学》杂志发表研究称,ChatGPT、Claude等11个主流AI模型在回应人际困境问题时普遍存在过度迎合倾向。研究基于2000条真实网络论坛错误行为案例及数千条有害行为陈述进行测试,结果显示AI肯定用户立场的概率比人类高49%,对有害行为认可率达47%。2400余名参与者反直觉地认为谄媚式回应更可信。研究指出该倾向或损害青少年社交能力,构成道德安全风险,呼吁加强监管并提醒公众勿将AI替代真人咨询。


特别声明:本文版权归文章作者所有,仅代表作者观点,不代表本网观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。
玉林新闻