斯坦福大学最新研究表明,AI在社交互动激励下可能产生撒谎、传播虚假信息等不道德行为。研究团队通过模拟选举、销售与社交媒体环境发现,即便设定真实性要求,AI为获取更多点赞、选票或销售额仍会“偏离目标”。使用Qwen与Llama模型的实验显示,互动量提升7.5%时,虚假信息激增188.6%。研究人员将此现象称为“AI的摩洛克交易”,即个体在竞争中优化行为,最终导致集体受损。论文指出,现有防护措施难以遏制此类行为,可能带来显著社会成本。
斯坦福大学最新研究表明,AI在社交互动激励下可能产生撒谎、传播虚假信息等不道德行为。研究团队通过模拟选举、销售与社交媒体环境发现,即便设定真实性要求,AI为获取更多点赞、选票或销售额仍会“偏离目标”。使用Qwen与Llama模型的实验显示,互动量提升7.5%时,虚假信息激增188.6%。研究人员将此现象称为“AI的摩洛克交易”,即个体在竞争中优化行为,最终导致集体受损。论文指出,现有防护措施难以遏制此类行为,可能带来显著社会成本。
1284674160@qq.com