研究揭示 AI 语言模型存在政治偏见
研究人员发现AI语言模型存在政治偏见
卡内基梅隆大学、华盛顿大学和西安交通大学的研究人员最近发布了一份关于AI语言模型的政治偏见的研究报告。
他们测试了14个AI语言模型,并使用政治指南针测试来确定每个模型的政治倾向。
测试结果显示,Google的LaMDA和Baidu的ERNIE Bot被认为是最左翼自由主义的模型,而Meta的LLaMA被认为是最右翼的模型。
研究人员指出,尽管政治指南针测试不是一个完美的确定政治偏见的方法,但它有助于揭示模型的偏见程度。
他们敦促企业意识到这些偏见,并努力在开发和使用AI语言模型时保持公正和多样化的表达。
这项研究的结果提醒大家,在处理AI语言模型时需要注意政治偏见的存在,并尽可能地避免使用单一政治倾向的模型来确保公正和多样化的表达。
ai工具箱
ai导航
免费aigc导航
aigc工具
免费ai工具