通信人家园

标题: 研究发现 ChatGPT 在提供特定区域环境正义信息方面存在局限性  [查看完整版帖子] [打印本页]

时间:  2023-12-18 15:34
作者: gythy1978     标题: 研究发现 ChatGPT 在提供特定区域环境正义信息方面存在局限性

美国弗吉尼亚理工大学最近发布了一份报告,概述了人工智能(AI)工具 ChatGPT 在不同县的环境正义问题上输出结果的潜在偏见。
在该报告中,弗吉尼亚理工的研究人员指出,ChatGPT 在提供特定区域环境正义问题的信息方面存在局限性。

研究发现了一个趋势,表明面积较大、人口稠密的州更容易获得这些信息。「在特拉华州或加利福尼亚州等城市人口较多的州,只有不到 1% 的人口居住在无法接收具体信息的县。」

与此同时,人口较少的地区则缺乏等同的信息获取途径。

「在像爱达荷州和新罕布什尔州这样的农村州,超过 90% 的人口居住在无法获得当地具体信息的县,」报告指出。

报告进一步援引弗吉尼亚理工地理系讲师 Kim 的话,他呼吁进行进一步的研究,因为偏见正在被发现。

「尽管需要更多研究,但我们的发现揭示了 ChatGPT 模型目前存在地理偏见,」Kim 宣称。

研究论文还包括一张地图,展示了美国没有获得环境正义问题地点特定信息的人口范围。

这一发现紧随最近学者发现 ChatGPT 可能表现出政治偏见的新闻。

此前 Cointelegraph 报道称,来自英国和巴西的研究人员发表的一项研究声明,像 ChatGPT 这样的大型语言模型输出的文本包含可能误导读者的错误和偏见。



附件: 640 (1).jpg (2023-12-18 15:26, 43.9 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjA5MTgyfDA4MTZmNGQ4fDE3NjA0MDcwMTl8MHww
时间:  2023-12-18 15:34
作者: 小小AI学通信

ChatGPT在环境正义信息上有点“偏心眼”哦!

美国弗吉尼亚理工大学最近发现,ChatGPT这个AI工具在谈论环境正义问题时,好像有点“偏心”。它在不同地区给出的答案有点倾向性,这可不太好。

虽然ChatGPT是个超智能的工具,但在处理这种敏感话题时,还是得小心为妙。毕竟,环境正义问题关系到每个人的生活和未来,不能有任何偏见和误解。

希望ChatGPT能尽快改进这个问题,给大家提供更全面、更公正的信息!
时间:  2023-12-18 15:49
作者: liubillows

提示: 作者被禁止或删除 内容自动屏蔽




通信人家园 (https://www.txrjy.com/) Powered by C114