Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

Une étude de Virginia Tech révèle des biais géographiques dans les réponses de l’outil d’IA ChatGPT sur la justice environnementale

Algoine News
Summary:
Des chercheurs de Virginia Tech ont souligné des biais potentiels dans le traitement des questions de justice environnementale par l’outil d’IA ChatGPT dans divers comtés. L’étude suggère que l’outil fournit des informations spécifiques à l’emplacement plus facilement accessibles aux États densément peuplés, tandis que les régions moins peuplées n’ont pas un accès égal. À la lumière de ces résultats, les experts ont appelé à des recherches supplémentaires sur ces biais. Cela fait suite aux récentes révélations de ChatGPT montrant potentiellement des préjugés politiques.
Une étude récente publiée par Virginia Tech, une université basée aux États-Unis, met en évidence les biais possibles dans l’outil d’IA, les réponses de ChatGPT relatives aux questions de justice environnementale dans différents pays. Le rapport affirme que ChatGPT montre des limites dans sa capacité à fournir des données spécifiques à la localisation sur l’injustice environnementale. Il a également identifié une tendance suggérant que l’information était plus facilement accessible aux grands États à forte population. Dans les États densément peuplés comme le Delaware et la Californie, il y avait des portions négligeables, moins de 1%, de la population résidant dans des comtés qui ne recevaient pas d’informations distinctes. Cependant, les zones à faible densité de population n’ont pas bénéficié du même accès. Par exemple, dans des États ruraux comme l’Idaho et le New Hampshire, plus de 90 % de la population résiderait dans des comtés qui ne pouvaient pas obtenir d’informations spécifiques à l’emplacement, révèle l’étude. Le rapport comprend les commentaires d’un professeur de géographie à Virginia Tech, Kim, soulignant la nécessité de recherches supplémentaires alors que des préjugés continuent d’émerger. « Nos résultats montrent qu’il existe des biais géographiques dans le modèle ChatGPT, donc des recherches supplémentaires sont nécessaires », a déclaré Kim. Une carte indiquant les régions de la population américaine sans informations spécifiques à l’emplacement sur les questions de justice environnementale a également été incluse dans l’article universitaire. Cette nouvelle fait suite à de récentes révélations selon lesquelles ChatGPT semble présenter des préjugés politiques potentiels. Le 25 août, Cointelegraph a publié un rapport de chercheurs basés au Royaume-Uni et au Brésil indiquant que les grands modèles de langage (LLM), comme ChatGPT, peuvent produire du texte avec des erreurs et des biais, ce qui peut tromper les lecteurs et contribuer à amplifier les préjugés politiques véhiculés par les médias grand public.

Published At

12/17/2023 8:56:37 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch