Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

Un estudio de Virginia Tech revela sesgos geográficos en las respuestas de la herramienta de IA ChatGPT sobre la justicia ambiental

Algoine News
Summary:
Investigadores de Virginia Tech han señalado posibles sesgos en el tratamiento de la herramienta de IA ChatGPT de los problemas de justicia ambiental en varios condados. El estudio sugiere que la herramienta proporciona información específica de la ubicación más fácilmente disponible para los estados densamente poblados, mientras que las regiones menos pobladas carecen de igualdad de acceso. A la luz de estos hallazgos, los expertos han pedido más investigación sobre estos sesgos. Esto sigue a las recientes revelaciones de que ChatGPT podría mostrar sesgos políticos.
Un estudio reciente publicado por Virginia Tech, una universidad con sede en EE. UU., destaca posibles sesgos en las respuestas de la herramienta de IA, ChatGPT, relacionadas con cuestiones de justicia ambiental en varios condados. El informe afirma que ChatGPT muestra limitaciones en su capacidad para proporcionar datos específicos de la ubicación sobre la injusticia ambiental. También identificó un patrón que sugería que la información era más fácilmente accesible para los estados más grandes con poblaciones densas. En estados densamente poblados como Delaware y California, había porciones insignificantes, menos del 1 por ciento, de la población que residía en condados que no recibían información distinta. Sin embargo, las zonas con menor densidad de población no tuvieron el mismo acceso. Por ejemplo, los estados rurales como Idaho y New Hampshire tenían más del 90 por ciento de su población residiendo en condados que no podían obtener información específica de la ubicación, revela el estudio. El informe incluye comentarios de un profesor de geografía en Virginia Tech, Kim, señalando la necesidad de investigación adicional a medida que continúan surgiendo sesgos. "Nuestros hallazgos muestran que existen sesgos geográficos existentes en el modelo de ChatGPT, por lo que se necesita más investigación", declaró Kim. También se incluyó en el artículo académico un mapa que indica las regiones de la población de los EE. UU. sin información específica de la ubicación sobre cuestiones de justicia ambiental. Esta noticia sigue a las recientes revelaciones de que ChatGPT parece exhibir posibles sesgos políticos. El 25 de agosto, Cointelegraph publicó un informe de investigadores con sede en el Reino Unido y Brasil en el que se afirmaba que los grandes modelos de lenguaje (LLM), como ChatGPT, pueden producir texto con errores y sesgos, lo que puede engañar a los lectores y ayudar a magnificar los sesgos políticos transmitidos por los principales medios de comunicación.

Published At

12/17/2023 8:56:37 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch