Live Chat

Crypto News

Cryptocurrency News 6 months ago
ENTRESRUARPTDEFRZHHIIT

Uno studio della Virginia Tech rivela pregiudizi geografici nelle risposte dello strumento di intelligenza artificiale ChatGPT sulla giustizia ambientale

Algoine News
Summary:
I ricercatori della Virginia Tech hanno sottolineato potenziali pregiudizi nel trattamento dello strumento di intelligenza artificiale ChatGPT delle questioni di giustizia ambientale in varie contee. Lo studio suggerisce che lo strumento fornisce informazioni specifiche sulla posizione più facilmente disponibili per gli stati densamente popolati, mentre le regioni meno popolate non hanno pari accesso. Alla luce di questi risultati, gli esperti hanno chiesto ulteriori ricerche su questi pregiudizi. Ciò fa seguito alle recenti rivelazioni su ChatGPT che potrebbe mostrare pregiudizi politici.
Un recente studio pubblicato da Virginia Tech, un'università con sede negli Stati Uniti, evidenzia possibili pregiudizi nello strumento di intelligenza artificiale, le risposte di ChatGPT relative a questioni di giustizia ambientale in varie contee. Il rapporto afferma che ChatGPT mostra limiti nella sua capacità di fornire dati specifici sulla posizione sull'ingiustizia ambientale. Ha anche identificato un modello che suggerisce che le informazioni erano più facilmente accessibili agli stati più grandi con popolazioni dense. Negli stati densamente popolati come il Delaware e la California, c'erano porzioni trascurabili, meno dell'1%, della popolazione che risiedeva in contee che non ricevevano informazioni distinte. Tuttavia, alle aree con una minore densità di popolazione non è stato concesso lo stesso accesso. Ad esempio, gli stati rurali come l'Idaho e il New Hampshire avevano oltre il 90% della popolazione residente in contee che non potevano ottenere informazioni specifiche sulla posizione, rivela lo studio. Il rapporto include i commenti di un docente di geografia presso la Virginia Tech, Kim, che sottolinea la necessità di ulteriori ricerche poiché i pregiudizi continuano ad emergere. "I nostri risultati mostrano che ci sono pregiudizi geografici esistenti nel modello ChatGPT, quindi sono necessarie ulteriori ricerche", ha dichiarato Kim. Nel documento accademico è stata inclusa anche una mappa che indica le regioni della popolazione degli Stati Uniti senza informazioni specifiche sulla posizione su questioni di giustizia ambientale. Questa notizia segue le recenti rivelazioni secondo cui ChatGPT sembra mostrare potenziali pregiudizi politici. Il 25 agosto, Cointelegraph ha pubblicato un report di ricercatori con sede nel Regno Unito e in Brasile in cui si afferma che i modelli linguistici di grandi dimensioni (LLM), come ChatGPT, possono produrre testo con errori e pregiudizi, che possono ingannare i lettori e aiutare a amplificare i pregiudizi politici veicolati dai media mainstream.

Published At

12/17/2023 8:56:37 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch