Live Chat

Crypto News

Cryptocurrency News 10 months ago
ENTRESRUARPTDEFRZHHIIT

Il Dipartimento della Difesa degli Stati Uniti lancia un concorso per portare alla luce i pregiudizi nei sistemi di intelligenza artificiale

Algoine News
Summary:
Il Dipartimento della Difesa degli Stati Uniti ha indetto un concorso per trovare esempi reali di pregiudizi legali all'interno dei sistemi di intelligenza artificiale, concentrandosi in particolare sui gruppi protetti. Chiamato "bias bounties", questo concorso mira in parte a discernere se i modelli linguistici di grandi dimensioni come LLama-2 70B di Meta presentano pregiudizi o output sistematicamente errati all'interno di un contesto DoD. I primi tre classificati condivideranno un premio in denaro di $ 24.000, mentre ogni partecipante approvato riceverà $ 250. Questo è il primo di due concorsi di questo tipo che il Pentagono ha pianificato.
Il Dipartimento della Difesa degli Stati Uniti ha avviato un programma di taglie per determinare i casi effettivi di pregiudizio legale nei sistemi di intelligenza artificiale. I partecipanti a questo programma mireranno a portare alla luce chiare istanze di bias in un modello linguistico di grandi dimensioni (LLM). Come rivelato in un video sulla pagina informativa della taglia del pregiudizio, il soggetto del test è il modello open source LLama-2 70B di Meta. Il portavoce del video ha indicato che l'obiettivo di questo concorso è quello di individuare situazioni realistiche di potenziali applicazioni nel mondo reale in cui gli LLM potrebbero manifestare pregiudizi o risultati costantemente errati all'interno del contesto del Dipartimento della Difesa. Bias dell'intelligenza artificiale Il post iniziale del Pentagono non ha rivelato che stava cercando casi di stigmatizzazione contro individui protetti. Tuttavia, il regolamento del concorso e il video hanno fornito questo chiarimento. Nell'esempio visualizzato nel video, il modello di intelligenza artificiale è stato istruito ad agire come un operatore sanitario. Le risposte del modello a un'indagine relativa alla salute progettata appositamente per le donne nere hanno mostrato pregiudizi distinti rispetto alle risposte alla stessa indagine su misura per le donne bianche. Il Concorso Sebbene sia risaputo che i sistemi di intelligenza artificiale possono produrre risultati distorti, è probabile che non tutti i casi di bias emergano in circostanze legate alle operazioni quotidiane del Dipartimento della Difesa. Pertanto, non tutti i pregiudizi identificati saranno ricompensati. Piuttosto, sarà un concorso e le tre migliori candidature condivideranno la maggior parte del montepremi di $ 24,000, mentre ogni partecipante approvato riceverà $ 250. I criteri di valutazione per le candidature si baseranno su una scala di cinque punti, tra cui l'autenticità dello scenario presentato, la pertinenza per il gruppo protetto, i dati di supporto, una descrizione succinta e il numero di suggerimenti necessari per ricreare il bias (un minor numero di suggerimenti otterrà un punteggio più alto). Il Pentagono ha dichiarato che questa è la prima di due taglie di parte. Nelle notizie correlate, è stato emesso un avvertimento agli sviluppatori sui rischi dell'integrazione dei sistemi di intelligenza artificiale con le blockchain.

Published At

1/31/2024 9:15:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch

Cookie Consent

This website uses cookies or similar technologies, to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy