Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

Anthropic innova i modelli di IA influenzati dagli utenti: un passo verso l'intelligenza artificiale democratizzata

Algoine News
Summary:
Anthropic, una società di intelligenza artificiale, ha sviluppato uno studio che coinvolge un modello linguistico di grandi dimensioni (LLM) che si adatta ai giudizi di valore degli utenti. L'esperimento, il primo nel suo genere, ha coinvolto circa 1000 cittadini statunitensi che hanno contribuito a formulare una costituzione dell'IA. Il processo ha evidenziato alcune sfide, ma alla fine ha ottenuto un miglioramento marginale in termini di output distorto. Anthropic ritiene che questo potrebbe essere uno dei primi casi in cui un gruppo pubblico influenza il comportamento di un LLM e spera che questa tecnica possa essere utilizzata per creare modelli culturalmente specifici in futuro.
La società di intelligenza artificiale, Anthropic, è pioniera di un esperimento senza precedenti nello sviluppo di un modello linguistico considerevole (LLM) su misura per i giudizi di valore degli utenti. Nel suo tentativo di democratizzare lo sviluppo dell'IA, ha collaborato con @collect_intel e ha utilizzato @usepolis per stabilire una costituzione dell'IA basata sulle opinioni di circa 1000 cittadini statunitensi. Successivamente, il modello consolidato è stato messo alla prova tramite l'IA costituzionale. Guardrail o regole di funzionamento predefinite impiegate nella progettazione di molti LLM rivolti ai consumatori, tra cui Claude di Anthropic e ChatGPT di OpenAI, per frenare i risultati indesiderati. Ciononostante, i critici sostengono che questi guardrail adottati violano l'autonomia dell'utente. Essi sostengono che ciò che è ritenuto tollerabile potrebbe non essere necessariamente benefico e viceversa. Inoltre, le differenze culturali, temporali e demografiche complicano ulteriormente i giudizi morali e di valore. Un modo per affrontare questo intricato problema potrebbe essere quello di consentire agli utenti di definire l'allineamento dei valori per i modelli di intelligenza artificiale. Anthropic ha tentato di affrontare questo complesso problema con l'esperimento Collective Constitutional AI, ponendo a 1000 utenti una serie di domande di diversa estrazione demografica tramite sondaggi. L'obiettivo è trovare l'equilibrio tra la discrezionalità editoriale e la prevenzione della produzione di contenuti inappropriati. Il processo prevedeva l'implementazione del feedback degli utenti su un modello già addestrato. Anthropic utilizza l'intelligenza artificiale costituzionale per mettere a punto gli LLM su misura per la sicurezza e l'utilità. Questo è come istruire il modello con un insieme di regole di governo, molto simile a una costituzione, a cui deve poi attenersi rigorosamente. Nell'esperimento Collective Constitutional AI, è stato fatto il tentativo di amalgamare il feedback collettivo nella costituzione del modello. Secondo un post sul blog di Anthropic, l'esperimento rivoluzionario sembra aver raggiunto i suoi obiettivi scientifici, nonostante abbia rivelato ostacoli verso il raggiungimento del suo obiettivo finale: consentire agli utenti di LLM di determinare i loro valori collettivi. Gli ostacoli includevano l'invenzione di un metodo di benchmarking innovativo, poiché non esiste un test stabilito per i modelli messi a punto attraverso un esercizio di crowdsourcing a causa della novità di questo esperimento. In conclusione, il modello che incorpora i dati di sondaggio degli utenti ha ottenuto risultati marginalmente migliori nel settore degli output distorti. Anthropic non vede l'ora di esplorare ulteriormente la procedura ed è fiduciosa che le future comunità globali possano sfruttare queste metodologie per creare modelli che soddisfino specificamente le loro esigenze individuali.

Published At

10/18/2023 5:00:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch