L'AI Safety Institute del Regno Unito si espande negli Stati Uniti e rivela i risultati dei test di sicurezza
Summary:
L'Institute for Artificial Intelligence (AI) Safety del Regno Unito sta lanciando il suo primo ufficio internazionale a San Francisco, uno sforzo per sfruttare i talenti tecnologici e interagire con i principali laboratori di intelligenza artificiale. L'espansione mira a consolidare le relazioni con importanti attori statunitensi, promuovendo la sicurezza globale dell'IA. L'Istituto ha anche rivelato i risultati dei test di sicurezza di cinque modelli avanzati di intelligenza artificiale, mostrando il potenziale nell'affrontare le sfide della sicurezza informatica e una profonda conoscenza della chimica e della biologia, dimostrando anche un'elevata vulnerabilità a semplici jailbreak e la necessità di supervisione umana per compiti complessi.
Nel tentativo di estendere la sua portata globale, l'Institute for Artificial Intelligence (AI) Safety del Regno Unito aprirà una filiale all'estero negli Stati Uniti. Il Segretario alla Tecnologia del Regno Unito, Michelle Donelan, ha dato la notizia il 20 maggio, indicando che San Francisco era stata scelta come sede per il primo ufficio all'estero, che aprirà i battenti quest'estate. Il posizionamento strategico dell'istituto a San Francisco offre al Regno Unito l'opportunità di sfruttare l'abbondante talento tecnologico all'interno della Bay Area e di interagire con uno dei più grandi laboratori di intelligenza artificiale situati tra Londra e San Francisco. L'istituto ha espresso le sue speranze di consolidare le relazioni con importanti attori americani, incoraggiando la sicurezza dell'IA in tutto il mondo orientata agli interessi pubblici. L'AI Safety Institute, con sede a Londra, vanta una forza lavoro di 30 persone che sono pronte ad espandersi e acquisire maggiori conoscenze, principalmente per quanto riguarda la valutazione del rischio per i modelli di intelligenza artificiale all'avanguardia. Donelan ha considerato l'estensione come una testimonianza della visione pionieristica e strategica del Regno Unito nella sicurezza dell'IA. Ha rafforzato l'impegno del Paese a studiare i rischi e i potenziali benefici dell'IA su scala globale, rafforzando il legame con gli Stati Uniti e aprendo la strada ad altre nazioni per approfondire le loro competenze. L'annuncio fa seguito all'importante AI Safety Summit, tenutosi a Londra nel novembre 2023. Il vertice, il primo nel suo genere, si è concentrato sulla sicurezza dell'IA su scala mondiale. Leader di spicco in tutto il mondo, come il presidente di Microsoft Brad Smith, il CEO di OpenAI Sam Altman, il CEO di Google e DeepMind Demis Hassabiss, Elon Musk, insieme a leader di Stati Uniti e Cina, hanno onorato l'evento. Il Regno Unito ha anche divulgato alcuni dei precedenti risultati dei test di sicurezza dell'istituto su cinque modelli avanzati di intelligenza artificiale aperti al pubblico. I modelli sono stati resi anonimi e i risultati rappresentano un assaggio delle capacità del modello piuttosto che ritenerli privi di rischi o pericolosi. Alcuni dei risultati hanno rivelato che, mentre alcuni modelli erano attrezzati per affrontare i problemi di sicurezza informatica, si sono cimentati con quelli più impegnativi. Alcuni modelli hanno mostrato una profonda conoscenza della chimica e della biologia a livello di dottorato. Tuttavia, tutti i modelli esaminati hanno mostrato un'elevata suscettibilità a semplici jailbreak e la necessità di supervisione umana per compiti complessi e dispendiosi in termini di tempo. Ian Hogearth, presidente dell'istituto, afferma che queste valutazioni aiuteranno nelle valutazioni empiriche delle capacità del modello, ricordandoci che la sicurezza dell'IA rimane un campo nascente e in via di sviluppo e che questi risultati rappresentano solo un segmento dell'approccio di valutazione globale che AISI sta sperimentando.
Published At
5/20/2024 1:00:21 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.