El Instituto de Seguridad de la IA del Reino Unido se expande a los EE. UU. y revela los resultados de las pruebas de seguridad
Summary:
El Instituto para la Seguridad de la Inteligencia Artificial (IA) del Reino Unido está lanzando su primera oficina internacional en San Francisco, un esfuerzo por aprovechar el talento tecnológico y comprometerse con los principales laboratorios de IA. La expansión tiene como objetivo solidificar las relaciones con importantes actores estadounidenses, fomentando la seguridad global de la IA. El Instituto también reveló los resultados de las pruebas de seguridad de cinco modelos avanzados de IA, que muestran potencial para abordar los desafíos de ciberseguridad y un profundo conocimiento en química y biología, aunque también demuestran una alta vulnerabilidad a los jailbreaks simples y la necesidad de supervisión humana para tareas complejas.
En un intento por ampliar su alcance global, el Instituto para la Seguridad de la Inteligencia Artificial (IA) del Reino Unido establecerá una sucursal en el extranjero en los Estados Unidos. La secretaria de Tecnología del Reino Unido, Michelle Donelan, dio la noticia el 20 de mayo, indicando que San Francisco había sido elegida como el sitio para la primera oficina en el extranjero, que abrirá sus puertas este verano. El posicionamiento estratégico del instituto en San Francisco ofrece una oportunidad para que el Reino Unido aproveche el abundante talento tecnológico dentro del Área de la Bahía y se comprometa con uno de los laboratorios de IA más grandes situados entre Londres y San Francisco. El instituto expresó sus esperanzas de solidificar las relaciones con importantes actores estadounidenses, fomentando la seguridad de la IA en todo el mundo orientada a los intereses públicos. El Instituto de Seguridad de la IA, con sede en Londres, cuenta con una plantilla de 30 personas que están preparadas para ampliar y adquirir más conocimientos, principalmente en lo que respecta a la evaluación de riesgos para modelos de IA de vanguardia. Donelan consideró la ampliación como un testimonio de la visión pionera y estratégica del Reino Unido sobre la seguridad de la IA. Reforzó los compromisos del país con el estudio de los riesgos y beneficios potenciales de la IA a escala global, fortaleciendo el vínculo con los EE. UU. y allanando el camino para que otras naciones profundicen en su experiencia. El anuncio sucede a la importante Cumbre de Seguridad de la IA, celebrada en Londres en noviembre de 2023. La cumbre, la primera de su tipo, se centró en la seguridad de la IA a escala mundial. Destacados líderes de todo el mundo, como el presidente de Microsoft, Brad Smith, el director ejecutivo de OpenAI, Sam Altman, el director ejecutivo de Google y DeepMind, Demis Hassabiss, Elon Musk, junto con líderes de Estados Unidos y China, honraron el evento. El Reino Unido también reveló algunos de los resultados de las pruebas de seguridad anteriores del instituto en cinco modelos avanzados de IA abiertos al público. Los modelos fueron anonimizados, y los resultados representan un vistazo de las capacidades del modelo en lugar de considerarlos libres de riesgos o peligrosos. Algunos de los resultados revelaron que, si bien algunos modelos estaban equipados para abordar problemas de ciberseguridad, se enfrentaron a los más desafiantes. Algunos modelos exhibieron un profundo conocimiento de la química y la biología a nivel de doctorado. Sin embargo, todos los modelos examinados mostraron una alta susceptibilidad a los jailbreaks simples y una necesidad de supervisión humana para tareas intrincadas y que consumen mucho tiempo. Ian Hogearth, presidente del instituto, afirma que estas evaluaciones ayudarán en las evaluaciones empíricas de las capacidades de los modelos, recordándonos que la seguridad de la IA sigue siendo un campo incipiente y en desarrollo, y que estos resultados solo representan un segmento del enfoque de evaluación global en el que AISI es pionero.
Published At
5/20/2024 1:00:21 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.