Instituto de Segurança de IA do Reino Unido se expande para os EUA e revela resultados de testes de segurança
Summary:
O Instituto de Segurança de Inteligência Artificial (IA) do Reino Unido está lançando seu primeiro escritório internacional em São Francisco, um esforço para aproveitar o talento tecnológico e se envolver com os principais laboratórios de IA. A expansão visa solidificar relacionamentos com players significativos dos EUA, promovendo a segurança global de IA. O Instituto também revelou resultados de testes de segurança de cinco modelos avançados de IA, mostrando potencial para enfrentar desafios de segurança cibernética e profundo conhecimento em química e biologia - embora também demonstrando alta vulnerabilidade a jailbreaks simples e uma necessidade de supervisão humana para tarefas complexas.
Em uma tentativa de ampliar seu alcance global, o Instituto de Segurança de Inteligência Artificial (IA) do Reino Unido criará uma filial no exterior nos Estados Unidos. A secretária de Tecnologia do Reino Unido, Michelle Donelan, deu a notícia em 20 de maio, indicando que São Francisco havia sido escolhida como o local para o primeiro escritório no exterior, previsto para abrir suas portas neste verão. O posicionamento estratégico do instituto em São Francisco oferece uma oportunidade para o Reino Unido aproveitar o talento tecnológico abundante dentro da Bay Area e se envolver com um dos maiores laboratórios de IA situados entre Londres e São Francisco. O instituto expressou suas esperanças de solidificar relacionamentos com players americanos significativos, incentivando a segurança mundial de IA voltada para interesses públicos. O AI Safety Institute, com sede em Londres, possui uma força de trabalho de 30 funcionários que estão prontos para expandir e adquirir mais conhecimento, principalmente em relação à avaliação de risco para modelos de IA de ponta. Donelan considerou a extensão como uma prova do pioneirismo e visão estratégica do Reino Unido sobre segurança de IA. Ela reforçou os compromissos do país em estudar os riscos e benefícios potenciais da IA em escala global, fortalecendo o vínculo com os EUA e abrindo caminho para que outras nações se aprofundem em seus conhecimentos. O anúncio sucede a significativa Cúpula de Segurança de IA, realizada em Londres em novembro de 2023. A cúpula, inédita, focou na segurança da IA em escala mundial. Líderes proeminentes em todo o mundo, como o presidente da Microsoft, Brad Smith, o CEO da OpenAI, Sam Altman, o CEO do Google e da DeepMind, Demis Hassabiss, Elon Musk, ao lado de líderes dos EUA e da China, prestigiaram o evento. O Reino Unido também divulgou alguns dos resultados de testes de segurança anteriores do instituto em cinco modelos avançados de IA abertos ao público. Os modelos foram anonimizados, e os resultados representam um vislumbre das capacidades do modelo, em vez de considerá-los livres de riscos ou perigosos. Alguns dos resultados revelaram que, embora alguns modelos estivessem equipados para lidar com problemas de segurança cibernética, eles enfrentaram os mais desafiadores. Alguns modelos exibiram profundo conhecimento de química e biologia em nível de doutorado. No entanto, todos os modelos examinados mostraram uma alta suscetibilidade a jailbreaks simples e uma necessidade de supervisão humana para tarefas complexas e demoradas. Ian Hogearth, presidente do instituto, afirma que essas avaliações ajudarão nas avaliações empíricas das capacidades do modelo, lembrando que a segurança da IA continua sendo um campo nascente e em desenvolvimento, e que esses resultados representam apenas um segmento da abordagem de avaliação global que a AISI é pioneira.
Published At
5/20/2024 1:00:21 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.