Das britische AI Safety Institute expandiert in die USA und enthüllt Ergebnisse von Sicherheitstests
Summary:
Das britische Institute for Artificial Intelligence (AI) Safety eröffnet sein erstes internationales Büro in San Francisco, um technische Talente zu nutzen und mit führenden KI-Labors zusammenzuarbeiten. Die Erweiterung zielt darauf ab, die Beziehungen zu bedeutenden US-Akteuren zu festigen und die globale KI-Sicherheit zu fördern. Das Institut enthüllte auch Ergebnisse von Sicherheitstests von fünf fortschrittlichen KI-Modellen, die Potenzial bei der Bewältigung von Cybersicherheitsherausforderungen und fundierte Kenntnisse in Chemie und Biologie aufzeigen - aber auch eine hohe Anfälligkeit für einfache Jailbreaks und die Notwendigkeit menschlicher Überwachung für komplexe Aufgaben.
Um seine globale Reichweite zu erweitern, wird das britische Institute for Artificial Intelligence (AI) Safety eine Auslandsniederlassung in den Vereinigten Staaten einrichten. Die britische Technologieministerin Michelle Donelan gab die Nachricht am 20. Mai bekannt und wies darauf hin, dass San Francisco als Standort für das erste Auslandsbüro ausgewählt wurde, das in diesem Sommer seine Türen öffnen soll. Die strategische Positionierung des Instituts in San Francisco bietet dem Vereinigten Königreich die Möglichkeit, die zahlreichen Tech-Talente in der Bay Area zu nutzen und mit einem der größten KI-Labore zwischen London und San Francisco zusammenzuarbeiten. Das Institut äußerte seine Hoffnung, die Beziehungen zu bedeutenden amerikanischen Akteuren zu festigen und eine weltweite KI-Sicherheit zu fördern, die auf das öffentliche Interesse ausgerichtet ist. Das in London ansässige AI Safety Institute verfügt über 30 Mitarbeiter, die bereit sind, zu expandieren und mehr Wissen zu erwerben, vor allem in Bezug auf die Risikobewertung für hochmoderne KI-Modelle. Donelan betrachtete die Verlängerung als Beweis für die bahnbrechenden und strategischen Erkenntnisse Großbritanniens in Bezug auf die KI-Sicherheit. Sie bekräftigte das Engagement des Landes, die Risiken und potenziellen Vorteile von KI auf globaler Ebene zu untersuchen, die Bindung zu den USA zu stärken und den Weg für andere Nationen zu ebnen, sich mit ihrem Fachwissen zu befassen. Die Ankündigung folgt auf den bedeutenden AI Safety Summit, der bereits im November 2023 in London stattfand. Der Gipfel, der erste seiner Art, konzentrierte sich auf die KI-Sicherheit auf weltweiter Ebene. Prominente Führungskräfte aus der ganzen Welt, wie Microsoft-Präsident Brad Smith, OpenAI-CEO Sam Altman, Google- und DeepMind-CEO Demis Hassabiss, Elon Musk, sowie Führungskräfte aus den USA und China beehrten die Veranstaltung. Das Vereinigte Königreich hat auch einige der früheren Sicherheitstestergebnisse des Instituts an fünf fortschrittlichen KI-Modellen veröffentlicht, die der Öffentlichkeit zugänglich sind. Die Modelle wurden anonymisiert, und die Ergebnisse geben einen Einblick in die Fähigkeiten des Modells, anstatt sie als risikofrei oder gefährlich zu betrachten. Einige der Ergebnisse zeigten, dass einige Modelle zwar für die Bewältigung von Cybersicherheitsproblemen gerüstet waren, sich aber mit den schwierigeren auseinandersetzten. Einige Modelle zeigten fundierte Kenntnisse in Chemie und Biologie auf Doktorandenebene. Alle untersuchten Modelle zeigten jedoch eine hohe Anfälligkeit für einfache Jailbreaks und einen Bedarf an menschlicher Überwachung für komplizierte, zeitaufwändige Aufgaben. Ian Hogearth, der Vorsitzende des Instituts, behauptet, dass diese Evaluierungen bei der empirischen Bewertung der Modellfähigkeiten helfen werden, und erinnert uns daran, dass die KI-Sicherheit ein aufstrebendes und sich entwickelndes Feld bleibt und dass diese Ergebnisse nur einen Teil des globalen Evaluierungsansatzes darstellen, für den AISI Pionierarbeit leistet.
Published At
5/20/2024 1:00:21 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.