İngiltere'nin Yapay Zeka Güvenlik Enstitüsü ABD'ye Genişliyor, Güvenlik Testi Bulgularını Açıkladı
Summary:
Birleşik Krallık Yapay Zeka (AI) Güvenliği Enstitüsü, San Francisco'da ilk uluslararası ofisini açıyor ve teknoloji yeteneklerinden yararlanma ve önde gelen yapay zeka laboratuvarlarıyla etkileşim kurma çabası gösteriyor. Genişleme, önemli ABD'li oyuncularla ilişkileri sağlamlaştırmayı ve küresel yapay zeka güvenliğini teşvik etmeyi amaçlıyor. Enstitü ayrıca, siber güvenlik zorluklarının üstesinden gelme potansiyeli ve kimya ve biyolojideki derin bilgi birikimi gösteren beş gelişmiş yapay zeka modelinin güvenlik testinden elde edilen sonuçları da açıkladı - ancak aynı zamanda basit jailbreak'lere karşı yüksek güvenlik açığı ve karmaşık görevler için insan denetimine ihtiyaç duyulduğunu gösterdi.
Küresel erişimini genişletmek amacıyla, Birleşik Krallık Yapay Zeka (AI) Güvenliği Enstitüsü, Amerika Birleşik Devletleri'nde denizaşırı bir şube kuracak. İngiltere Teknoloji Sekreteri Michelle Donelan, 20 Mayıs'ta San Francisco'nun bu yaz kapılarını açacak olan ilk yurtdışı ofisi için yer olarak seçildiğini belirtti. Enstitünün San Francisco'daki stratejik konumu, İngiltere'ye Körfez Bölgesi'ndeki bol teknoloji yeteneğinden yararlanma ve Londra ile San Francisco arasında yer alan en büyük AI laboratuvarlarından biriyle ilişki kurma fırsatı sunuyor. Enstitü, önemli Amerikalı oyuncularla ilişkileri sağlamlaştırmayı umduğunu ve dünya çapında kamu çıkarlarına yönelik yapay zeka güvenliğini teşvik ettiğini belirtti. Londra merkezli AI Safety Institute, öncelikle son teknoloji AI modelleri için risk değerlendirmesi konusunda genişlemeye ve daha fazla bilgi edinmeye hazır 30 personelden oluşan bir işgücüne sahiptir. Donelan, genişletmeyi İngiltere'nin yapay zeka güvenliğine yönelik öncü ve stratejik anlayışının bir kanıtı olarak gördü. Ülkenin yapay zekanın risklerini ve potansiyel faydalarını küresel ölçekte inceleme, ABD ile bağı güçlendirme ve diğer ulusların uzmanlıklarını araştırmalarının önünü açma konusundaki taahhütlerini güçlendirdi. Duyuru, Kasım 2023'te Londra'da düzenlenen önemli AI Güvenlik Zirvesi'nin yerini aldı. Türünün ilk örneği olan zirve, dünya çapında yapay zeka güvenliğine odaklandı. Microsoft Başkanı Brad Smith, OpenAI CEO'su Sam Altman, Google ve DeepMind CEO'su Demis Hassabiss, Elon Musk gibi dünyanın önde gelen liderlerinin yanı sıra ABD ve Çin'den liderler etkinliği onurlandırdı. İngiltere ayrıca, enstitünün halka açık beş gelişmiş AI modelinde önceki güvenlik testlerinin sonuçlarından bazılarını açıkladı. Modeller anonimleştirildi ve sonuçlar, risksiz veya tehlikeli olarak kabul edilmek yerine modelin yeteneklerine bir bakış sunuyor. Sonuçlardan bazıları, bazı modellerin siber güvenlik sorunlarının üstesinden gelmek için donatılmış olmasına rağmen, daha zorlu olanlarla boğuştuklarını ortaya koydu. Birkaç model, doktora düzeyinde derin kimya ve biyoloji bilgisi sergiledi. Bununla birlikte, incelenen tüm modeller, basit jailbreak'lere karşı yüksek bir duyarlılık ve karmaşık, zaman alıcı görevler için insan denetimine ihtiyaç duyulduğunu gösterdi. Enstitünün başkanı Ian Hogearth, bu değerlendirmelerin model yeteneklerinin ampirik değerlendirmelerine yardımcı olacağını iddia ederek, yapay zeka güvenliğinin yeni ortaya çıkan ve gelişmekte olan bir alan olmaya devam ettiğini ve bu sonuçların AISI'nin öncülük ettiği küresel değerlendirme yaklaşımının yalnızca bir bölümünü temsil ettiğini hatırlatıyor.
Published At
5/20/2024 1:00:21 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.