OpenAI Veterans ve Y Combinator İş Ortağı, Yapay Zeka Güvenliğini Artırmak için 'Safe Superintelligence, Inc.'i Başlattı
Summary:
OpenAI'nin eski baş bilim adamı Ilya Sutskever ve eski bir OpenAI mühendisi olan Daniel Levy, Safe Superintelligence, Inc.'i (SSI) başlatmak için girişim hızlandırıcı Y Combinator'ın eski ortağı Daniel Gross ile işbirliği yaptı. ABD merkezli şirket, yapay zeka (AI) güvenliğini ve yeteneklerini geliştirmeyi hedefliyor. Yapay zeka güvenliğiyle ilgili endişelerin yanı sıra, eski OpenAI çalışanları ve Ethereum kurucu ortağı Vitalik Buterin, Tesla CEO'su Elon Musk ve Apple'ın kurucu ortağı Steve Wozniak dahil olmak üzere önde gelen teknoloji figürleri, potansiyel riskleri değerlendirmek için yapay zeka eğitimine ara verilmesi çağrısında bulundu.
OpenAI'nin eski baş bilim adamı ve kurucu ortağı Ilya Sutskever ve eski OpenAI mühendisi Daniel Levy, Safe Superintelligence, Inc.'i (SSI) başlatmak için girişim hızlandırıcı Y Combinator'ın eski ortağı Daniel Gross ile birlikte çalıştı. Bu yeni girişimin odağı ve ürünü, başlığına da yansıyor. Amerika Birleşik Devletleri'nde Palo Alto ve Tel Aviv'de faaliyet gösteren SSI, kurucu üçlü tarafından 19 Haziran'da çevrimiçi olarak duyurulduğu üzere, güvenlik önlemleri ve yeteneklerini birlikte geliştirerek yapay zekayı (AI) ileriye taşımayı hedefliyor. Emniyet, güvenlik ve ilerlemenin kısa vadeli ticari etkilerden korunmasını sağlayan bir iş modeliyle, yönetim konularının veya ürün döngülerinin neden olduğu dikkat dağıtıcı unsurlardan kaçınmaya benzersiz bir şekilde odaklandıklarını vurguladılar.
14 Mayıs'ta OpenAI'den ayrılmadan önce Sutskever, Gross ile birlikte yapay zeka güvenliğiyle ilgili endişelerini paylaştı. Sutskever, CEO Sam Altman'ın görevine iade edilmesinin ardından yönetim kurulundan ayrıldıktan sonra firmada belirsiz bir rol oynadı. Daniel Levy, Sutskever'dan kısa bir süre sonra OpenAI'den ayrılan araştırmacılar arasındaydı. Sutskever ve Jan Leike, yapay genel zeka (AGI) olarak adlandırılan, bizden daha akıllı yapay zeka sistemlerinin nasıl yönlendirileceğini ve kontrol edileceğini incelemek için Temmuz 2023'te kurulan OpenAI'nin Superalignment ekibine öncülük etti. OpenAI, başlangıcında hesaplama kapasitesinin %20'sini bu ekibe tahsis etti.
Bununla birlikte, Leike de Mayıs ayında organizasyondan ayrıldı ve şu anda Amazon tarafından desteklenen bir AI girişimi olan Anthropic'te bir ekibe liderlik ediyor. Şirket, güvenlik önlemlerini şirket başkanı Greg Brockman'ın ayrıntılı bir X gönderisinde savundu, ancak araştırmacıları Mayıs ayında ayrıldıktan sonra Superalignment ekibini dağıttı.
Eski OpenAI araştırmacıları, AI'nın gelecekteki seyri hakkında endişelerini dile getirme konusunda yalnız değiller. OpenAI'deki personel değişikliğinin ortasında, Ethereum kurucu ortağı Vitalik Buterin, AGI'yi "riskli" olarak nitelendirdi. Bununla birlikte, bu tür modellerin kurumsal açgözlülük ve silahlı kuvvetlerden çok daha az "kıyamet riski" olduğunu da paylaştı.
Eski OpenAI destekçisi, Tesla CEO'su Elon Musk ve Apple'ın kurucu ortağı Steve Wozniak, 2.600'den fazla teknoloji uzmanı ve araştırmacıya katılarak yapay zeka sistemi eğitiminin taşıdığı "derin riski" yansıtmak için altı ay ara verilmesini talep etti.
SSI'nin lansman duyurusu, şirketin araştırmacıları ve mühendisleri işe almak istediğini de belirtti.
Published At
6/20/2024 12:45:47 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.