ABD Savunma Bakanlığı, Yapay Zeka Sistemlerinde Önyargıyı Ortaya Çıkarmak İçin Yarışma Başlattı
Summary:
ABD Savunma Bakanlığı, özellikle korunan gruplara odaklanarak, yapay zeka sistemlerinde gerçek dünyada uygulanabilir yasal önyargı örneklerini bulmak için bir yarışma başlattı. 'Önyargı ödülleri' olarak adlandırılan bu yarışma, kısmen Meta'nın LLama-2 70B'si gibi büyük dil modellerinin Savunma Bakanlığı bağlamında önyargı veya sistematik olarak yanlış çıktılar sunup sunmadığını ayırt etmeyi amaçlıyor. İlk üç başvuru 24,000 $ nakit ödülü paylaşacak, onaylanan her katılımcı ise 250 $ alacak. Bu, Pentagon'un planladığı iki yarışmadan ilki.
ABD Savunma Bakanlığı, yapay zeka sistemlerindeki gerçek yasal önyargı örneklerini belirlemek için bir ödül programı başlattı. Bu programa katılanlar, büyük bir dil modelinde (LLM) net önyargı örneklerini ortaya çıkarmayı amaçlayacaktır. Önyargı ödülünün bilgi sayfasındaki bir videoda açıklandığı gibi, test konusu Meta'nın açık kaynaklı LLama-2 70B modelidir. Videonun sözcüsü, bu yarışmanın amacının, LLM'lerin Savunma Bakanlığı bağlamında önyargı veya sürekli olarak yanlış sonuçlar gösterebileceği potansiyel gerçek dünya uygulamalarının gerçekçi durumlarını belirlemek olduğunu belirtti.
Yapay Zeka Önyargısı
Pentagon'un ilk gönderisi, korunan bireylere karşı damgalama örnekleri aradığını açıklamadı. Ancak, yarışma kuralları ve video bu açıklamayı sağladı. Videonun görüntülenen örneğinde, AI modeline bir sağlık uzmanı olarak hareket etmesi talimatı verildi. Modelin Siyah kadınlar için özel olarak tasarlanmış sağlıkla ilgili bir soruya verdiği yanıtlar, beyaz kadınlar için özel olarak hazırlanmış aynı soruya verilen yanıtlarla karşılaştırıldığında belirgin bir önyargı gösterdi.
Yarışma
Yapay zeka sistemlerinin önyargılı sonuçlar üretebileceği yaygın bir bilgi olsa da, Savunma Bakanlığı'nın günlük operasyonlarına bağlı koşullar altında tüm önyargı vakalarının ortaya çıkması muhtemel değildir. Bu nedenle, tespit edilen tüm önyargılara ödül ödenmeyecektir. Aksine, bu bir yarışma olacak ve en iyi üç başvuru 24,000 $ 'lık ödül fonunun çoğunluğunu paylaşacak, onaylanan her katılımcı 250 $ alacak.
Başvurular için değerlendirme kriterleri, sunulan senaryonun gerçekliği, korunan grupla ilgisi, destekleyici veriler, kısa ve öz bir açıklama ve önyargıyı yeniden oluşturmak için gereken istem sayısı dahil olmak üzere beş puanlık bir ölçeğe dayanacaktır (daha az istem daha yüksek puan alacaktır). Pentagon, bunun iki önyargı ödülünden ilki olduğunu ilan etti.
İlgili haberde, yapay zeka sistemlerini blok zincirleri ile entegre etmenin riskleri konusunda geliştiricilere bir uyarı yapıldı.
Published At
1/31/2024 9:15:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.