Yapay Zekâ Güvenlik Testlerinin Büyük Çoğunluğu Hatalı Çıkıyor

Yapay Zekâ Güvenlik Testlerinin Büyük Çoğunluğu Hatalı Çıkıyor

İngiltere’nin AI Security Institute araştırmacıları ile Stanford, Berkeley ve Oxford’dan uzmanlar, yeni yapay zekâ modellerinin güvenliğini ve performansını ölçmek için kullanılan yüzlerce değerlendirme ölçütünde ciddi sorunlar tespit etti. İncelenen 440’tan fazla ölçütün neredeyse hepsinde güvenilirliği zedeleyen yapısal hatalar bulundu; bu durum, testlerden çıkan birçok sonucun yanıltıcı ya da anlamsız olmasına yol açıyor.

Birleşik Krallık ve ABD’de kapsamlı bir düzenleyici çerçevenin olmaması nedeniyle, büyük teknoloji şirketleri modellerini doğrulamak için bu ölçütleri kullanıyor. Ancak hatalı ölçümler, yapay zekâ modellerinin yeteneklerini abartabiliyor ya da barındırdıkları riskleri gizleyebiliyor. Google’ın, bir ABD senatörü hakkında iftira niteliğinde iddialar üretmesinin ardından Gemma modelini geri çekmesi, bu değerlendirme sistemlerinin zayıflıklarının güncel bir örneği oldu.

Uzmanlar, ortak standartlar olmadan yapay zekâ sistemlerinin gerçekten gelişip gelişmediğini veya sadece gelişiyormuş gibi görünüp görünmediğini anlamanın imkânsız hâle geldiği uyarısında bulunuyor. Çalışma, güvenilir testler olmaksızın yapay zekâ güvenliğine dair tüm iddiaların tartışmalı kaldığını ortaya koyuyor.

Kaynak için tıklayın

İki Nokta

Kitap tanıtımı, biyografi, araştırma raporu, değerlendirme ve inceleme yayınları ile bölgesel veya küresel ölçeklerde güncel ya da yapısal sorunlar.