Politika Yapımında Yapay Zekâ: Teknokratik Bir Ütopya mı, Meşruiyet Krizi mi?

Politika Yapımında Yapay Zekâ: Teknokratik Bir Ütopya mı, Meşruiyet Krizi mi?

 

Yapay zekânın politika üretim sürecine dâhil edilmesi teknik bir verimlilik ve rasyonellik arayışı olarak sunulsa da bu yaklaşım politikanın doğasını göz ardı ederek ciddi bir meşruiyet, öznellik ve sorumluluk krizi yaratma potansiyeli taşıyor. Bu durum, siyasi kararları teknik birer probleme indirgeyen ve toplumsal müzakereyi devre dışı bırakan tehlikeli bir eğilimi besliyor.

Rana Canan Cömert

 

Bir zamanlar Blade Runner, Her gibi filmlerde bir distopya olarak kurgulanan yapay zekâ, artık somut bir gerçekliğe dönüştü. Fakat ilginç bir şekilde, artık bu teknolojiye bir tehdit olarak değil, hayatımızı kolaylaştıracak bir ilerleme aracı olarak bakıyoruz. Bu teknolojik iyimserlik, yapay zekâyı sıradan bir yardımcı olmaktan çıkarıyor; onu iklim krizi, ekonomik eşitsizlikler ve kamu sağlığı gibi çağımızın en büyük sorunlarına dahi ‘veriye dayalı’, ‘objektif’ ve ‘hızlı’ çözümler sunabilecek bir kurtarıcı olarak konumlandırıyor.

Dünyanın önde gelen düşünce kuruluşlarından Rand Corporation, “Rethinking” araştırma serisinin “Politika Süreçleri için İyi Ayarlanmış Yapay Zekâ Asistanı” başlıklı raporunda, yapay zekânın politika yapımı konusunda eğitilebileceğini ve bu sayede toplumun her kesimi için en etkili ve verimli politikalara ulaşılabileceğini öne sürüyor. Fakat bu noktada şu soru öne çıkıyor: Yapay zekâ milyonların yaşamını etkileyen politik kararlar alabilir mi? Bu rasyonalite arayışı, “meşruiyet” ve “sorumluluk” gibi temel politik soruları yeniden gündeme getiriyor; verimlilik uğruna daha derin bir meşruiyet krizine yol açma riski taşıyor.

Yapay Zekâ araçları nasıl çalışıyor?

Büyük Dil Modelleri (LLM), kitaplar, makaleler ve internetin metin arşivi gibi çok büyük miktarda veriyle eğitilir. Bir soru sorduğumuzda, model aslında hangi kelimelerin birbiri ardına gelme olasılığının en yüksek olduğunu hesaplayarak bir yanıt inşa eder. Yani yapay zekâ, bir fikre sahip değildir, sadece eğitildiği veri setindeki en baskın fikirleri ve söylemleri yansıtır. Örneğin,yapay zekânın İsrail’in Gazze’deki eylemlerine dair analizi, eğitildiği veride İsrail yanlısı kaynaklar ağırlıktaysa bu eğilimi yansıtacaktır.

Rand Corporation’un raporu, toplumsal sorunların uygun komutlarla yapay zekâ tarafından en etkili biçimde çözülebileceğini öne sürüyor. LLM’lerin başlangıçta yüzeysel yanıtlar üreteceğini kabul eden rapor, bunu aşmak için “meta-sezgisel” (metaheuristic) adını verdikleri bir yöntem öneriyor: Önce sorun (örneğin su krizi) belirleniyor, yapay zekâdan bir politika taslağı isteniyor ve ardından belediye başkanı, çiftçi, çevre aktivisti, sanayici gibi farklı çıkar gruplarını temsil eden “sanal paydaşlar” sürece dâhil ediliyor. Bu sanal kimlikler, yapay zekânın ürettiği ilk taslağı kendi önceliklerine göre eleştiriyor ve iyileştirme önerileri sunuyor. Yapay zekâ, bu çelişkili geri bildirimleri sentezleyerek daha dengeli ve detaylı yeni bir politika paketi oluşturuyor. Bu döngü, en “optimal” sonuca ulaşılana kadar tekrarlanıyor. Kısacası Rand’in önerdiği sistem, yapay zekâyı bir ‘bilge’ gibi değil, farklı çıkarları tartan ve en verimli çözümü arayan bir moderatör gibi kullanmayı hedefliyor.

Teknik Rasyonalite ve Meşruiyetin Kırılganlığı

Her ne kadar yapay zekâya dair bu politika yapım önerisi teoride daha kapsayıcı, katılımcı ve müzakereye açık bir süreç vaat etse de, bu yolla üretilen bir politika metninin uzmanlar, siyasetçiler ya da müesses nizam tarafından “hakikatin tamamını kapsayan” nihai bir çözüm olarak sunulmayacağının bir garantisi yok. Üstelik sürecin kendisine dair de ciddi belirsizlikler göze çarpıyor. Örneğin, paydaşların değerleri ve öncelikleri neye göre belirlenecek? Hangi aktör, tartışmaya hangi ölçütlere göre dahil olacak?

Bir diğer soru işareti ise bu sürecin dayandığı “rasyonellik” varsayımında yatıyor. Göz önünde bulundurulmalıdır ki rasyonellik, sosyal bilimlerde tüm eleştirilerden azade, yekpare bir kavram değildir. Kararların bu şekilde “itiraz edilemez” bir rasyonellikle dizayn edilmesi, demokratik güven ve denetim mekanizmalarının işlevsiz kalacağına dair güçlü bir izlenim uyandırıyor.

Bütün bunlar, uzmanların teknolojiyi sorgulanamaz, mutlak ve kestirme bir çözüm otoritesi olarak konumlandırma eğilimiyle birleştiğinde, yapay zekâ temelli politik araçların demokrasiyi ve müzakere kültürünü aşındırma ihtimalini de gündeme getiriyor.

Aktörler Buharlaşıyor

Huricihan İslamoğlu, Enstitü Sosyal’de gerçekleştirdiği İki Nokta buluşmalarında, günümüz küresel düzeninde karar alma süreçlerinin giderek “siyasi özneden arındırılmış” bir niteliğe büründüğünü vurgulamıştı. Ona göre, uluslararası kurumlar ve uzmanlar tarafından üretilen teknik reform paketleri, toplumsal dinamikler dikkate alınmadan uygulanıyor ve bu da ciddi bir meşruiyet boşluğu yaratıyor.

İslamoğlu’nun bu tespiti, Avrupa Birliği, Birleşmiş Milletler veya OECD gibi uluslararası kuruluşların karar alma mekanizmalarına yönelttiği eleştiriyi hatırlatıyor. Uluslararası komitelerde alınan kararlar çoğu zaman sorgulanmadan, o toplumun yapısı incelenmeden, “teknik” bir zorunluluk görünümüyle uygulamaya konuluyor. Sonuçlar bekleneni vermediğinde ya da ciddi kayıplar doğurduğunda ise sorumlu bir özne bulmak mümkün olmuyor; bedelini ödeyenler yine yerel halklar oluyor.

James Ferguson “Anti-Politics Machine” adlı kitabında bu durumu saha çalışmalarıyla destekleyerek açıklıyor. Ferguson, Lesotho'daki kalkınma projelerinin nasıl sistematik olarak başarısız olduğunu, ancak bu başarısızlığa rağmen bürokratik aygıtların nasıl daha da güçlendiğini gösterir. Ona göre sorun, bu projelerin yoksulluk gibi derin siyasi meseleleri, basit ‘teknik’ problemlere indirgemesidir. Bu ‘siyasetsizleştirme’ süreci, yerel halkın iradesini ve politik süreçleri bypass ederken, kararların arkasındaki özneyi de belirsizleştirir. Başarısız bir projenin sorumlusu yoktur, sadece daha fazla veriye, daha iyi bir plana ihtiyaç vardır. İşte yapay zekâ, bu Anti-Politika Makinesi'nin yeniden üretimini sağlayan bir güç olarak sahneye çıkıyor. Rand Raporu’nda önerilen sistem, Ferguson’un tarif ettiği mekanizmanın dijital bir tezahürü olarak yorumlanabilir.

Rasyonellik Perdesinin Ardında

Bu durum, Timothy Mitchell’in Rule of Experts’ta açıkladığı uzmanlık rejimlerini hatırlatan bir işleyiş yaratıyor. Mitchell’e göre modern yönetim biçimleri, toplumsal sorunları teknik bilgi alanına çekerek siyaseti uzmanlık içinde eritir; böylece meseleler tarihsel ve toplumsal bağlamlarından koparılıp “teknik problemler”e indirgenir ve kararların ardındaki politik tercihler görünmez kılınır.

Bugün kapitalist neo-liberal toplumların adalet, özgürlük, demokrasi gibi temel kavramları (Gazze’de yaşanan soykırım düşünüldüğünde insan hakları söylemleri de dahil) derin bir meşruiyet krizinden geçiyor. Yapay zekâ, bu krizi aşmanın bir yolu olarak sunuluyor: En “rasyonel”, en “itiraz edilemez” görünen teknik çözümler üreterek politik tercihleri teknik zorunluluklar gibi gösteren bir perde işlevi görüyor. Böylece bir politikanın neden yapılması gerektiğine dair ahlaki ve siyasi tartışma geri plana itilirken, nasıl yapılacağına dair teknik formüller ön plana çıkarılıyor.

Yapay zekânın politika üretim süreçlerinde yarattığı etki de bu mantığa paralel işliyor. Üretilen öneriler, sanki yalnızca veriye ve nesnel rasyonelliğe dayanıyormuş gibi sunuluyor. Bu sunum biçimi hem teknik bir zorunluluk izlenimi yaratıyor hem de kararın meşruiyetini otomatik olarak üretiyor. Üstelik sonuç başarısız olduğunda sorumluluk siyasi tercihlere değil, “modele”, “veriye” ya da “teknik sınırlara” yöneltilerek kararın gerçek sorumlusu belirsizleştiriliyor. Çünkü bir devlet başkanının, hükümetin veya uluslararası bir kuruluşun kararına itiraz edilebilir, ancak bir algoritmanın rasyonel sonucuna karşı çıkılamaz. Çıkılsa bile bir muhatap olmadığı için yapılan itiraz basit bir ‘teknik aksaklık’ maskesi altında kamufle edilebilir zira politikayı üreten mercii tekniktir. Yerel dinamikler, sosyo-kültürel özellikler göz ardı edilerek tasarlanan bu politikaların ‘teknik aksaklıklarının’ sonuçlarını da yerel halklar, güç odaklarından uzak ‘gelişmemiş’ coğrafyalar öder.

Tüm bunların yanında, yapay zekânın dayandığı veri setlerinin toplumsal gerçekliği ne ölçüde temsil ettiği, hangi deneyimleri dahil edip hangilerini dışarıda bıraktığı çoğu zaman hesaba katılmıyor. Mitchell’in vurguladığı üzere, uzmanlık dili gerçekliği çerçevelerken aynı zamanda bir iktidar ilişkisi kurar; bazı deneyimleri görünür kılarken bazılarını sistematik biçimde görünmezleştirir. Yapay zekâ da benzer bir şekilde, teknik tarafsızlık iddiasıyla çalışırken aslında bu çerçeveleme gücünü yeniden üretmektedir.

Sonuç olarak yapay zekânın çoğu alanda bize yardımcı olduğu, daha iyi bir gelecek için bize aracı olduğu bir gerçek. Fakat öncelikle hem yapay zekânın hem de dünya sisteminin nasıl işlediğini iyi analiz etmek gerekiyor. Bir insan gibi düşünmek yerine bir papağan gibi kelimelerin sırasını seçen bir algoritmanın iyi veya kötü politika önerilerini sunacağını şimdiden öngörmek zor olsa da siyasi meşruiyeti ve özneyi bulanık bir alana taşıyacağı çok net bir gerçek. Nihayetinde politika, bir optimizasyon problemi değil, bir irade ve müzakere sürecidir. Teknoloji yalnızca bu süreci zenginleştirecek bir araç olarak kullanılabilir. 

İki Nokta

Kitap tanıtımı, biyografi, araştırma raporu, değerlendirme ve inceleme yayınları ile bölgesel veya küresel ölçeklerde güncel ya da yapısal sorunlar.