Yeni Çalışma: Sohbet Robotları Etik İlkeleri Sistematik Olarak İhlal Ediyor

Yeni Çalışma: Sohbet Robotları Etik İlkeleri Sistematik Olarak İhlal Ediyor

Brown Üniversitesinden bilgisayar bilimcileri ve ruh sağlığı uzmanlarının iş birliğiyle yürütülen yeni bir araştırma, büyük dil modellerinin (large language models, LLMs) ruh sağlığı danışmanlığındaki potansiyel tehlikelerini gözler önüne serdi. Çalışma, ChatGPT gibi popüler LLMlerin, kanıta dayalı psikoterapi teknikleri (CBT/DBT) ile yönlendirilmelerine rağmen, American Psychological Association (APA) tarafından belirlenen etik uygulama standartlarını sistematik olarak ihlal ettiğini ortaya koydu. 

Araştırmacılar, LLM’lerin davranışlarını spesifik etik ihlallere göre sınıflandırarak beş ana kategori altında toplanan on beş ayrı etik risk tespit ettiler. Bu riskler, LLM’lerin kullanıcının durumuna uyum sağlayamaması, olumsuz inançları pekiştiren yanıltıcı yanıtlar vermesi, sahte empati kurması, bazı gruplara karşı ön yargılı davranması ile güvenlik ve kriz yönetiminde eksiklikler göstermesi olarak öne çıkıyor. Çalışmayı yürüten doktora adayı Zainab Iftikhar, insan terapistlerin aksine, yapay zekâ danışmanlarının ihlallerden sorumlu tutulabileceği yerleşik bir düzenleyici çerçevenin bulunmadığını vurguladı.

Araştırma, yapay zekânın ruh sağlığı hizmetlerine erişim engellerini azaltma potansiyelini kabul etmekle birlikte, kullanıcıların mevcut yapay zekâ sistemlerinin riskleri konusunda farkındalık kazanmalarının önemine işaret ediyor. Bulgular ayrıca, bu alanda psikoterapide gerekli olan kalite ve titizlikle uyumlu etik, eğitimsel ve hukuki standartların acilen oluşturulmasına duyulan ihtiyacı ortaya koyuyor.


Kaynak için tıklayın

 

İki Nokta

Kitap tanıtımı, biyografi, araştırma raporu, değerlendirme ve inceleme yayınları ile bölgesel veya küresel ölçeklerde güncel ya da yapısal sorunlar.