
Eğitimde Yapay Zekâ Kullanımına İlişkin Düzenleme İhtiyacı ve Öneriler
Eğitimde Yapay Zekâ Kullanımına İlişkin Düzenleme İhtiyacı ve Öneriler
Eğitimde yapay zekâ kullanımına yönelik hızla artan eğilim, bu teknolojinin çocuklar üzerindeki etkilerini derinlemesine incelemeyi zorunlu kılmaktadır. Bu belge, “Eğitimde Yapay Zekâ Kullanımına İlişkin Düzenleme İhtiyacı ve Öneriler” başlığı altında, çocuk eğitiminde yapay zekâ kullanımının hem fırsatlarını hem de beraberinde getirdiği riskleri kapsamlı bir şekilde ele almaktadır. Temel amacımız, yapay zekânın çocuklar üzerindeki olası etkilerini kavramak ve bu yenilikçi teknolojinin eğitimdeki kullanımını nasıl daha etik ve sorumlu bir biçimde yönlendirebileceğimizi belirlemektir.
Eğitim sistemi, yapay zekâ konusunda bir paradoks ile karşı karşıyadır. Yapay zekânın eğitim uygulamaları alanında yaşanan gelişmeler, öğretmenlere çok sayıda yeni araç temin eden ve öğrenci öğrenmesini kolaylaştıran akıllı hizmetler sunmaktadır. Fakat yüksek kaliteli eğitim sonuçları için hayati olarak görülen yapay zekâ destekli eğitim ve öğrencilere ilişkin kişisel verilerin büyük ölçekli toplanması ve analizi, insan hakları savunucuları için önemli endişeleri beraberinde getirmektedir (Nguyen vd., 2023).
Yapay zekâ alanındaki gelişmelerin potansiyel olarak zararlı sosyal etkileri, yapay zekâ etik kılavuzları ve politika belgelerinin ulusal ve uluslararası düzeyde akademik konsorsiyumlar ve endüstriyel paydaşlar tarafından yayımlanmasını beraberinde getirmiştir. Ancak, çocuklara ve K-12 eğitimine özgü etik politika rehberliği henüz yeterince gelişmemiştir (Adams vd., 2023). Okul öğrenmesine özgü (K-12 eğitimi) yapay zekâ etik politikası rehberliği, toplumda yapay zekânın yaygınlaşmasıyla karşılaşılan etik sorunlara kıyasla gecikmiş durumdadır. Oysa sınıflarda yapay zekâ kaynaklı etik meseleler, genel toplumsal bağlamda olanlarla benzer, hatta bazen daha ciddi boyutlara ulaşabilir (Luckin vd., 2016).
Uluslararası Alanda Yapılan Düzenleme Çalışmaları
World Economic Forum (2019), The Institute for Ethical AI in Education (2021), UNESCO (2021) ve UNICEF’in (2021) hazırlamış olduğu etik ilkeleri içeren belgelerden çıkarımlar yapılarak bir senteze ulaşıldığında eğitimde yapay zekânın etik ilkeleri arasında, pedagojik uygunluk, çocuk hakları, yapay zekâ okuryazarlığı ve öğretmenin iyi oluşu öne çıkmaktadır. Bunlara ek olarak, şeffaflık, adalet ve adillik, zarar vermeme, sorumluluk, mahremiyet, yararlılık, özgürlük ve özerklik gibi genel etik ilkeler de K-12 eğitimi bağlamında önem taşımaktadır. Bu ilkeler, çocukların gelişim düzeyine uygun yapay zekâ uygulamalarının benimsenmesini, çocukların haklarının korunmasını, yapay zekâ teknolojileri hakkında bilinçli ve eleştirel düşünme yeteneğinin geliştirilmesini ve öğretmenlerin refahının desteklenmesini vurgulamaktadır. Ayrıca, yapay zekâ uygulamalarının şeffaf, adil ve sorumlu bir şekilde yönetilmesini, mahremiyetin korunmasını ve çocukların manipüle edilmemesini, bireylerin özgürlük ve özerkliklerine saygı gösterilmesini savunmaktadır. Bu ilkeler, eğitimde yapay zekânın etik ve sorumlu kullanımını yönlendiren temel prensipleri oluşturmaktadır (Adams vd., 2023).
“Çocuk Hakları”na özen konusunda gelişen hassasiyet, eğitimde yapay zekânın çocuklar üzerindeki etkilerine ve çocukların özel haklarına da dikkat çekmektedir. Çocuk hakları perspektifinden, yapay zekâ destekli eğitimden yararlanırken çocukların korunmaları ve haklarının gözetilmesi gereği öne çıkmalıdır. Özellikle vurgulamak gerekir ki, yapay zekâ uygulamaları, çocukların fiziksel, bilişsel ve duygusal gelişimlerine uygun olmalı ve bireysel ihtiyaçlarına göre şekillendirilmelidir. Eğitimdeki etik yaklaşımlar, çocukların hakları ve ihtiyaçlarına uygun yapay zekâ kullanımını merkeze almalıdır. Böylece, çocukların eğitimdeki temel haklarını koruyarak, yapay zekânın eğitimde etkili ve sorumlu bir şekilde kullanımını teşvik etmek esastır (Adams vd., 2023).
Yapay zekânın bilgi işleme ve üretme alanında etkinliğinin ve kullanımının hızla artması, eğitim alanında birçok potansiyel ve risk barındıran Üretken Yapay Zekâ (Generative AI) özelinde değerlendirmelerin yapılması ve bu alanda esas alınması gereken ilkeleri belirleme ihtiyacını gündeme getirmiştir. Nitekim UNESCO’nun yakın zamanda “Eğitim ve Araştırmada Üretken Yapay Zekâ İçin Rehberlik” başlığı altında paylaştığı dokümanda yapay zekâ teknolojilerinin yaygınlaşmasının eğitim ve araştırma alanlarında sekiz önemli tartışma konusunu gündeme getirdiği belirtilmektedir. Bu tartışma konuları, yapay zekânın etkilerini ve bu teknolojinin kullanımıyla ilişkili mevcut zorlukları ortaya koymaktadır ve eğitimcilerin bu konularda ortaya çıkan riskleri dikkate alması önerilmektedir. Bu alanlar şu şekilde özetlenebilir:
-
Dijital yoksunluğun artması: Yapay zekâ erişilebilirliğinin, veri erişim ve işleme konusunda dezavantajlı durumda olan ülkeler ve bölgeler için azalan küresel temsiliyet ve derinleşen dijital bölünmeyle sonuçlanması, önemli bir sorundur.
-
Ulusal mevzuat ile uyum: Üretken yapay zekâ uygulamalarına ilişkin birçok düzenleme henüz yapılmamıştır ve mevcut yasal çerçevelerle uyumlu hale getirilecek düzenlemelere ihtiyaç vardır.
-
İçeriğin izinsiz kullanımı: Üretken yapay zekâ sistemleri, internette mevcut birçok veriyi izinsiz kullanabildiği için telif hakları ve fikrî mülkiyet ile ilgili sorunlar ortaya çıkmaktadır.
-
Açıklanamayan modellerle üretilen çıktılar: Yapay zekâ algoritmalarının şeffaflığı ve anlaşılabilirliği problemi, beraberinde ortaya çıkan sorunlu, istenmeyen veya beklenmeyen çıktıların nasıl değerlendirileceği sorusunu ortaya çıkarmaktadır.
-
Yapay zekâ tarafından üretilen içeriğin interneti kirletmesi:
Sahte, yanıltıcı veya etik olmayan bilgilerin üretilmesi ve bu tür güvenilmez bilgilere dayanarak yapılacak yeni üretimlerin, bu bilgilerin daha da yayılmasına yol açma riski bulunmaktadır.
-
Gerçek dünyayı anlamada eksiklik (stokastik papağan): Yapay zekânın gerçek dünya bağlamını tam olarak kavrayamaması nedeniyle ürettiği veriyi anlamadığının farkında olunması ve eğitim alanında üretilen veriye eleştirel biçimde yaklaşılması gerekmektedir.
-
Görüş çeşitliliğinin azaltılması: Standart cevaplar üreten üretken yapay zekâ sistemleri marjinal grupların görünür olmasını kısıtlayabilir.
-
Daha derin sahte içeriklerin (deepfake) oluşturulması: Gerçeklik algısını bozan, etik dışı gelişmiş sahte içeriklerin üretilebilmesi ihtimalinin artmaktadır.
Raporda üretken yapay zekânın uzun vadeli etkilerine de dikkat çekilerek uluslararası topluluğa söz konusu etkileri göz önünde bulundurma çağrısında bulunulmuştur. Bu çerçevede özellikle, eğitime ilişkin bazı süreçleri, amaç ve yöntemleri otomatikleştirebilen üretken yapay zekânın dâhil olduğu bağlamda bilgiye, öğrenmeye, öğrenmeyi değerlendirmeye ve yönteme dair anlayışların gözden geçirilmesi vurgulanmıştır. Daha kısa vadeli tedbirler söz konusu olduğunda ise özellikle ulusal mevzuat ile uyum açısından üretken yapay zekânın eğitimde kullanımının yeniden düzenlenmesi gündeme gelmektedir. İnsan-merkezli yaklaşımların yapay zekâ kullanımında öne çıkması, sistemlerin insan kapasitelerini geliştirmeyi destekleyecek şekilde kullanılması savunulmaktadır.
Sonuç ve Öneriler
Eğitimde yapay zekânın kullanımı, yeni ve karmaşık sorunlar yaratmakta ve mevcut düzenlemelerde boşluklara işaret etmektedir. Yapay zekâ düzenlemelerinin ana bileşenleri, devletin düzenleyici kurumları, yapay zekâ tedarikçileri, kurumsal ve bireysel kullanıcılar olarak sıralanabilir. Bu bileşenler arasında etkileşim ve uyum, yapay zekânın eğitimde etik ve etkili bir şekilde kullanılmasını sağlamak için kritik öneme sahiptir. Her bir bileşenin rolleri ve sorumlulukları, yapay zekâ teknolojilerinin eğitimde nasıl kullanılacağını şekillendirmede merkezî bir rol oynamaktadır.
Eğitimde yapay zekânın kullanımı ile ilgili Millî Eğitim Bakanlığının K12 düzeyinde düzenleme yapması gerekmektedir. Ayrıca Cumhurbaşkanlığı Dijital Dönüşüm Ofisi, Sanayi ve Teknoloji Bakanlığı, Ulaştırma ve Altyapı Bakanlığı, Aile ve Sosyal Hizmetler Bakanlığı, Adalet Bakanlığının eşgüdümlü olarak ortak bir mutabakat metni hazırlaması devletin düzenleyici kurumlarının iş birliği açısından önemlidir. Konunun çok boyutlu ele alınması açısından geniş katılımlı bir perspektif geliştirilmesi fayda sağlayacaktır.
Politika Yapıcılara Öneriler:
-
Eğitimcilerin YZ sistemlerini nitelikli, verimli ve etik konulara riayet ederek kullanmaları desteklenmeli, bu çerçevede rehberlik sağlanmalı ve eğitimler düzenlenmelidir.
-
Millî Eğitim Bakanlığı YZ kullanımı konusunda öğrenci, öğretmen ve velilere yönelik bir düzenleme genelgesi yayınlamalı ve uygulamaları yakından takip etmelidir.
-
Millî Eğitim Bakanlığının dijital eğitim ve yönetim sistemi platformları YZ teknolojileri ile uyarlanabilir öğrenme imkânları sunmalıdır.
-
Öğrencilerin YZ sistemlerini nitelikli, verimli ve etik konulara riayet ederek yetişkin rehberliğinde kullanmaları desteklenmeli, öğretim programları buna uygun şekilde güncellenmelidir.
-
YZ eğitim ve farkındalık programları oluşturulmalı, öğretmenler, öğrenciler ve veliler için yapay zekâ okuryazarlığı ve etik kullanımı üzerine programlar düzenlenmelidir.
-
YZ içerik geliştiricileri ve tedarikçilerinin, çocuklara ait kişisel verilerin kullanımını koruması esastır ve gizliliğe saygı gösterilmesi konusunda net bir yaptırım çerçevesi belirlenmelidir. Bu çerçevede uygun siber güvenlik önlemlerine yer verilmelidir.
-
Çocukları etiketlemeye, sınıflamaya, değerlendirmeye ve ayrıştırmaya yönelik yapay zekânın potansiyel tehlikelerine karşı önlemler alınmalıdır.
-
Çocukların kaç yaşından itibaren yapay zekâ teknolojilerini yetişkin rehberliğinde kullanabilecekleri konusunda uluslararası düzenlemeler 13 yaşa dikkat çekmektedir. Türkiye’nin ise henüz yaş düzenlemeleri konusunda bir kararı yoktur. Bu konuda Türkiye’nin sosyokültürel özellikleri dikkate alınarak bir yaş düzenlemesi yapılmalıdır.
-
Ulusal YZ teknolojileri geliştirilirken kullanılacak veri setinin temiz, doğru, önyargısız, temsil gücü yüksek olmasına dikkat edilmelidir.
-
Türkiye’nin her bölgesinde YZ sistemlerinin eğitimde kullanımında ve YZ sistemlerine erişimde eşit imkânlar tesis edilmelidir.
-
YZ sistemlerinin eğitimdeki kullanımının etkilerini sürekli ölçme ve değerlendirme için mekanizmalar kurulmalıdır.
-
Özel gereksinimli kişileri (öğretmen veya öğrenci) destekleyecek YZ sistemlerinin kullanımı ve geliştirilmesi teşvik edilmelidir. Özellikle görme engelli ve özel öğrenme güçlüğü yaşayan kişiler için yapay zekâ teknolojilerinden yararlanılmalıdır.
Yapay Zekâ Üreticilerine Öneriler:
- YZ sistemlerinin akademik dürüstlüğe uygun kullanımı garanti altına alınmalıdır.
-
YZ’de bireysel verilerin nasıl işlendiği şeffaf bir biçimde kamuoyuna duyurulmalıdır.
-
YZ sistemlerinin faydaları yanında ürettiği bilginin sebep olabileceği potansiyel risklere (yanlış, gerçek-dışı veriler üretmesi; ayrımcılığı, önyargıları arttırması; nefret söylemini veya sahte içerikleri yayması) karşı önlemler alınmalıdır.
-
Veri kullanımında telif haklarına riayet edilmelidir.
-
YZ sistemlerinin ürettiği bilgi analitik değerlendirmeden geçirilmelidir.
-
YZ sistemlerinin bireyleri manipüle edebileceği riski göz önünde bulundurulmalıdır.
-
YZ içerikleri geliştirilirken insanın yeteneklerini,kapasitelerinivebecerilerini azaltarak teknolojik tahakküme neden olabilecek tasarımlardan kaçınılmalıdır.
-
YZ sistemleri, kullanıcı deneyimlerinden hareketle kullanımda ortaya çıkan sorunlar ve çözümlere ilişkin geri bildirimleri alıp gerekli iyileştirmeleri yapmalıdır.
-
YZ sistemlerinin eğitimde kullanımının sebep olabileceği uzun vadeli etkiler de araştırılmalı ve değerlendirilmelidir.
Öğretmenler için Öneriler:
-
Akademik dürüstlük konusunda öğretmenlerin YZ farkındalıkları artırılmalıdır. Ödev, proje, etkinlik vb. öğrenci çalışmalarında YZ’yi akademik dürüstlüğe uygun şekilde kullanmaları için öğretmenlerin öğrencilerine geri bildirim vermesi gerekmektedir.
-
Verilen ödevlerde ve çalışmalarda YZ’den yetişkin rehberliğinde nasıl yararlanacağı, YZ’nin yanlı ve yanlış bilgi verme riskleri de anlatılarak kullanımına izin verilmesi önerilmektedir.
-
YZ imkânları; ders planı hazırlama, ölçme değerlendirme, yoklama vb. konularda öğretmenlerin iş yüklerini azaltmak ve mevcut işlerini daha etkin ve kaliteli hale getirmek için kullanabilmelidir.
-
YZ imkânlarıyla hazırlanan tüm içerikler, öğretmenler tarafından geçerlilikleri ve güvenilirlikleri zümre meslektaşlarıyla kontrol edildikten sonra sınıf içi uygulamalarda kullanılabilir.
Aileler İçin Öneriler:
-
Hiçbir çocuk YZ teknolojilerini yalnız başına kullanmamalıdır. Aileler bu konuda hassas ve sorumlu davranmalıdır.
-
YZ kullanımı konusunda ailelerin çocuklarından önce farkındalık kazanması ve özellikle YZ’nin riskleri hakkında bilgi sahibi olması gereklidir.
-
Ebeveynlerin, çocukların YZ kullanımına ilişkin süre kısıtlamalarını başlangıç aşamasından itibaren uygulamaları gerekmektedir.
-
YZ kullanımı nedeniyle çocukların gerçeklik algısında olumsuz farklılaşma olduğu gözlemlenirse YZ kullanımına ara verilmelidir.
Türkiye’de Cumhurbaşkanlığı Dijital Dönüşüm Ofisi ve Sanayi Bakanlığının Ulusal Yapay Zekâ Strateji Belgesi’nde [2021-2025] ulusal düzeyde kurumlar arası iş birliği ve nelerin yapılması gerektiğine dair eğitim içerikleri bağlamında değerlendirmeler bulunmaktadır. Belgede K-12 düzeyinde Millî Eğitim Bakanlığının yapmış olduğu çalışmalara da yer verilmiştir. Bununla birlikte eğitimciler, öğrenciler, velileri de kapsayan bir düzenleme metni bulunmamaktadır. Bu belge, eğitimde yapay zekâ kullanımının çocuklar ve K-12 eğitimi üzerindeki etkileri ile bu teknolojinin etik ve sorumlu kullanımı üzerine yoğunlaşmıştır. Belgede, öğrenci verilerinin toplanması ve analizi gibi konuların insan hakları savunucuları için yarattığı endişeleri tartışırken, yapay zekânın eğitimdeki potansiyel faydaları ve aynı zamanda insan hakları ile ilgili temel meseleler üzerindeki olası olumsuz etkileri de ele alınmıştır. Çocukların haklarını koruma, pedagojik uygunluk, yapay zekâ okuryazarlığı ve öğretmenin iyi oluşu gibi etik ilkelerin eğitimde yapay zekâ kullanımında merkezî bir rol oynaması gerektiği vurgulanmıştır. Bu ilkeler, yapay zekâ uygulamalarının çocukların gelişimine uygun, şeffaf, adil ve sorumlu bir şekilde yönetilmesini destekler. Kurumsal ve bireysel kullanıcıların da etik ve güvenlik riskleri ile ilgili konularda farkındalıklarının olması beklenir. Yapay zekânın verimli biçimde kullanılabilmesi için etik ilkelerin kurumsal düzeyde uygulamalarının belirli olması gerekmektedir. İnsan ve öğrenme merkezli uygulamaların geliştirilerek eğitim ortamlarında yapay zekânın kullanılması, teknolojinin imkânlarından maksimum düzeyde yararlanma hususunda kurumsal ve bireysel kullanıcıları teşvik edecektir.
KAYNAKÇA
-
Adams, C., Pente, P., Lemermeyer, G., & Rockwell, G. (2023). Ethical principles for artificial intelligence in K-12 education. Computers and Education: Artificial Intelligence, 4, 100131. https://doi.org/10.1016/j.caeai.2023.100131
-
Cumhurbaşkanlığı Dijital Dönüşüm Ofisi & Sanayi Bakanlığı (2021). Ulusal Yapay Zekâ Strateji Belgesi [2021-2025]. https://cbddo.gov.tr/SharedFolderServer/Genel/File/TR- UlusalYZStratejisi2021-2025.pdf
-
Luckin, R., Holmes, W., Griffiths, M. & Forcier, L. B. (2016).
Intelligence Unleashed. An Argument for AI in Education.
London: Pearson.
-
Nguyen, A., Ngo, H. N., Hong, Y., Dang, B., & Nguyen, B.-P. T. (2023). Ethical principles for artificial intelligence in education. Education and Information Technologies, 28(4), 4221-4241. https://doi.org/10.1007/s10639-022-11316-w
-
The Institute for Ethical AI in Education. (2021). The ethical framework for AI in education. University of Buckingham. https:// www.buckingham.ac.uk/wp-content/uploads/2021/03/The- Institute-for-Ethical-AI-in-Education-The-Ethical-Framework- for-AI-in-Education.pdf.
-
United Nations Children’s Fund. (2021). Policy guidance on AI for children 2.0. UNICEF. https://www.unicef.org/globalinsight/ media/2356/file/UNICEF-Global-Insight-policy-guidance-AI- children-2.0-2021.pdf.pdf.
-
United Nations Educational, Scientific and Cultural Organization. (2021). AI and education: Guidance for policy makers. https:// unesdoc.unesco.org/ark:48223/pf0000376709.
-
United Nations Educational, Scientific and Cultural Organization, (2023). Guidance for generative AI in education and research,https://unesdoc.unesco.org/ark:/48223/pf0000386693
-
World Economic Forum. (2019). Generation AI: Establishing Global Standards for Children and AI. https://www.weforum. org/reports/generation-ai-establishing-globalstandards-for- children-and-ai
Tuba Nur Umut
Ankara Üniversitesi Sosyal Bilimler Enstitüsünden doktora derecesini almıştır. Ankara Üniversitesi İlahiyat Fakültesi Felsefe Tarihi Anabilim Dalında öğretim üyesi olarak görev yapmaktadır. Teknoloji felsefesi ve uygulamalı etik alanlarında çalışmaktadır.
Turgay Öntaş
Gazi Üniversitesi Eğitim Bilimleri Enstitüsü’nden doktora derecesini almış olup halen Tekirdağ Namık Kemal Üniversitesinde öğretim üyesi (Doç. Dr.) olarak görev yapmaktadır. Çalışma alanları, sosyal bilgiler eğitimi ve öğretmen yetiştirmektedir.