Komisyon Adı | : | (10/235, 837, 1601, 1602, 1800, 1801) Esas Numaralı Meclis Araştırması Komisyonu |
Konu | : | Komisyon çalışma takviminin görüşülmesine, Komisyona davet edilecek kişi ve kurumların tespitine ilişkin görüşme |
Dönemi | : | 28 |
Yasama Yılı | : | 3 |
Tarih | : | 28 .01.2025 |
ZÜLKÜF UÇAR (Van) - Sayın Başkan, teşekkür ederim.
Ben de Komisyon üyesi bütün arkadaşları, vekillerimi selamlıyorum.
Tabii, bir önceki toplantıda kısmen bir paylaşımda bulunmuştuk yani sadece Divan toplantısı haricinde aslında bu Komisyondan bizim beklentilerimizi de ortaya koyan kısa bir değerlendirme yapmıştık. Bugün açıkçası söylenenler, ortaya konulan yaklaşım hakikaten olumlu ve bir şeyler yapılmak istenildiğini ortaya koyuyor ama açıkçası, biz yapay zekâ noktasında tehlikeleri ne derece öngörebiliyoruz ya da yapay zekânın riskleri noktasında ne derece bilgi sahibiyiz? Bu noktaya sanırım çok daha fazla eğilmemiz, çok daha fazla düşünmemiz ve daha fazla araştırmamız gereken bir süreçteyiz.
Şimdi, ben birkaç hususa gireceğim ama girmeden önce, okuduğum bir iki haber vardı, sadece o örnekleri anımsatarak devam etmek istiyorum. Birincisi, mesela Facebook 2 robot geliştiriyor ve bu robotların kendi aralarında ticaret yapmalarını sağlayabilecek bir program geliştiriyor ama zaman içerisinde Facebook, bu robotların kendi aralarında ticaret yaparken hiç kimsenin bilmediği, İngilizce deforme edilerek oluşturulan yepyeni bir dilin bu robotlar tarafından ortaya çıkarıldığını görüyor yani dışarıdan müdahalenin ötesinde robotlar kendi aralarında yeni bir dil oluşturuyor ve hemen müdahale edip o sistemi, o programı kapatıyorlar; bu, birincisi.
Yine, sanırım Amerika'da -tabii, bu, yetkililerce sonradan inkâr edilen- "Öyle bir simülasyon yapılmadı." denilen bir simülasyon yapılmış, sanırım bir İHA ya da SİHA, bir araca yapay zekâ kontrolüyle bir komut veriliyor, bir düşman alanına, imha edilmesi gereken bir alana saldırılması noktasında bir talimat veriliyor ama daha sonra bu talimat iptal edildiğinde o yapay zekâyla yön verilen İHA dönüp o talimatı veren yani iptal talimatını veren operatörü dahi imha noktasında kendini geliştiriyor. Şimdi, tabii, Amerika bunu inkâr ediyor ama bir gerçeklikten söz ediliyor. Şimdi, bu yapay zekânın öncülerinden olan ve 2024'te Nobel Ödülü'nü alan Geoffrey Hinton bir röportaj veriyor, diyor ki: "Biz yapay zekânın algoritmasını yarattık ama nasıl öğrendiklerini, kendilerini nasıl geliştirdiklerini -ki geliştirdiklerini kabul ederek- biz de bilmiyoruz. Gelecekte çok mühim bir tehlikeyle karşı karşıyayız." Yani insanların dünyanın en zeki ikinci varlığı olabileceği bir süreçten bahsediyoruz. Şimdi, dolayısıyla, bu "machine learning" dedikleri, bir makinenin, yapay zekânın kendi kendini geliştirebildiği, öğrenebildiği bir süreçten bahsediyoruz. Elbette, bunlar yapay zekâyı tümden reddetmemizi ya da tamamen yokmuş gibi hareket etmemizi gerektirmiyor, bilakis aslında buna yönelik tedbirlerin yoğun bir şekilde alınması ve elbette, bütün arkadaşların da söylediği gibi, aynı zeminde işin etiği, insan haklarını, ayrımcılık yasağını dikkate alan -ki hep söylüyoruz, "Makinenin duygusu yoktur." diyoruz ama sürekli öğrenen bir yapay zekâdan söz ediyoruz- dolayısıyla bunların tamamını, bu ilkeleri esas alan bir çalışma yürütmek zorundayız diye düşünüyorum. Meseleyi elbette ben de... Bugüne kadar Cumhurbaşkanlığı Külliyesi'nde Dijital Dönüşüm Ofisi 2021'den bu yana bir çalışma yürütmüşse dinlemeliyiz. Ama 2021'den bu yana yürütülen o yapay zekâ stratejisini biz burada tamamen esas almamalıyız, ne yaptıklarını dinlemeliyiz, bilmeliyiz çünkü çok riskli bir alandan, geleceğin tamamen yapay zekâyla ilerleyeceği bir zamandan söz ediyorsak önce o zaman ne olduğunu önümüze koymamız gerekiyor. Bunun için de elbette burada bu alanda çalışma yürüten sadece Cumhurbaşkanlığı strateji kurulu, Dijital Dönüşüm Ofisinin yapmış olduğu çalışmaları değil, bu alanda çalışma yürüten, hakikaten bu tehlikeyi de öngörüp çalışma yürüten üniversiteler varsa üniversiteleri de dinleyelim istiyoruz. Bu noktada, mesela Kayseri Üniversitesinin robotik otonom sistemler ve yapay zekâyla ilgili oluşturmuş olduğu bir bölüm var, ciddi çalışmalar yürütüyor, Bilkent de öyle. Ama bunların tamamını dinleyebileceğimiz ve en azından bu Meclis Araştırma Komisyonunun Meclis Genel Kuruluna sunacağı bir raporu varsa temelini sağlam ve geleceğini de riskleriyle birlikte zorunluluğu da ortaya koyan bir yaklaşım ortaya koyması gerekiyor. Dolayısıyla bu noktada bizlerin de önerileri var. Biz de öncelikle bu alanda elbette Cumhurbaşkanlığı da dâhil olmak üzere, Cumhurbaşkanlığı strateji kurulu da dâhil olmak üzere çalışma yürüten kimler varsa dinlemek zorunda olduğumuzu, daha sonra bununla beraber araştırmalarımızı gerekirse üniversitelerin ziyaret edilmesi boyutuyla gerçekleştirmemiz gerektiğini düşünüyorum.
Mesela, kaçırdığım bir dipnot vardı, şimdi onu da hatırlatmak istiyorum. Mesela Pentagon. Şimdi, biz nükleer silahların tehlikesini biliyoruz, mesela Japonya'ya atılan atom bombalarının ne hâle getirdiğini biliyoruz, şimdi birçok ülkenin de nükleer silahlara sahip olmak istediğini biliyoruz ama mesela Pentagon'un yaptığı bir açıklama var, diyor ki: "Biz nükleer silahlara yapay zekâyla yön verebileceğimiz bir sistem üzerinde çalışıyoruz, bunu istiyoruz." Şimdi, bu aslında geleceğin yapay zekâ noktasındaki tehlikesini de ortaya koyuyor ama öbür tarafta, bunu öngören Avrupa Birliği Konseyi Parlamentosu bir çalışma yürütüyor. Bu çalışmayı uzunca bir süre yapıyorlar, toplantıları yapıyorlar, yapıyorlar, yapıyorlar, en son 27 ülke, Avrupa Birliği, dünyada ilk olacak şekilde, "yapay zekâ yasası" dediğimiz bir yasa, bir sözleşme ortaya çıkarıyor. Eksikleri elbette vardır ama netice itibarıyla uzunca bir süre bu tehlikelerin tamamını öngörerek ya da yapay zekânın hayatınıza nasıl işleyeceğini, nasıl dokunacağını da bilerek bir yaklaşım ortaya koyuyor, bir yasa ortaya çıkarıyor. Bu yasayı 2024'ün Ocak ayında 27 ülke imzalıyor, henüz yürürlükte değil, 2026'nın başlarında yürürlüğe girecek. Şimdi, Avrupa Birliğinde 27 ülkenin bakanlar komitesinin Avrupa Konseyinde uzun uzun tartışarak ortaya koyduğu bir yasa varsa, dünyada ilk yasalardan biri ise kesinlikle biz bunu incelemeliyiz ama bu incelemeyi -benim şahsi fikrimdir, öneri olarak da sunacağım- böyle yasayı önümüze alıp yasa üzerinden bir tartışma yapmak yerine, bu yasanın yapılaşma sürecindeki ya da bu yasanın ortaya çıkma sürecindeki o zihni, o yaklaşımı, o felsefeyi, o ruhu almamız gerektiğini düşünüyorum. Dolayısıyla -mümkün müdür bilmiyorum- Komisyonun Avrupa Konseyinin sadece bu noktada çalışma yapan birimlerine bir ziyaret yapıp bir görüşme yapması mümkün müdür? Değilse Avrupa Konseyinden bu noktada gelip burada geniş kapsamlı bir bilgilendirme yapılması söz konusu olabilir mi? Bence bunlar değerlendirilmelidir çünkü meseleye salt Türkiye odaklı bakmamak gerektiği düşüncesindeyim. Mesele hakikaten ciddi bir meseledir, mesele bizim burada dört ay çalışma yapıp, raporu bitirip çekileceğimiz bir alan da değildir, gelecek yapay zekâdır diyoruz. Dolayısıyla bu noktada, benim birinci önerim, özellikle Avrupa Birliği yapay zekâ yasasının da ruhunu anlayabilmek için ya yerinde ya da buradan doğrudan aktarım yapabilecek bir şekilde bir sürecin oluşturulması.
Onun dışında, birçok isim önerildi. Benim, açıkçası, önereceğim birkaç isim vardı ama önerildiği için tekrara girmiyorum. Ama ekstradan zaten daha önce de söylemiştim ki -tekrar söylendi- Cumhurbaşkanlığı da zaten bunu, Dijital Dönüşüm Ofisi grup hâlinde götürmüş. Mesela, ben bir önceki toplantıda -hatırlarsanız- işin hukuk kısmıyla ilgili demiştim ki Adalet Bakanlığı muhakkak dâhil edilmeli ki aynı şekilde öneriler de var ya da Sağlık Bakanlığı dâhil edilmeli, Millî Eğitim Bakanlığı dâhil edilmeli. Bu noktada bu dâhil edilme de bence sadece bir toplantıda onların dinlenmesinden ziyade özellikle önemli olan Bakanlıkların sürecin tamamına bir şekilde dâhil edilmesi gerektiği düşüncesindeyim. Gerekirse bütün toplantılara dâhil ederek, gerekirse önerilerde bulunarak, sadece ilk toplantıda bilgilendirmeyle sınırlı kalmayıp sürecin topyekûn birlikte götürülmesi gerektiği düşüncesindeyim eğer amaç hakikaten siyasetüstü iyi bir çalışma ortaya koymak ise. Önerilen isimlerin haricinde ben Kayseri Üniversitesinin bu noktada yapmış olduğu çalışmaları az çok takip ettim -ki Kapadokya'da bu noktada yapılan sempozyum önemliydi- Bilkentin, İTÜ'nün çalışmaları var. Bireysel olarak işin yargısal kısmıyla ilgili benim de hakikaten yıllar önce okuduğum ve feyzaldığım birkaç makale vardı. Bu makaleyi yazan, Van Yüzüncü Yıl Üniversitesinden bir araştırma görevlisi ile bir avukat arkadaş var, Avrupa Birliği yapay zekâ yasası çerçevesinde yargılamada yapay zekâ kullanımının değerlendirilmesine ilişkin ki daha sonra sohbet de ettim, isimleri, Öğretim Görevlisi Doktor Muhammet Burak Görentaş Yüzüncü Yıl Üniversitesinden ve Van Barosundan Avukat Hamza Çiftçi. Bu alanda hakikaten böyle kitap yazma noktasında kendilerini epey de geliştirmiş. İşin yargısal kısmıyla ilgili onları da dinleyebileceğimizi düşündüğüm isimler. Bu iki arkadaşı da ben öneriyorum. Onun dışında, zaten genel olarak hemen hemen isimler ortak ama ben tekrar söylüyorum, mesele ciddi ama buna karşılık salt böyle burada güvenlik endişesiyle, kaygısıyla değil, hakikaten işin hem insan hakları kısmını hem toplumsal kısmını esas alan bir yaklaşım ortaya koymak gerekiyor. Bu noktada eğer Avrupa Birliğini esas alıyorsak Avrupa Birliğinin de ortaya koymuş olduğu yapay zekâ yasasının ruhu nasıl oluşturuldu, bunu da bence bilmemiz gerekiyor.
Teşekkür ediyorum.