Komisyon Adı | : | (10/235, 837, 1601, 1602, 1800, 1801) Esas Numaralı Meclis Araştırması Komisyonu |
Konu | : | Komisyon üyelerinin raporda yer verilebilecek hususlara ilişkin görüş ve önerileri hakkında görüşme |
Dönemi | : | 28 |
Yasama Yılı | : | 3 |
Tarih | : | 13 .05.2025 |
ZÜLKÜF UÇAR (Van) - Başkanım, öncelikle teşekkür ederim.
Ben de Divanı, Komisyon üyesi değerli arkadaşlarımı, milletvekillerimi, raportör arkadaşları, takip eden arkadaşları selamlıyorum ve en başta ortaya konulan emek için teşekkür ediyorum.
Gerçekten, kısa bir zamanda, dört ay gibi bir sürede bana göre çok kıymetli bir çalışma ortaya çıktı. Artık hepimizin yapay zekâ noktasında kaygılarının olduğu, belki geleceğe dair yapay zekâ önümüzde duruyorken buna dair fikirlerimizin, kaygılarımızın, düşüncelerimizin olduğu bir dönemde böyle bir çalışma elbette Mecliste yapılacak diğer çalışmalara da öncü olacak. Bu noktada yapılan çalışmalar için ben tekrardan bütün arkadaşlara teşekkür ediyorum. Yine, Komisyonun çalışma süresi boyunca katkı sunan raportör arkadaşlara, birlikte çalışan arkadaşlara ve aynı zamanda Meclis personeli arkadaşlarımıza -çünkü çayımızı, meyvemizi eksik etmediler- onlara da teşekkür ediyoruz, sağ olsunlar.
Tabii, az önce de söylediğim gibi "yapay zekâ" dediğimiz mesele hakikaten artık ciddi manada içinde riskleri de barındıran ama aslında bir noktada da herkesin de söylediği gibi gelecek diye tarif ettiğimiz bir noktadayız. Biz elbette rapora dair değerlendirmelerimizi -Sevilay Vekilim de zaten izah etmiş, söylemiş daha doğrusu- yazılı olarak da sunacağız ama ben de yine belki kayda geçsin diye birkaç paylaşımda bulunacağım.
Yapay zekâ teknolojileri, karar alma süreçlerinden veri analizine, kamusal hizmetlerden özel sektöre kadar pek çok alanda etkisini arttırdı, arttırıyor; buna hepimiz şahitlik ediyoruz. Öyle görünüyor ki bu etki sürekli bir şekilde büyüyerek gelişme gösterecektir. Bu yüzden her şeyden önce şu hususu kabul etmemiz gerekiyor: Yapay zekâ teknolojileri önü alınamaz bir gerçekliği ifade ediyor. Geleceğimizin ana kurucu bileşeni yapay zekâ olacaktır. Bu sebeple yapay zekâyı ketleyen değil etik ve hukuki sonuçlarını dikkate alan bir gelişim politikası benimsenmesi gerekmektedir. Yapay zekânın gelişimi yalnızca teknik değil aynı zamanda normatif, etik ve hukuki sonuçlar da doğurmaktadır. Yapay zekâ, aynı zamanda, özellikle ayrımcılığa maruz kalan, dezavantajlı gruplar açısından yeni ayrımcılık biçimlerinin ortaya çıkmasına neden olabilme potansiyeli de taşımaktadır. Dolayısıyla bu teknolojilerin gelişimiyle birlikte hukuk düzenlemelerinin de dinamik bir şekilde bu sürece eşlik etmesi gerekmektedir.
Yapay zekâ, hukukun konusu olarak da ele alınmak zorundadır. Hukukun konusu olarak yapay zekâ, bu teknolojinin geliştirilmesi, kullanımı ve sonuçları bakımından oluşturulan kural, içtihat ve uygulamalar bütününü ifade etmektedir. Henüz çok erken gibi görünse de zaman içinde yapay zekânın hukukun öznesi olarak ele alınması da gerekecektir. Bu bakımdan hukukun öznesi olarak yapay zekâ, hukuki sorumluluk, ehliyet ve kişilik açısından da zaman içerisinde tartışmaya açılacaktır. Nitekim yapay zekâ endeksli otomotiv, sağlık, eğitim, enformasyon gibi birçok sektörde ortaya çıkan uygulamaların hukuk bakımından önemli sonuçları olmaktadır. Örnek olarak, otonom bir aracın sebep olduğu kazada sorumluluğun hangi kritere göre belirleneceği önemli bir tartışma hâline gelecektir. Artık klasik kriterlerle bu konuyu tek başına çözümleme imkânı bulunmamaktadır. Cezai ya da hukuki sorumluluk artık tek başına irade ya da kusurla açıklanabilecek midir? Bu hususu tartışmak gerekiyor. Otonom araç kazasında sorumluluk üretici firmaya mı, yapay zekâ tasarımcılarına mı, araç sahibine mi, sürücüye mi, sigortacıya mı, yapay zekânın kendisine mi yüklenecektir? Bu tartışmalar açıkça yeni kriterler yaratılmasını dayatıyor. Yapay zekâ, doğrudan hukuki çatışmalarda karar verici güç olarak kullanılma potansiyeli de taşımaktadır. Şimdiden mahkemelerde karar destek sistemleri uygulamalarına başvurulmaktadır. Öte yandan, avukatlar için bir araştırma kaynağı olduğu ve hatta yurttaşların sıklıkla yargıç rolü yüklediği de bilinen bir gerçekliktir. Görülüyor ki yapay zekâ uygulamaları yaşamın her alanında olduğu gibi hukukta da güçlü bir etki yaratmaya başlamıştır.
Bu noktada yapay zekânın dezavantajlı sosyal kimlikler bakımından oluşturduğu riskleri ortadan kaldırmak ilk görev olarak önümüzde durmaktadır. Yapay zekâ sistemleri dayandıkları veri kümeleri aracılığıyla yeni çıktılar üretirler. Bu sebeple desteklenen verilerin hangi toplumsal, siyasal ya da kültürel grubu temsil ettiğine göre çıktılar da ayrımcı olabilmektedir. Eğer bu veriler ayrımcılık, eksiklik veya tarihsel eşitsizlikler içeriyorsa yapay zekâ da bu kalıpları öğrenir ve bunları yeniden üretir. Örneğin, bir mesleğin erkek egemen değerler veya beyazlar lehine tanımlanması, işe alım için başvurulan bir algoritmanın cinsiyetçi ve ayrımcı sonuçlar üretmesi ve kadınlar ile siyahileri elemesi sonucuna yol açabilecektir; Amazon şirketinin 2018 yılında başvurduğu işe alım sistemi de bunun bir örneğidir. Türkiye'de bir cinsiyet ayrımının ve etnik ayrımın köklü bir geçmişinin olduğunu hepimiz biliyoruz. Yapay zekâ teknolojilerinde olası ayrımcı çıktıları engellemek için yeni ve eşitlikçi bir epistemoloji ve buna uygun eşitlikçi, hakikatlere dayanan yapay zekâ veri kümesi geliştirilmek zorundadır. Aksi hâlde, maddi eşitsizlikler yapay zekâ teknolojilerinde de yeniden üretilecek ve devam ettirilecektir.
Hukukun yapay zekâ alanındaki uygulamasının şeffaflık ve hesap verilebilirlik, veri koruma, ayrımcılığın önlenmesi ve sorumluluk rejimi bakımından da sonuçları olacaktır. Bu sonuçlar hukuki müdahalenin büyük önemine işaret etmektedir ancak aşırı regülasyonun yapay zekâ alanındaki inovasyonu engellemesi de dikkate alınması gereken başka bir husustur. Nitekim yapay zekâ teknolojisinin ilk göze çarpan niteliği sürekli büyümesi ve hızlı gelişimidir. Müdahaleci bir mevzuatın bu gelişim hızını yavaşlatma olasılığı da yüksek bir risk olarak önümüzde durmaktadır. Hukukun şu aşamada en önemli rolü, yapay zekânın dayandığı veri kümeleri ile algoritmaların ayrımcı ilkelerle işlemesinin önüne geçmektir. Bu yüzden hukuki düzenlemeler bahsi geçen düzlemde kalmalıdır.
Bahsedilen risklerin giderilmesi için atılması gereken birkaç adımdan da söz edip tamamlayacağım Sayın Başkan.
Güvenilir, bilimsel ve eşitlikçi veriye dayanan etik ilke ve kurallar, standartlar belirlenmelidir. Risk altında olan kimliklerin tasarım ve denetim süreci başta olmak üzere bütün sürece etkin bir şekilde katılımı sağlanmalıdır. Tüm kamu ve özel yapay zekâ sistemlerinde toplumsal etkilerin önceden değerlendirilmesi sağlanmalıdır. Hukuki koruma mekanizmaları güçlendirilmelidir. Hatalı kararların iptali ve zararların tazmini için etkili başvuru yolları da oluşturulmalıdır. Toplumun tüm kesimleri yapay zekâ konusunda bilinçlendirilmelidir. Halkın yapay zekâ teknolojilerine eşit erişimi için gerekli ekonomik ve altyapı çalışmaları da gerçekleştirilmelidir ve son olarak, insan haklarını önemseyen, mahremiyeti esas alan, kişisel verilerin gizliliğini ihmal etmeyen, ayrımcılığa neden olmayan ancak az önce de belirttiğim gibi yapay zekâyı ketleyen, sınırlayan değil etik ve hukuki sonuçlarını dikkate alarak ortaya konulan bir yaklaşımla, raporun da bu yönüyle hazırlanması gerektiğini düşünüyoruz.
Yazılı olarak da daha uzun bir şekilde elbette sunacağız. Ben kayda geçmesi için de notlarımdan kısmen okumak zorunda kaldım.
Tekrardan bütün arkadaşlara, emek veren bütün Meclis çalışanlarına, raportörlere ve değerli milletvekillerimize teşekkür ediyorum. Umarım Komisyonun ortaya çıkacak raporu Meclis çalışmalarına da hakikatte iyi bir öncülük yapacaktır diyorum.
Tekrardan teşekkür ederim.