KOMİSYON KONUŞMASI

ÖMER İLERİ (Ankara) - Sayın Başkanım, teşekkür ediyorum.

Kıymetli hazırunu da saygıyla selamlıyorum. Hocamıza da değerli sunumlarından ötürü ayrıca teşekkürlerimi iletmek istiyorum.

Benim üç kısa sorum olacak. Bunlardan birincisi, Avrupa Birliği Yapay Zekâ Yasası'ndan bahsettik. Benim anladığım kadarıyla, bu Yapay Zekâ Yasası diğer alanlardaki regülasyonların da ötesinde teknolojinin gelişim sürecinin ta en başından, daha geliştirme aşamasında geliştiricilere çeşitli kısıtlar ve kurallar getiren bir regülasyon olacak. Bu anlamda da zannediyorum, Kuzey Amerika'da -özellikle Kuzey Amerika'da- inovasyonu yavaşlatabileceği noktasında eleştiriler de alıyor. Sizin buradaki pozisyonunuz nedir acaba yani bu aşamada regüle etmek inovasyonu nasıl etkiler? Fikrinizi merak ediyorum.

İkinci sorum, aslında sayın vekilimizin az önce gündeme getirdiği o silahlanmayla ilgili konuya temas ediyor. Geçtiğimiz süreçte İsrail'in özellikle Gazze'de uyguladığı soykırımda yapay zekâ destekli silahlar kullandığına dair duyumlar basına yansıdı. Bu süreçleri kontrol etmek noktasında uluslararası bir düzen öngörülüyor mu? Siz, tabiri caizse, uluslararası bir regülasyon öngörüyor musunuz?

Üçüncü sorum biraz daha akademik bir soru. "Yapay zekâ ve etik" dediğimizde genellikle yapay zekânın bugünkü etik anlayışımıza istinaden ortaya koyacağı etkileri ele alıyoruz ancak -yine az önce değerli vekilimizin de gündeme getirdiği gibi- yapay zekânın bazı davranış biçimlerini normalleştirme riski de var. Başka bir deyişle, yapay zekâ ilerleyen süreçlerde bizim etik anlayışımızı da dönüştürebilir. Bu alana odaklanan çalışmalar var mı acaba? Yani "yapay zekâ ve etik" dediğimiz zaman daha çok hakikaten güncel anlayışımıza istinaden etkileri ön plana çıkıyor ancak yapay zekânın etik anlayışını, bizatihi kendisini dönüştürmesi riski var mıdır? Var ise bu konuda yapılan akademik çalışmalar mevcut mudur?

Çok teşekkür ediyorum.

Saygılarımı sunuyorum.

YAPAY ZEKÂ VE DİJİTAL POLİTİKA MERKEZİ BAŞKANI MERVE HICKOK - Ben teşekkür ediyorum sorularınız için.

Son sorudan başlayayım. Yapay zekâ sistemlerinin tanımına baktığımızda, mesela, OECD yapay zekâ sistemi tanımına baktığımızda şöyle bir tanım var: "Makine bazlı, aldığı veriyi analiz edip bir karar ortaya çıkarıyor, bir sonuç veriyor ve bu sonuç hem sanal hem fiziksel ortamı değiştirebilir." diye bir tanım var. Bu ne demek? Fiziksel olarak bir karar verdiğinde, atıyorum, bu askerî alanda olsun ya da başka daha sivil kullanım şekillerinde olsun, yapay zekânın verdiği kararla fiziksel bir etki görebiliyoruz. Bu ne olabilir? Otonom araba olabilir, yapay zekâ kullanıyor, verdiği kararlarla bir fiziksel etki görüyoruz ama aynı zamanda sanal etkileri de var ve organizasyon etkileri de var. Mesela, bir kurumda, bir kamu kurumunda bir yapay zekâ sistemi hayata geçirdiniz; onu kullanan kişi "Bu yapay zekâ sistemine nasıl karar veriyor? Verdiği karara karşı çıkabilir miyim, sorgulayabilir miyim? Analiz, kritik bir şekilde karşı bir karar verebilir miyim? Bu karar üstüne nasıl hareket etmeliyim?" eğer bunları bilmiyorsa, yaptığı şey genelde organizasyonlarda gördüğümüz "kabul et" tuşuna basıp bir sonraki aşamaya... Yapay zekâ sistemleri burada organizasyonun iş yapış biçimini, karar verme biçimini değiştiriyor; bu şekilde bir manipülasyon olabilir ya da etik değerlerin algılanmasını ya da organizasyonun karar verme süreçlerini etkileyebilir.

İkinci olasılık da özellikle sosyal medyada gördüğümüz gibi, yapay zekâ sistemleri kullanarak toplumları ya da belirli toplulukları manipüle edebiliyorsunuz, onların hâlihazırdaki -siyasi olsun sosyoekonomik olsun dinî olsun- eğilimlerine bakarak, verilerden eğilimlerini anlayarak, sonra da bu eğilimlerin üzerine giderek bu kişileri manipüle edip hareketlerini etkileyebiliyorsunuz. Bu anlamda, dediğim gibi, insanların bakış açısını, yaklaşımlarını, etik anlayışlarını değiştirmesi çok olası bir konu ve bence hâlihazırda olan bir şey. Burada akademik araştırmaları yani şu anda spesifik olarak veremeyeceğim konuşurken ama daha kesinlikle tartışılan konular.

İkincisi "İsrail'in kullandığı yapay zekâ sistemleri." dediniz, çok haklısınız. Bunların bir kısmı medyada ortaya çıktı, bir kısmını da kendileri de paylaşıyorlar. Benim bugün, bu sabah okuduğum bir haber, İsrail savunma güçleri IDF Arapça kaynakları kullanarak çok ciddi bir Arapça bazlı dil yapay zekâ sistemi kuruyor. Şey gibi düşünün; ChatGPT'nin Arapça versiyonu ama IDF tarafından kullanılan, oluşturulan bir sistem. Bunu bölgedeki insanların, özellikle Filistinlilerin birbirleriyle görüşmeleri, konuşmaları, yazışmaları, sosyal medyaya koydukları "post"ları anlayabilmek için kullanacaklar; bu şeyleri de görüyoruz. Aynı zamanda açık açık da söylüyorlar, hani, bu sadece burada yaşayanların sosyal ve kişisel bilgileri değil, aynı zamanda "Basın mensuplarını nasıl kontrol edebiliriz? Onları nasıl gözaltında hareketlerini takip edebiliriz?" gibi dil kullanarak, dil sistemlerini kullanarak da baskı yapabiliyorlar. Yani bu sadece şey değil, silahlara bağlı ya da yüz tanıma sistemleri "target selection" dediğimiz, şu binada vurulması gereken ya da saldırılması gereken ya da kontrol edilmesi gereken kişiler var; mesela, risk analizi yaparak "Şu binada şu kadar kişi var, harekete geçin." gibi sistemleri var IDF'in.

Uluslararası düzende ne olabilir? Hâlihazırda benim aklıma iki şey geliyor; bir tanesi uluslararası mahkeme, Adalet Mahkemesi ama hâlihazırda bunlarla problem yaşıyorlar. Burada Filistinliler olsun ya da başka ülkeler mahkemeye başvurduğunda İsrail "Bu benim kendi kontrol alanım, aynı zamanda güvenliği sağlamaya çalışıyorum." gibi karşı argümanlar sunuyor.

İkinci alan, az önce bahsettiğim Birleşmiş Milletlerde o konvansiyonel silahlar kısmının baktığı ya da konvansiyonel silahlar konvansiyonunu geliştirenlerin baktığı bir şey var "Lethal Autonomous Weapons" dediğimiz, bağımsız öldürücü silah sistemlerine bağlı. Bunlar İsrail'in kullandığı bir kısım şeyleri kapsayabilir ama dediğim gibi, dil bazlı bir sistem kullanarak işte "Kimi ön plana çıkarmalıyım? Kimi tutuklamalıyım, hangi basın mensubunu tutuklamalıyım? Hangi insanı vurmalıyım?" gibi kararları veren sistemler var. Hani "Lethal Autonomous Weapon" konvansiyonu ya da oradaki tartışmalar bunları kapsamayacak, hâlihazırda var olan uluslararası regülasyonlar şu anda olan olayları karşılamıyor ne yazık ki.

Üçüncüsü de "Avrupa Birliği Yapay Zekâ Yasası." demiştiniz. Burada haklısınız, Avrupa Birliği Yapay Zekâ Yasası, yapay zekâ sistemlerini kuracak şirketlerin ya da daha doğrusu satacak şirketlerin bu sistemleri en başından itibaren kontrollü bir şekilde geliştirmelerini istiyor. Burada Avrupa Birliğinin bu kanunla amacı şöyleydi: Bir tanesi, insan haklarını korumak, Avrupa Birliğinde yaşayan kişilerin insan haklarını korumak.

İkincisi, 27 ülkede ortak bir kanun çıkarmak, böylece her ülke farklı kanun çıkarmasın, 27 ülkeyi kapsayacak tek bir kanun olsun.

Üçüncüsü de Avrupa'daki vatandaşların ve tüketicilerin güvenini nasıl karşılayabiliriz, nasıl sağlayabiliriz? Amaç burada: Eğer şirketler en başından beri etik kurallara ve bazı mühendislik prensiplerine uyarlarsa ürünleri daha iyi olacak, daha güvenli olacak, daha başarılı olacak, daha çok tüketiciyi kapsayacak şekilde olacak, bununla beraber tüketicinin bu sistemlere güveni daha da artacak. İnovasyonu böyle geliştirmeyi düşünüyorlar, Avrupa Birliğindeki yaklaşım bu çünkü -arkadaki soru işareti- eğer tüketici bu sistemlere güveni yitirirse kullanmayacak, tüketici bu sistemleri kullanmazsa bu sistemlere olan ya da bu şirketlere olan yatırım azalacak; böyle bir dönüşüm içine giriyorsunuz. O yüzden, en başından beri güzel şey yapın, etik bir şekilde kurun, iyi datayla kurun, kurduğunuz sistemlerin, yapay zekâ sistemlerinin performansını takip edin. Aslına bakarsanız, teknik olarak önerdikleri şeyler bizim okulda... Yapmalısınız bunları. En iyi "practice" dediğimiz şeyler, artı bir şey getirmiyor aslında. İyi bir mühendisseniz, iyi bir yazılımcıysanız yapmanız gereken şeyleri öneriyor ama dediğim gibi, inovasyonu bence negatif etkilemeyecek, aksine daha iyi sistemler, daha iyi ürünlerin çıkarılmasını sağlayacağı için Avrupa Birliğindeki tüketicilerin ve vatandaşların güvenini de artıracak ve uzun vadede bence daha fazla inovasyon ve daha fazla ürüne neden olacak.