Komisyon Adı | : | (10/235, 837, 1601, 1602, 1800, 1801) Esas Numaralı Meclis Araştırması Komisyonu |
Konu | : | Yapay Zekâ ve Dijital Politika Merkezi Başkanı Merve Hickok'un, Merkezlerinin amacı ve çalışmaları, yapay zekânın yararları ve riskleri, yapay zekâ etiği, yapay zekâya hazır olup olmadığımız, nelere öncelik vermemiz gerektiği ve tavsiyeleri hakkında sunumu (Video konferans sistemi/Japonya) |
Dönemi | : | 28 |
Yasama Yılı | : | 3 |
Tarih | : | 11 .03.2025 |
MEHMET ALİ ÇELEBİ (İzmir) - Teşekkürler Sayın Bakanım.
Hocam, teşekkür ederiz etkili sunum için. Üç sorum var: Öğrencilerin ödev ve projelerini tamamen yapay zekâ sistemleri üzerinden yapmalarını etik ilkelerden sapma olarak görüyor musunuz yoksa "Bu artık doğaldır, farklı nitelikler öne çıkacak?" mı diyorsunuz. İkinci soru: Robotlarla yaşam artık söz konusu olacak. Buna yönelik özel bir etik çerçeve çalışıyor musunuz? Üçüncü soru: Askerî yapay zekâ silahlanma yarışı da etik kaygılardan bir tanesi. Sizin gördüğünüz kadarıyla Amerika buna yeteri kadar dikkat ediyor mu?
Teşekkür ederim.
YAPAY ZEKÂ VE DİJİTAL POLİTİKA MERKEZİ BAŞKANI MERVE HICKOK - Çok teşekkürler çok güzel sorularınız için.
Öğrenciler, dediğiniz gibi, ödevlerini çok yaygın bir şekilde ChatGPT ya da yapay zekâ sistemlerini kullanarak yapmaya başladılar. Ben aynı zamanda Michigan Üniversitesinde de ders veriyorum, master seviyesinde, yüksek lisans seviyesinde ders veriyorum. Benim öğrencilerim bile, bırakın, hani o ortaokul, lise yaşlarını benim yüksek seviye yükseköğretimdeki öğrencilerim bile aynı şeyi yapıyorlar şu anda. Benim ön plana çıkarmaya çalıştığım, uygulamaya çalıştığımız şeyler: Öğrenciler ve de öğretmenler bu sistemleri öğrenmeli. Nasıl faydalı olarak kullanılacağını öğrenmeli ama aynı zamanda "kritik değerlendirme" dediğimiz, "analitik değerlendirme" dediğimiz yetkinlikleri de geliştirmemiz gerekiyor. Ben derslerimde üretken yapay zekâ üzerine bir ders veriyorum, derslerimden bir tanesi en azından o. Orada özellikle üretken yapay zekâ sistemlerinden çıkan sonuçları nasıl analiz edebiliriz, doğruluklarını nasıl araştırabiliriz, neden güvenmeliyiz, neden güvenmemeliyiz gibi daha etkin bir şekilde bu sistemlere çalışmalarını tavsiye ediyorum ben kendi öğrencilerime de. Bunu yasaklarsak, öğrenciler olsun, öğretmenler olsun yasaklarsak dediğim gibi her kaybettiğimiz gün geriye attığımız bir gün ama öğrenciler, eğitmenler "Nerede yapay zekâ kullanılmalı, nerede kullanılmamalı, kullandığımız alanlarda hangi etik prensiplere değer vermeliyiz, ön plana çıkarmalıyız?" bunları iyi bir şekilde anlarlarsa çok daha faydalı olarak kullanabileceğiz ama çok ciddi bir problem, hâlihazırda bizim de tam olarak çözümünü bulamadığımız bir problem.
"Robotlarla yaşam" dediniz. Bu enteresan bir şekilde Japonya'da çok daha ön plana çıkan bir konu. Bildiğiniz gibi Japonya'nın doğum oranları çok düşük. İnsanların uzun yaşama ya da yaşadıkları hayat ve yaşları da çok ilerlemeye başladı. Bu yüzden iki uçta problem yaşanıyor Japonya'da. Yeteri kadar doğan çocuk yok ama yaşlılar çok uzun sene yaşıyorlar ve çalışmıyorlar. Arada kalan çalışan kesim de hangi birine baksın, hangi birine destek versin, çok fazla baskı var. O yüzden Japonya'da robotlara, ileride robotlarla yaşamaya yönelik çok fazla, diğer ülkelerden daha fazla bakıyorlar, bu konuları araştırıyorlar ve bahsettiğim etik prensipler aslında burada da önemli. En önemlisinden iki tanesi: İnsan odaklı, her zaman insanı ön plana çıkaracak robotik sistemler. İkincisi de "value alignment" dediğimiz değerlerin örtüşmesini sağlayacak yaklaşımlar. Siz robota bir şey dediğinizde, bir emir verdiğinizde ya da bir şey yapmasını istediğinizde onu yapmak için başka bir şeye zarar vermemesi gerekir. Çok detaylı bir şekilde bunları anlaması gerekiyor ama dediğim gibi robotlarla yaşam, robotik prensiplere, robotik planlara baktığımızda Japonya'da çok enteresan örnekler var tavsiye edebileceğim.
Son olarak da askerî silahlanma ve burada bir yarıştan bahsettiniz. Bu çok çok ciddi bir problem, ne yazık ki Amerika'daki yeni yönetimle beraber daha da ciddi bir problem olacak. Şu ana kadar var olan kontroller, etik kontroller, sorumluluklar umarım bir kenara atılmaz ama o atılma olanağı da çok yüksek. Burada özel şirketler, bildiğimiz büyük şirketler olsun, Google, OpenAI, Anthropic, Microsoft, MarcoSoft gibi büyük şirketlere ek olarak "start-up"lar da çok ciddiymiş şeklinde savunma ve askerî silahların üzerine ürünler çıkarıyorlar, çok odaklı bir şekilde ilerliyor. Bu konularda da diğer ülkelerde konvansiyona baktığımızda mesela askerî kullanımlar, yapay zekâ sistemlerinin askerî alanda kullanılması konvansiyon içinde, Avrupa Konvansiyonu içinde değil ama Birleşmiş Milletlerde farklı konvansiyon tartışmaları var. Burada "Amerika'ya nasıl bir baskı olabilir ya da Amerika'nın yaklaşımları nasıl analiz edilmeli?" farklı "fora"larda da bakmak gerekiyor ama hâlihazırda ciddi bir silahlanma hareketi var.