Ultra Doğru
Doğrunun cehalet ile bitmeyen savaşı!
Bir toplulukta yaşayan, akli melekeleri yerinde olan yetişkinlerin çoğunluğu iki ile ikinin toplamının sekiz ettiği üzerinde mutabık kalırsa ne olur? Matematik doğru bir alan değilse benzer “çoğunluk baskısı”na başka alanlardan örnekler de verilebilir. Diyelim ki bir toplulukta “yalan söylemek” yüceltilmiş bir erdemdir. Bu durumda yalan söyle(ye)meyen azınlık cezalandırılacaktır.
Zaman zaman demokrasi de denilen bu “baskı”, yapay zekâ makine öğrenme süreci vesilesiyle yeni bir boyuta evriliyor. En büyük doğal veri kümesi olan internet-sosyal medyanın bu eğitim sürecinde aktif olarak kullanılıyor olması “doğru”ya bir darbe daha indirmek üzere. Ötenin (post-truth) de ötesi, “ultra doğru” belki de! Bir şeyin doğrusunun ne olduğunu öğrenmek için yapay zekacıklara danışıldıkça, o zekacıklar da çoğunluğunun söylemini doğru olarak algılayarak eğitilmişse, geleceğin ultra cahil bireyini bugünün cahil bireylerinin sosyal medyada paylaştığı çöp (yanlış) bilgi yetiştirmiş olacak!
Bir de bu kadar pragmatik olmayangiller var. Çin örneğin! Ülkede geliştirilen üretici yapay zekacıklar sosyalizm ya da devlet başkanı gibi kırmızı çizgileri konusunda doğru yetiştirilmemişse kullanıma sunulamayacak. Buna sansür de denilebilir saf doğrunun hakkının korunması da. Fark nerede? Görünen o ki fark uygulanan yöntemle değil, onun suistimal edilmesiyle ilgili. Çin’de ya da dünyanın genelinde milyonlarca kişi “sosyalizm berbat bir sistemdir” dedi diye yapay zekâ sosyalizmi bu şekilde öğrenecekse burada bir sıkıntı vardır. Ama Şi’nin dünyanın gelmiş geçmiş en yüce, en kudretli lideri olduğu şeklinde bir değerlendirme yapmayan yapay zekacığın kullanımına izin verilmeyecek olması sansür kategorisine girebilir.
Şöyle bir liberal değerlendirme de yok değil. Birilerinin elinde filtreden geçirme yetkisi olursa orada sansürün-yasaklamanın olması kaçınılmaz olacak, bu tür denetim mekanizmalarının olmadığı modeller çok daha sağlıklı sonuçlar üretecektir. Oysa en liberal sistemlerde bile bu tür denetim ya da filtre mekanizmalarının olmadığını iddia etmek pek doğru olmayacaktır. Tek fark bu süreçlerin alenen yapılmıyor olması! Bir politikacı örneğin, özellikle seçim arifesinde, doğru olup olmadığına dikkat etmeden ağzına geleni söyleyip, seçim sonrasında da “propaganda sürecinde olur böyle şeyler” pişkinliğinde davranabiliyor. Hatta bazı örneklerde buna bile gerek görülmüyor. Uzmanlar da ister istemez ağızdan çıkan her lafın doğru olup olmadığını araştırıyor. Ama yapay zekacıklara alenen doğru şeyleri öğretmek cıvıklık olarak nitelendirilebiliyor.
Yapay zekâ makine öğrenme sürecine bu şekilde müdahale edip etmemek bir başka tartışmanın da kapısını açıyor. Evrenin kendisi başlangıçtan beri kendi ürettiği veri kümelerini baz alarak mı deviniyor-evriliyor? Yoksa “dışarıdan” bir müdahale söz konusu mu? Başlangıçta ya da gerekli görülen noktalarda? Örneğin canlılığın başlatılmasında. Örneğin bilincin ortaya çıkmasında.
Yapay zekâ, bazı hassas konularda “dışarıdan”, tartışmaya-kapalı bilgilerle, diğer konularda ise anonim veri kümeleri baz alınarak eğitiliyorsa evren de benzer bir “hibrit” modele göre ortaya çıkmış olamaz mı? Bu soru ChatGPT’ye sorulsa belki de vereceği cevap ikisi arasında bir ilişkinin kurulabilmesi için elde yeterli bilginin olmadığı yönünde olurdu. Oysa insanın analojilerle-metaforlarla çalışan tembel beyninin herhangi iki şey arasında irtibat kurması o kadar kolay ki. Belki de insanın yapay zekalardan öğreneceği ilk meta-bilgi bu olacak!
Herkese Bilim Teknoloji Dergisi; “Dijital Kültür” Köşesi (Sayı 435 22.08.2024)

