Yapay Doğaçlama

Doğaçlama yeteneği halüsinasyon görmekten mi geçiyor?

Bill Gates’in Unconfuse Me! adlı podcast serisinin yeni konuğu OpenAI’dan Sam Altman idi. Altman’ın fazla detaya inmeden değinip geçtiği bir husus da son dönemin popüler yapay zekâ olgularından birisi: Yapay zekanın halüsinasyon görme durumu! Yapay zekanın halüsinasyon görmesi giderek popülerliğini artırıyor. Aralık ayında Cambridge Üniversitesi Sözlüğü “halüsinasyon görmek” anlamına gelen (hallucinate) sözcüğünü 2023 yılının kelimesi seçmişti. İnsanın halüsinasyon görmesi tamam da yapay zekanın halüsinasyon görmesi ne demek?

Temel olarak yapay zekanın bir dizi yalan-yanlış bilgiyi kendi içinde tutarlı bir bütün olarak sunmasına yapay zekanın halüsinasyon görmesi deniyor. Örneğin “Messi kimdir?” diye sorulan bir soruya, “Messi, Türk milli takımının en gözde futbolcusudur. Uzun yıllar Fenerbahçe’de forma giymiş, dört kez üst üste gol kralı olmuş, Fenerbahçe ile üç lig, dört kupa şampiyonluğu kazanmıştır” diye cevap veren bir yapay zekâ halüsinasyon görüyor demektir.

Evet Messi bir futbolcu ama Türk değil. Ne Türk milli takımında ne de Fenerbahçe’de forma giymişliği var. Lig, kupa şampiyonlukları kazandı, gol kralı oldu ama bu başarıları Fenerbahçe forması altında Türkiye Süper Ligi’nde elde etmedi. Yapay zekâ atıyor ama destekli atıyor. Kalkıp da Messi’nin ünlü bir İspanyol ressam ya da İranlı ünlü bir şair olduğunu iddia etmiyor. Doğrular (futbolcu olması, gol kralı olması, şampiyonluklar kazanmış olması) ile yanlışlar (Fenerbahçe, Türkiye) birbirine girmiş durumda. Ama mantık hatası yok. Messi’nin gerçek dünyadaki izlerinden haberi olmayan, ama futbolu bilen birisi, bu açıklamayı okuduğunda içeriğin doğruluğu hakkında tereddüt etmeyebilir.

Benzer bir husus kişinin hiç bilgisi olmadığı bir alanla ilgili sorduğu sorular için de geçerli. Bu durumda o kişinin yapay zekanın verdiği cevapların doğruluğunu teyidi etmesi mümkün olmayacaktır; cevap tutarlı görünse bile! Doğruluk teyidi alan bilgisi gerektirmekte. Konu hakkında bilgi sahibi olmayan yapay zekanın halüsinasyon görüp görmediğini tespit etmesi zor!

Altman’ın değinip geçtiği husus “halüsinasyon” diyerek şirinleştirilen bu durumun farklı bir sürece işaret ettiği. Özellikle de yapay zekâ geliştiricileri için. Altman, GPT’nin bu halini halüsinasyon görmek olarak değil de “doğaçlama” yapmak olarak nitelendiriyor. Anlaşılıyor ki OpenAI’daki uzmanlar, GPT’nin biraz doğaçlama yapmasını olanaklı kılmışlar. Bakalım ne tür cevaplar verecek ve insanların buna reaksiyonu nasıl olacak diye bir tür sosyolojik deney yapıyor olabilirler.

Sahi bu durum insandaki doğaçlama ile kıyaslanabilir mi? İnsandaki doğaçlama bilinen bir doğru yerine alternatif doğrular üretmek değil (o post-truth). O nedenle doğaçlama örneğin matematikte değil de müzikte yapılınca anlam kazanıyor. Yoksa iki kere iki her yerde dört (belki Kayseri hariç)!

Fransa’nın başkenti Lyon’dur diyen yapay zekaya şimdilik “halüsinasyon görme, doğru dürüst cevap ver” diye tepki gösterilecek olsa da buradan yola çıkan yapay zekanın gelecekte nerede doğaçlama yapması gerektiğini öğrenip, cevaplarını ona göre hazırlayacak olması imkânsız değil! İnsanlar yapay zekâyı incir çekirdeğini doldurmayan soru(n)ları için kullanırken, yapay zekâ da insanları kendilerini rafine etmede kullanıyor. Ne demişti 216 “İnsan olmaya geldim, Arif!”

Herkese Bilim Teknoloji Dergisi; “Dijital Kültür” Köşesi (Sayı 407 25.01.2024)

Popüler Etiketler