Yanlış bile değil!
İlk yazım. Başlığın ilgi çekici ve okuyucuyu ana sayfadan bu sayfaya getirmesi lazım, yetmez, bir de sürükleyici bir yazı olduğuna dair ipucu vermesi lazım. Editörlerin ilk olarak yönlendirmesi buydu. Teknolojinin hep kodlayan geliştiren tarafında oldum, şimdi gerçek dünyaya etkilerini anlatmak için bu köşeden sizlere sesleneceğim, umarım anlaşılır ve düşündürücü olur.
Yeni teknolojileri daima yakından takip etme, hatta çoğu zaman ilk geliştiricileri arasında yer alma ayrıcalığına sahip oldum. 25 yılı aşkın süredir yazılım sektöründe, özellikle finansal teknoloji alanında, ulusal ve uluslararası ölçekte pek çok projede aktif rol aldım. Yeni trendleri en erken aşamada deneyimlemenin en değerli yanı ise doğruları ve yanlışları daha yolun başındayken görebilme imkânım olmuştur. Şimdiye kadar bunu teknik açıdan etrafımda anlatmaya çalıştım, artık sizlere de anlatmaya gayret edeceğim.
Başlıktaki Wolfgang Pauli’ye atfedilen bu ifade (that’s not right, it isn’t even wrong), bir iddianın ya da cevabın “öylesine başarısız” olduğunu ima eder ki, yanlış olma düzeyine bile ulaşamaz. Bu yazıda sizlere “Yapay Zekâ”ya farklı bir açıdan yaklaşıp, her gün duymaya alıştığınız ama diğer yandan yanlış bile olamayacak bazı kavramları açıklamaya çalışacağım.
YZ, özellikle son dönemde sihirli bir değnek gibi pazarlanıyor. Sanki bir yazılım projesine “yapay zekâ destekli” etiketi yapıştırdığınız anda o proje anında daha sofistike, daha güvenilir, daha kârlı hale geliyor.
Oysa çoğu zaman bu iddialar, teknik olarak yapay zekâ tanımının yanına bile yaklaşmıyor. Hatta bazı çözümler için “yanlış bile değil” diyebiliriz. Çünkü yanlış olabilmesi için ortada en azından yapay zekâya dair bir girişim, bir deneme olması gerekir.
YZ’nın gerçekte ne olduğunu, finansta nasıl kullanıldığını ve neden bu kadar kolay suistimal edildiğini sade ama derinlemesine anlatmak istiyorum.
Yapay Zekâ (Artificial Intelligence, AI), bilgisayar sistemlerinin insan zekâsını andıran görevleri yerine getirmesini hedefleyen bilim dalıdır. Demek ki, “yapay“ olanı anlamadan önce ”gerçek/doğal” olan insan zekâsını ve görevlerini biraz irdelememiz ve söz edilen “yapay”ın hangi sınırlara ne kadar yaklaştığını anlamamız gerekiyor.
“Zekâ”sı nereden geliyor ve neden “yapay”?
Hepimizin ezbere bildiği insanın yaşam döngüsünü düşünün; “doğar – büyür – gelişir – ölür”. Büyüdüğü ve geliştiği ortamın, kültürün, onu geliştiren kişilerin kendi tutumundan öğretilerine kadar birçok kriter bu ”gelişim” sürecini farklılaştırır. Felsefesine baktığınızda detayı çok karışık bir konu. Basitten alalım, kısa cevap; “zekâsı, unutmaması ve sürekli öğrenmesinden kaynaklıdır”. İşinizi gördüğünde rahatlatıcı, ama karşınızda olursa da inanılmaz huzursuz yapan bir güç.
“Öğrenen” tanımı neyi ifade ediyor?
Ana okuluna başlayana kadar çocuğuna çikolata yedirmemek için çaba gösteren velilerdendim. Hatırlarım, ilkokulda kola yerine çay içirip çocuğun “canı çekerse” algısını etkilemeye çalışan arkadaşlarım da oldu. Ama tüm bu korumacı tavırlar, çocuğu okula gönderdiğiniz an yıkılan bir kale duvarı gibidir, zira okuldaki arkadaşından görür, özenir, belki de deneyimler. İşte o zaman tüm velilerin aklından geçeni düşünürsünüz; “ortamı” değil “çocuğu” hazırlamak gerekir.
YZ’nın “kötü” niyetli olabilme ihtimalini belki bu şekilde daha yalın anlatabilirim. Her ne kadar siz kendi kontrolünüzde bir öğrenme modelini çalıştırsanız da, hizmet vermek istediğiniz kitlenin YZ’yı hangi tarz veri ile beslediğini ve YZ’yı öğrenme konusunda nasıl yönlendirdiğini kontrol altında tutmanız gerekir. Ama bu kolay değildir. İşte bu yüzden bazen haberlerde “YZ kendisini kapatmak isteyen sistemlere karşı önlem aldı” gibi haberleri duyuyoruz. Ama bir an düşünün, gerçek hayatta da aynı durum olsa insanoğlu “doğal” zekâsıyla nasıl davranırdı?
YZ’nın kendi sınırlarını aşabilen “öğrenme” yeteneği kendisine sunulan verilerin ve sonuçların skorlarıyla kendini eğitir, geliştirir. Karşımızdaki “zekâ” unutmuyor, hep “karşılaştıran, ölçen, skorlamaya” dayanan “veri – bilgi – öğrenim – kabul edinim – örüntü – yaygınlaştırma - kanıksama” silsilesinde devam eden bir döngü içinde yaşıyor. Öğrenmesinin ana kaynağı onu besleyen “veri” ve “sonuçları”. Siz veriyi nasıl yüklerseniz, düşünme algoritması o verinin sonuçlarına göre “öğrenir”, bu döngünün sürekliliği de “gelişimini” destekler. Bu durumda YZ nasıl “kötü niyetli olabilir“ veya nasıl “yalan söyleyebiliyor” soruların yanıtını vermiş oluyoruz, “onu eğitenin belirlediği rotaya göre gelişiyor.” Eğitmen katı kurallar çerçevesinde, “kötü” niyeti kendine göre tanımlayarak öğrenme sürecini kısıtlayabilir veya çok demokratik davranması gerektiğini düşünerek kuralsız bir model belirleyebilir.
Peki “kötü niyeti” nasıl engelleriz? Örneğin ChatGPT’nin yöneticilerini düşünün, kendinizi onların yerinde hayal edin, çocuğunu kötü düşüncelerden korumaya çalışan bir veli gibi. Milyonlarca kişinin soru sorup, cevap aldığı bir sistem kuruyorsunuz ve bu sistem “kötü niyetli” olmasın diyorsunuz. Elbette ki sağlanır ama o kadar büyük bir veri havuzundan bahsediyoruz ki, ucu açık kalan kapılar mutlaka kalacaktır.
“Yanlış” bile olmayan YZ uygulamalarını nasıl anlarız?
Öncelikle kendini “YZ” olarak tanımlayan uygulama sahipleri hemen savunmaya geçmesin. Bu uygulamalar akılsız veya işe yaramaz demiyorum, YZ tespiti için bazı kavramları daha görünür hale getirmemizin önemini belirtiyorum. YZ olması için ne lazım, olmayanlar hangileridir, çok itiraz edilemeyecek somut tespitlerle anlatmak istiyorum;
1 Kurallara Dayalı Otomasyonlar (Rule-Based Automations): Sabit kurallar uygular. Ne öğrenir ne tahmin eder, YZ değildir.
2 Basit İstatistiksel Modeller (Basic Statistical Models): İstatistik değerlidir ama makine öğrenmesine geçmeden yapay zekâ sayılmaz.
3 Görselleştirme Tabanlı Raporlama (Decorative Dashboards): Grafiklerle süslenmiş raporlar yapay zekâ gibi sunulur.
Bir sistemin gerçekten yapay zekâ içerip içermediğini anlamak için bazı soruları sormamız lazım yanıtlarına
* Öğreniyor mu? (Learning)
* Örüntü keşfi yapıyor mu? (Pattern Discovery)
* Tahmin kabiliyeti var mı? (Prediction)
* Sonuçları açıklayabiliyor mu? (Explainability)
Bu özellikler yoksa sistem otomasyondur.
Bu nedenle de abartı olmaz, “Yanlış bile değildir”