Yapay zekâ ile çalışmak mı, yapay zekâya çalışmak mı?
Bugün yaşadığımız asıl dönüşüm, teknolojik olmaktan çok davranışsal. Yapay zekâ, kullandığımız bir araç olmaktan çıkıp giderek daha çok uyum sağladığımız bir karar sistemi haline geliyor.
YZTD YK Üyesi & Fingate.io Co-CEO ERGİ ŞENER
Yapay zekâdan söz ederken genellikle hız, verimlilik ve doğruluk vurgulanır. Daha hızlı analizler, daha iyi tahminler, daha az hata… Ancak bugün yaşadığımız asıl dönüşüm, teknolojik olmaktan çok davranışsal. Yapay zekâ, kullandığımız bir araç olmaktan çıkıp giderek daha çok uyum sağladığımız bir karar sistemi haline geliyor.
Stanford Üniversitesi’nin Human-Centered AI (İnsan Odaklı Yapay Zekâ) programı kapsamında yayımlanan çalışmalar, bu dönüşümün kritik bir boyutuna işaret ediyor: Yapay zekâ kararları yalnızca desteklemiyor; insan davranışlarını da standartlaştırıyor. İnsanlar, sistemlerin daha iyi çalışması için kendi düşünme ve ifade biçimlerini farkında olmadan yeniden şekillendiriyor.
İş dünyasında artık daha net konuşuyor, daha ölçülebilir düşünüyoruz. Sezgilerimizi veriyle gerekçelendirmeye çalışıyor, belirsizliği rahatsız edici buluyoruz. Bunlar tek tek bakıldığında olumlu gelişmeler. Ancak bir araya geldiklerinde, dönüşümün yalnızca süreçlerde değil; insan davranışlarında yaşandığını gösteren daha derin bir tablo da ortaya çıkıyor. Sosyoloji literatüründe “teknolojik uyumlanma” olarak tanımlanan bu süreçte, bireyler teknolojiyi yalnızca kullanmaz; zamanla teknolojinin beklentilerine göre kendilerini ayarlar. Dil değişir, refleksler değişir, hatta “iyi karar” tanımı bile değişir.
Bugün bu uyumlanmanın belki de en hızlı ve en görünmez evresinden geçiyoruz. Çünkü uyum artık zorunlu değil; gönüllü. İnsanlar daha iyi performans göstermek ve daha az hata yapmak için bu dönüşümü isteyerek içselleştiriyor. Tam da bu noktada sormamız gereken soru rahatsız edici hale geliyor: Biz mi yapay zekâyı kendimize göre şekillendiriyoruz, yoksa farkında olmadan düşünme biçimimizi onun mantığına mı bırakıyoruz?
Netlik takıntısı ve optimizasyon tuzağı
Nobel ödüllü psikolog Daniel Kahneman ve çalışma arkadaşı Amos Tversky’nin karar verme üzerine yaptığı çalışmalar, insanların belirsizlik karşısında sezgisel kestirme yollar kullandığını gösterir. Yapay zekâ ise bunun tam tersine, belirsizlikle iyi geçinmez. Netlik, tutarlılık ve tekrar edilebilirlik onun doğal çalışma koşuludur. Bu iki farklı mantık kesiştiğinde, davranışlarımız kaçınılmaz olarak değişmeye başlar.
İnsanlar yapay zekâdan “daha iyi sonuç” almak için kendi davranışlarını dönüştürür. Sezgisel fikirler ölçülebilir dile çevrilir, belirsizlik alanları daraltılır. Bir noktadan sonra amaç değişir: En doğru kararı almak değil; modelin en rahat işleyebileceği kararı üretmek öncelik kazanır.
MIT Sloan Management Review’da yayımlanan analizler, AI kullanılan organizasyonlarda karar süreçlerinin giderek daha fazla “optimizasyon merkezli” hale geldiğini ortaya koyuyor. Optimizasyon mevcut sistemi verimli kılar ancak sistemin kendisini sorgulamaz. Pratikte bu durum; toplantıların girdi–çıktı oturumlarına dönüşmesi, KPI’ların insan katkısından çok sistem uyumunu ölçmesi ve veriyle desteklenmeyen fikirlerin riskli kabul edilmesi şeklinde görünür. Her şey daha düzenlidir; ama aynı zamanda daha öngörülebilirdir.
World Economic Forum’un “Future of Jobs” ve “Global AI Governance” raporlarında vurgulanan kritik risk de burada ortaya çıkar: Algoritmik öneriler arttıkça, insanların itiraz etme refleksi zayıflar. Karar alma sorumluluğu sessizce sistemlere devredilir.
Uyumdan yetki devrine
Bu dinamiğin bir sonraki aşaması, Agentic AI olarak adlandırılan sistemlerle görünür hale geliyor. Bu sistemler yalnızca öneriler sunmakla kalmıyor; belirli hedefler doğrultusunda kendi kendine harekete geçebiliyor. Yapay zekâ artık sadece “ne yapılabilir?” sorusuna değil, giderek daha fazla “ne yapılmalı?” sorusuna yanıt veriyor.
Burada kritik olan, insan kontrolünün biçim değiştirmesi. Otonomi arttıkça kontrol, karar anından çok karar mimarisine taşınıyor. İnsanlar tek tek kararları onaylamaktan ziyade, sistemin hedeflerini ve önceliklerini tanımlıyor; sonrasında sistem bu çerçeve içinde kendi kararlarını alıyor. Bu görünmez kayma, algısal yönlendirme riskini beraberinde getiriyor: İnsanlar kararın kendilerine ait olduğunu düşünürken, hangi seçeneklerin “makul” kabul edileceği çoğu zaman çoktan belirlenmiş oluyor.
Sessiz risk: Sezginin dışarıda kalması
Büyük kırılmalar genellikle mevcut verilerin “doğru” dediği yerlerde değil, henüz neyin doğru olduğunu bilmediğimiz anlarda ortaya çıkar. Nobel ödüllü iktisatçı ve bilişsel bilimci Herbert Simon’un “sınırlı rasyonalite” kavramı, insan kararlarının yalnızca veriyle değil; bağlam, deneyim ve sezgiyle şekillendiğini anlatır. AI ise doğası gereği geçmiş verilerle çalışır.
Eğer organizasyonlar karar alma biçimlerini yalnızca ölçülebilir olanın ve geçmiş verinin sınırları içinde tanımlarsa, hata oranı düşer ama sürpriz azalır; sistemler stabil kalır, fakat sıçrama yapamaz. Bu nedenle mesele tek başına bir teknoloji meselesi değildir. Asıl mesele, insan odağını ve anlam üretme kapasitesini karar sistemlerinin neresinde konumlandırdığımızdır.
İnsan nerede durmalı?
Çözüm, kesinlikle yapay zekâdan vazgeçmek olmamalı. Asıl mesele, onu insanın yerine değil; insanın yanına konumlandırabilmektir. AI kararları desteklemeli, insan yargısının yerini almamalıdır. Çünkü uzun vadede rekabet avantajı, yalnızca optimize edilmiş süreçlerden değil; anlam üretebilen, bağlam kurabilen ve gerektiğinde modele rağmen karar alabilen insanlardan gelecek.
Yapay zekâya uyum sağlamak kolaydır. Asıl zor olan, bu uyumun içinde insan kalabilmektir.
Ve uzun vadede sürdürülebilir olan da tam olarak budur.