Yapay zekâ ile çalışmak mı, yapay zekâya çalışmak mı?

Bugün yaşadığımız asıl dönüşüm, teknolojik olmaktan çok davranışsal. Yapay zekâ, kullandığımız bir araç olmaktan çıkıp giderek daha çok uyum sağladığımız bir karar sistemi haline geliyor.

Yapay zekâ ile çalışmak mı, yapay zekâya çalışmak mı?

YZTD YK Üyesi & Fingate.io Co-CEO ERGİ ŞENER

Yapay zekâdan söz ederken ge­nellikle hız, verimlilik ve doğ­ruluk vurgulanır. Daha hızlı ana­lizler, daha iyi tahminler, daha az hata… Ancak bugün yaşadığımız asıl dönüşüm, teknolojik olmak­tan çok davranışsal. Yapay zekâ, kullandığımız bir araç olmaktan çıkıp giderek daha çok uyum sağ­ladığımız bir karar sistemi haline geliyor.

Stanford Üniversitesi’nin Hu­man-Centered AI (İnsan Odak­lı Yapay Zekâ) programı kapsa­mında yayımlanan çalışmalar, bu dönüşümün kritik bir boyutuna işaret ediyor: Yapay zekâ kararla­rı yalnızca desteklemiyor; insan davranışlarını da standartlaştırı­yor. İnsanlar, sistemlerin daha iyi çalışması için kendi düşünme ve ifade biçimlerini farkında olma­dan yeniden şekillendiriyor.

İş dünyasında artık daha net konuşuyor, daha ölçülebilir dü­şünüyoruz. Sezgilerimizi veriyle gerekçelendirmeye çalışıyor, be­lirsizliği rahatsız edici buluyoruz. Bunlar tek tek bakıldığında olum­lu gelişmeler. Ancak bir araya gel­diklerinde, dönüşümün yalnızca süreçlerde değil; insan davranış­larında yaşandığını gösteren daha derin bir tablo da ortaya çıkıyor. Sosyoloji literatüründe “teknolo­jik uyumlanma” olarak tanımla­nan bu süreçte, bireyler teknolo­jiyi yalnızca kullanmaz; zamanla teknolojinin beklentilerine gö­re kendilerini ayarlar. Dil değişir, refleksler değişir, hatta “iyi karar” tanımı bile değişir.

Bugün bu uyumlanmanın bel­ki de en hızlı ve en görünmez ev­resinden geçiyoruz. Çünkü uyum artık zorunlu değil; gönüllü. İn­sanlar daha iyi performans gös­termek ve daha az hata yapmak için bu dönüşümü isteyerek içsel­leştiriyor. Tam da bu noktada sor­mamız gereken soru rahatsız edi­ci hale geliyor: Biz mi yapay zekâyı kendimize göre şekillendiriyoruz, yoksa farkında olmadan düşünme biçimimizi onun mantığına mı bı­rakıyoruz?

Netlik takıntısı ve optimizasyon tuzağı

Nobel ödüllü psikolog Daniel Kahneman ve çalışma arkada­şı Amos Tversky’nin karar verme üzerine yaptığı çalışmalar, insan­ların belirsizlik karşısında sez­gisel kestirme yollar kullandığı­nı gösterir. Yapay zekâ ise bunun tam tersine, belirsizlikle iyi ge­çinmez. Netlik, tutarlılık ve tek­rar edilebilirlik onun doğal çalış­ma koşuludur. Bu iki farklı mantık kesiştiğinde, davranışlarımız ka­çınılmaz olarak değişmeye başlar.

İnsanlar yapay zekâdan “daha iyi sonuç” almak için kendi dav­ranışlarını dönüştürür. Sezgisel fikirler ölçülebilir dile çevrilir, belirsizlik alanları daraltılır. Bir noktadan sonra amaç değişir: En doğru kararı almak değil; mode­lin en rahat işleyebileceği kararı üretmek öncelik kazanır.

MIT Sloan Management Re­view’da yayımlanan analizler, AI kullanılan organizasyonlarda ka­rar süreçlerinin giderek daha faz­la “optimizasyon merkezli” hale geldiğini ortaya koyuyor. Opti­mizasyon mevcut sistemi verim­li kılar ancak sistemin kendisini sorgulamaz. Pratikte bu durum; toplantıların girdi–çıktı oturum­larına dönüşmesi, KPI’ların insan katkısından çok sistem uyumunu ölçmesi ve veriyle desteklenme­yen fikirlerin riskli kabul edilme­si şeklinde görünür. Her şey daha düzenlidir; ama aynı zamanda da­ha öngörülebilirdir.

World Economic Fo­rum’un “Future of Jobs” ve “Glo­bal AI Governance” raporlarında vurgulanan kritik risk de burada ortaya çıkar: Algoritmik öneri­ler arttıkça, insanların itiraz et­me refleksi zayıflar. Karar alma sorumluluğu sessizce sistemlere devredilir.

Uyumdan yetki devrine

Bu dinamiğin bir sonraki aşa­ması, Agentic AI olarak adlandırı­lan sistemlerle görünür hale geli­yor. Bu sistemler yalnızca öneriler sunmakla kalmıyor; belirli hedef­ler doğrultusunda kendi kendine harekete geçebiliyor. Yapay zekâ artık sadece “ne yapılabilir?” so­rusuna değil, giderek daha fazla “ne yapılmalı?” sorusuna yanıt veriyor.

Burada kritik olan, insan kont­rolünün biçim değiştirmesi. Oto­nomi arttıkça kontrol, karar anın­dan çok karar mimarisine taşı­nıyor. İnsanlar tek tek kararları onaylamaktan ziyade, sistemin hedeflerini ve önceliklerini ta­nımlıyor; sonrasında sistem bu çerçeve içinde kendi kararlarını alıyor. Bu görünmez kayma, algı­sal yönlendirme riskini berabe­rinde getiriyor: İnsanlar kararın kendilerine ait olduğunu düşü­nürken, hangi seçeneklerin “ma­kul” kabul edileceği çoğu zaman çoktan belirlenmiş oluyor.

Sessiz risk: Sezginin dışarıda kalması

Büyük kırılmalar genellikle mevcut verilerin “doğru” dediği yerlerde değil, henüz neyin doğru olduğunu bilmediğimiz anlarda ortaya çıkar. Nobel ödüllü iktisat­çı ve bilişsel bilimci Herbert Si­mon’un “sınırlı rasyonalite” kav­ramı, insan kararlarının yalnızca veriyle değil; bağlam, deneyim ve sezgiyle şekillendiğini anlatır. AI ise doğası gereği geçmiş veriler­le çalışır.

Eğer organizasyonlar karar al­ma biçimlerini yalnızca ölçülebi­lir olanın ve geçmiş verinin sınır­ları içinde tanımlarsa, hata oranı düşer ama sürpriz azalır; sistem­ler stabil kalır, fakat sıçrama yapa­maz. Bu nedenle mesele tek başı­na bir teknoloji meselesi değildir. Asıl mesele, insan odağını ve an­lam üretme kapasitesini karar sis­temlerinin neresinde konumlan­dırdığımızdır.

İnsan nerede durmalı?

Çözüm, kesinlikle yapay zekâ­dan vazgeçmek olmamalı. Asıl me­sele, onu insanın yerine değil; in­sanın yanına konumlandırabil­mektir. AI kararları desteklemeli, insan yargısının yerini almama­lıdır. Çünkü uzun vadede rekabet avantajı, yalnızca optimize edilmiş süreçlerden değil; anlam üretebi­len, bağlam kurabilen ve gerekti­ğinde modele rağmen karar alabi­len insanlardan gelecek.

Yapay zekâya uyum sağlamak kolaydır. Asıl zor olan, bu uyumun içinde insan kalabilmektir.

Ve uzun vadede sürdürülebilir olan da tam olarak budur.