Yapay zekâ çağında yönetmek

Şirketlerde yapay zekâ konuşmala­rı çoğu zaman iki uçta gidip geliyor: Ya “her şeyi otomasyona verelim” diyen teknoloji romantikleri, ya da “insan gi­der, kültür çöker” diye frene basanlar… Oysa gerçek hayatta mesele insan–ya­pay zeka ilişkisini yönetmek ve bu iliş­kiden verim almak.

Yapay zekâ çağında herhangi bir orga­nizasyona başarıyla liderlik etmek ve alt alanları başarıyla yönetmek için dört çı­karıma ihtiyaç olduğunu görüyorum.

Birinci çıkarım: “İnsan karar zincirde kalacak”

Yapay zekâyı kuruma sokmanın en gü­venli ve en hızlı yolu, Human-in-the-Lo­op (HITL) mantığıdır: AI analiz eder; kri­tik kararın onayı, reddi ya da “dur, bir da­ha bak” deme hakkı insanda kalır. Üstelik bunun ölçüsü bile var: Sağlıklı bir HITL düzeninde, AI önerilerinin yaklaşık %15– 25’i insan tarafından değiştirilir/iptal edilir. Daha düşükse kör güven; daha yük­sekse ya model kötüdür ya da kültür “ben bunu sahiplenmem” demeye başlamıştır.

Bu yaklaşım Türkiye’de bankacılıkta, üretimde kalite kontrolünde, tedarikçi riskinde ve iç denetimde altın değerinde. Çünkü mevzuat, itibar ve müşteri güveni “otopilot” hatalarını affetmez. O yüzden iyi liderlik, yapay zekayı hızlandırırken freni de tasarlamaktır.

İkinci çıkarım: “Eğitim tek tip olmaz, üç katman gerekir”

Bugün pek çok kurum “yapay zekâ eğiti­mi” diyerek herkese aynı sunumu izletiyor. Sonuç: Bir haftalık heves, iki aylık boş ver­me. Daha akıllı bir yaklaşım ile yetkinlik­leri üç katmana ayırmak gerektiğini düşü­nüyorum: Tüm çalışanlar için AI okurya­zarlığı ve doğru soru sorma (Consumers); orta kademe yöneticiler için süreç tasa­rımı ve AI performans takibi (Orchestra­tors); teknik ekipler için model geliştirme, veri yönetişimi ve etik denetim (Builders).

Bu ayrım, “herkes kod yazsın” fante­zisini de bitirir. Herkesin yapması gere­ken şey aynı değil: Birinin görevi doğru prompt yazmak, diğerinin görevi işi ye­niden tasarlamak, bir diğerinin görevi ise sistemi güvenli ve adil tutmaktır.

Üçüncü çıkarım: “Psikolojik güvenlik = AI sigortası”

En pahalı risk, model hatası değil; ha­tayı kimsenin söyleyememesidir. Yapay zekâ önerisini sorgulayabilmek, “bu so­nuç bana tuhaf geldi” diyebilmek, rapor­lamayı cezalandırmayan bir iklim ister. Dönüşümlerin büyük kısmının teknolo­ji değil kültür tarafında başarısız oldu­ğunu veriler dahilinde biliyoruz. Yapay zekâ çağında, bir organizasyonu etkili yönetmek için liderin görünür desteği, güvenli deneme-yanılma alanı, öğren­meye yatırım gerekiyor.

Dördüncü çıkarım: “Ölçmezseniz, yönetemezsiniz”

Yapay zekâ projelerini sadece verim­lilikle ölçerseniz, bu iş sizi hızla yanlış yere götürür: otomasyon artar ama mu­hakeme düşer; hız artar ama etik risk büyür. Bu yüzden göstergeler dengeli olmalı: verimlilik (hata oranı, süre, ma­liyet) + kültür (psikolojik güvenlik, öğ­renme hızı) + etik (bias denetimleri, şeffaflık) + iş etkisi (müşteri memnuni­yeti, inovasyon).

Bir de kaynak stratejisi gerekiyor. Her yapay zekâ ihtiyacını “biz yapalım” ref­leksiyle yönetemezsiniz. Uygulamada da­ha sağlıklı olan, portföy mantığıdır: stan­dart ihtiyaçlarda satın al, rekabet farkı yaratan alanlarda inşa et, kritik uzman­lıkta doğru partnerle ilerle. (Önerilen da­ğılım: yaklaşık %70 satın al, %20 inşa et, %10 partnerlik.)

Yapay zekâ çağı farklı bir liderlik gerektiriyor!

Yapay zekâ çağında liderlik, teknolo­ji seçmekten ibaret değil. Karar mimari­sini (HITL) kurmak, yetkinliği katmanlı geliştirmek, “soru sormayı” ödüllendiren bir kültür inşa etmek ve doğru metrik­lerle rotayı kontrol etmek zorundasınız. Yoksa çok pahalı bir yazılımınız olur; ama karar hızınız artmaz, riskiniz düş­mez, insanlarınız da dönüşüme inanmaz.

Yeni dönemin basit cümlesi şu: Yapay zekâyı kullanan şirketler değil, yapay zekâyı yöneten şirketler kazanacak.

Yazara Ait Diğer Yazılar