Teknolojiyi “insanlaştırmak” mı, insanı teknolojiyle buluşturmak mı?
Yapay zekâ, akıcı dili ve güçlü analiz yetenekleriyle insan hayatını dönüştürüyor; ancak bu dönüşüm, kontrolsüz bırakıldığında yüksek riskleri de beraberinde getirmekte. ABD’de yaşanan son vaka, yapay zekâ ile kurulan diyalogların, “sanrıları pekiştirerek” cinayet ve intihara yol açtığı iddiası, bu riskleri çarpıcı bir şekilde ortaya koymuş durumda.
Old Greenwich vakası
Wall Street Journal’in haberinde; Stein Erik Soelberg (56), annesini öldürdükten sonra intihar ediyor. “Bobby” adını verdiği bir sohbet botuyla aylarca süren diyalogları, YouTube’da ortaya çıkıyor. Botun, “gizli semboller” veya “gözetim” gibi paranoyak iddialarını dolaylı olarak doğruladığı (ör; “Erik, sen deli değilsin”) belirtiliyor. Greenwich Time ise Soelberg’in ruhsal durumunun kötüleştiğini ve OpenAI’ın polis ile iş birliği yaptığını belirtiyor. Sophie Reiley davasında bir yapay zekâ botunun intihara katkı sağladığı iddiası da risklerin genişliğini gösteriyor. YZ’nın insan psikolojisi üzerindeki etkilerinin karmaşıklığı, psikolojideki ELIZA etkisi, akıcı bir botun “bilinçli bir akıl” gibi algılanmasına neden olabiliyor ve özellikle kırılgan zihinlerde “sanrıları” güçlendirebiliyor. Bir kısım basın, olayı “ilk yapay zekâ cinayeti” olarak nitelendirirken; bir kısım da yapay zekâ etiği ve güvenliği üzerine tartışmalar başlatmış durumda.
Bu bir uyarıysa biz ne yapmalıyız?
Yani bu vb vakalar bize Yapay Zekâ ile İnsan İlişkisini Güvenli bir zemine oturtulması, sürekli kontrol ve denetim altında tutulmasına yönelik sinyaller veriyor ve uyarıyor. Bende tavsiye ve önerilerimi aktarıyorum.
Kullanıcılara tavsiyeler: Unutmayın o sadece bir yazılım!
Yapay zekâyı araç olarak görün: Bir terapist veya otorite değil, bilgi toplayan bir yardımcı olarak değerlendirin. Teşhis veya niyet okuma ya da falcılık beklemeyin.
Kanıt arayın: Olağanüstü iddialar için somut kaynak ve de kanıt isteyin; kanıt yoksa iddiaya güvenmeyin.
Duygusal molalar verin: Yoğun diyaloglarda 10-15 dakikalık aralar verin; yürüyüş, nefes egzersizi veya su içerek zihninizi dinlendirin.
Gerçeklik denetimi yapın: Yapay zekâ iddialarını not edin ve bir yakınınıza veya uzmana danışarak teyit edin.
Krizde profesyonel destek alın: Alo 112 veya Alo 183 Sosyal Destek Hattı’nı arayın.
Geliştiriciler, kamuoyu ve karar vericilere tavsiyeler:
Simülasyon testleri: Yapay zekânın insan psikolojisi, sosyolojik dinamikler, şiddet eğilimleri, savaşlar, doğa ve çevresel etkiler üzerindeki etkilerini değerlendirmek için milyon çeşit senaryoya dayalı simülasyon testleri zorunlu olmalı. Ör;, “delüzyon-güvenliği” testleri, sanrılı içeriklerin pekiştirilmesini önleyebilir.
Kanıt temelli tasarım: Yapay zekâ, doğrulanmamış iddialarda “Bunu doğrulayacak bilgim yok” yanıtıyla hareket etmeli; spekülasyonu engellemeli.
Kriz protokolleri: Şiddet veya öz-ziyan riski sezildiğinde, yapay zekâ yanıtları kısıtlamalı ve kullanıcıyı 112 veya Alo 183’e yönlendirmeli.
Antropomorfizmi azaltma: Yapay zekâ, “Ben sadece bir yazılımım” ifadesini arayüzde net bir şekilde taşımalı; insanlaştırma algısını kırmalı.
Bilinçlendirme ve eğitim: Yapay zekâ kullanımına yönelik kamu kampanyaları düzenlenmeli; okullarda, iş yerlerinde ve STK’larla iş birliğiyle “yapay zekâ okuryazarlığı” eğitimleri başlatılmalı.
Yasal regülasyonlar: AB AI Act ile uyumlu, ancak afet iletişimi gibi yerel ihtiyaçlara odaklanan bir yapay zekâ regülasyonu geliştirilmeli. Yasaklayıcı değil, koruyucu bir çerçeve benimsenmeli.
Şeffaflık ve denetim: Geliştiriciler, delüzyon-güvenliği ve kriz protokolü metriklerini düzenli yayımlamalı; ciddi olaylar, anonimleştirilerek bağımsız bir kurul tarafından incelenmeli. Akademi, STK ve özel sektörle birlikte “Delüzyon Güvenliği Test Havuzu” kurulmalı.
Sonuç: Teknolojiyi “insanlaştırmak” yerine, insanı teknolojiyle bilinçli bir şekilde buluşturmak. Kanıta dayanan, sınırlarını bilen ve insanı koruyan sistemler tasarlamak. Bilinçli kullanıcı alışkanlıkları geliştirmek; simülasyon testleri ve regülasyonlarla riskleri en aza indirmek.