Teknolojiyi “insanlaştırmak” mı, insanı teknolojiyle buluşturmak mı?

Yapay zekâ, akıcı dili ve güçlü analiz yete­nekleriyle insan hayatını dönüştürüyor; ancak bu dönüşüm, kontrolsüz bırakıldığın­da yüksek riskleri de beraberinde getirmekte. ABD’de yaşanan son vaka, yapay zekâ ile ku­rulan diyalogların, “sanrıları pekiştirerek” ci­nayet ve intihara yol açtığı iddiası, bu riskle­ri çarpıcı bir şekilde ortaya koymuş durumda.

Old Greenwich vakası

Wall Street Journal’in haberinde; Stein Erik Soelberg (56), annesini öldürdükten son­ra intihar ediyor. “Bobby” adını verdiği bir sohbet botuyla aylarca süren diyalogları, You­Tube’da ortaya çıkıyor. Botun, “gizli sembol­ler” veya “gözetim” gibi paranoyak iddiaları­nı dolaylı olarak doğruladığı (ör; “Erik, sen de­li değilsin”) belirtiliyor. Greenwich Time ise Soelberg’in ruhsal durumunun kötüleştiğini ve OpenAI’ın polis ile iş birliği yaptığını belir­tiyor. Sophie Reiley davasında bir yapay zekâ botunun intihara katkı sağladığı iddiası da risklerin genişliğini gösteriyor. YZ’nın insan psikolojisi üzerindeki etkilerinin karmaşık­lığı, psikolojideki ELIZA etkisi, akıcı bir bo­tun “bilinçli bir akıl” gibi algılanmasına neden olabiliyor ve özellikle kırılgan zihinlerde “san­rıları” güçlendirebiliyor. Bir kısım basın, olayı “ilk yapay zekâ cinayeti” olarak nitelendirir­ken; bir kısım da yapay zekâ etiği ve güvenliği üzerine tartışmalar başlatmış durumda.

Bu bir uyarıysa biz ne yapmalıyız?

Yani bu vb vakalar bize Yapay Zekâ ile İnsan İlişkisini Güvenli bir zemine oturtulması, sü­rekli kontrol ve denetim altında tutulmasına yönelik sinyaller veriyor ve uyarıyor. Bende tavsiye ve önerilerimi aktarıyorum.

Kullanıcılara tavsiyeler: Unutmayın o sadece bir yazılım!

Yapay zekâyı araç olarak görün: Bir te­rapist veya otorite değil, bilgi toplayan bir yardımcı olarak değerlendirin. Teşhis veya niyet okuma ya da falcılık beklemeyin.

Kanıt arayın: Olağanüstü iddialar için so­mut kaynak ve de kanıt isteyin; kanıt yoksa id­diaya güvenmeyin.

Duygusal molalar verin: Yoğun diyalog­larda 10-15 dakikalık aralar verin; yürüyüş, nefes egzersizi veya su içerek zihninizi din­lendirin.

Gerçeklik denetimi yapın: Yapay zekâ iddialarını not edin ve bir yakınınıza veya uz­mana danışarak teyit edin.

Krizde profesyonel destek alın: Alo 112 veya Alo 183 Sosyal Destek Hattı’nı arayın.

Geliştiriciler, kamuoyu ve karar vericilere tavsiyeler:

Simülasyon testleri: Yapay zekânın in­san psikolojisi, sosyolojik dinamikler, şid­det eğilimleri, savaşlar, doğa ve çevresel etki­ler üzerindeki etkilerini değerlendirmek için milyon çeşit senaryoya dayalı simülasyon testleri zorunlu olmalı. Ör;, “delüzyon-güven­liği” testleri, sanrılı içeriklerin pekiştirilme­sini önleyebilir.

Kanıt temelli tasarım: Yapay zekâ, doğ­rulanmamış iddialarda “Bunu doğrulayacak bilgim yok” yanıtıyla hareket etmeli; spekü­lasyonu engellemeli.

Kriz protokolleri: Şiddet veya öz-ziyan riski sezildiğinde, yapay zekâ yanıtları kısıt­lamalı ve kullanıcıyı 112 veya Alo 183’e yön­lendirmeli.

Antropomorfizmi azaltma: Yapay zekâ, “Ben sadece bir yazılımım” ifadesini arayüz­de net bir şekilde taşımalı; insanlaştırma algı­sını kırmalı.

Bilinçlendirme ve eğitim: Yapay zekâ kullanımına yönelik kamu kampanyala­rı düzenlenmeli; okullarda, iş yerlerinde ve STK’larla iş birliğiyle “yapay zekâ okuryazar­lığı” eğitimleri başlatılmalı.

Yasal regülasyonlar: AB AI Act ile uyum­lu, ancak afet iletişimi gibi yerel ihtiyaçlara odaklanan bir yapay zekâ regülasyonu gelişti­rilmeli. Yasaklayıcı değil, koruyucu bir çerçe­ve benimsenmeli.

Şeffaflık ve denetim: Geliştiriciler, de­lüzyon-güvenliği ve kriz protokolü metrikle­rini düzenli yayımlamalı; ciddi olaylar, ano­nimleştirilerek bağımsız bir kurul tarafından incelenmeli. Akademi, STK ve özel sektörle birlikte “Delüzyon Güvenliği Test Havuzu” kurulmalı.

Sonuç: Teknolojiyi “insanlaştırmak” yeri­ne, insanı teknolojiyle bilinçli bir şekilde bu­luşturmak. Kanıta dayanan, sınırlarını bilen ve insanı koruyan sistemler tasarlamak. Bi­linçli kullanıcı alışkanlıkları geliştirmek; si­mülasyon testleri ve regülasyonlarla riskleri en aza indirmek.

Yazara Ait Diğer Yazılar