Algoritmaların gücü kime hizmet edecek?

Hükümetlerin yapay zekâ şirketlerini “tedarik zinciri” üzerinden kontrol etmeye başlaması, bu şirketlerin artık yalnızca yazılım firmaları değil, aynı zamanda stratejik savunma aktörleri olarak görüldüğünü ortaya koyuyor. Bu teknolojiye sahip olan devletler – başta ABD ve Çin – yapay zekâyı savunma dahil her alanda sınırsız biçimde kullanmak isterse, dünyada bunu denetleyebilecek bir mekanizma var mı?

Algoritmaların gücü kime hizmet edecek?

Rekabet Hukuku Danışmanı RECEP GÜNDÜZ

Google, Meta, Amazon, Apple gibi dijital devle­rin sahip oldukları veri­lerimiz ile eriştikleri büyük ve­rinin bahşettiği ekonomik gücü ve bunun etrafında şekillenen iş ve reklam modellerini artık duy­mayan kalmadı. Bu köşede biz de zaman zaman hem Türkiye’de hem de dünyada rekabet otorite­lerinin bu konuya nasıl müdaha­le ettiklerini ya da etmeye çalış­tıklarını yazdık.

Ama bu tartışmalar bugüne kadar hep ekonomik güç ve ta­hakküm üzerinden yürütülen tartışmalardı. Konunun en faz­la politikleştiği alan ABD’nin AB’ye yönelttiği “siz regülasyon­ları rekabet edemediğiniz Ame­rikalı teknoloji şirketlerine karşı bir ticari silah olarak kullanıyor­sunuz” eleştirisi oluyordu.

Google, Meta, Amazon, App­le gibi dijital devler artık yeni­nin eskiyen teknolojileri. Çünkü artık yapay zekâ var. Yapay zekâ modelleri hayatımıza yavaş ve sakin biçimde girdi. Bir arkadaş gibi, bir psikolog gibi, doktoru­muzmuş gibi, işlerimizi kolay­lıkla halledebilecek bir yardımcı gibi. Google’ın, Apple’ın, Ama­zon’un regülasyonlar nede­niyle erişim için onay üs­tüne onay almak zo­runda kaldıkları verilerin hep­sini biz kendi ellerimizle tane tane yazdık. Neler yüklemedik neler; hastane tahlil sonuçları­mızdan, patronun “çabuk özetle şunu” dediği şirketin en hassas raporlarına kadar her şeyi…

Anlamlı şekilde üç yıl önce ha­yatımıza giren bu şirketler hem sahip oldukları teknoloji hem de verilerle öyle şiştiler ki Google, Apple, Meta ve Amazon gibi dev­lere bile “çocukları pistten ala­lım” edası ile yaklaşıp ekonomik ve sosyal hayatımızın tam mer­kezine yerleşiyorlar.

Reklam mı? Asistan mı?

“Aman canım, bunca yıl di­ğerleri aldı verilerimizi biraz da bunlar kullansın” rahatlığımız; OpenAI ile Anthropic arasında son dönemde yaşananlar son­rasında yerini gerginliğe bıra­kacak gibi. Çünkü artık verileri­miz sadece reklama konu olma­yacak; ABD Savunma Bakanlığı da işin içinde. Üstelik bu alanda ne kapsamlı bir regülasyon var ne de uluslararası bir denetim mekanizması. Şirketlerin kendi etik sınırlarının insafına kalmış durumdayız. Amerika–İsrail– İran hattında gerilimlerin art­tığı bir dönemde konunun artık yalnızca ekonomik değil, strate­jik bir mesele olduğu da açık.

Gelin şimdi bu konuya biraz daha yakından bakalım.

Şubat 2026’daki Super Bowl, yapay zekâ şirketlerinin gövde gösterisine sahne oldu. Reklam­ların merkezinde ise doğrudan OpenAI ile Anthropic arasında­ki gerilim vardı. Anthropic, Cla­ude isimli yapay zekâ modeli için hazırladığı reklamlarda “Rek­lamlar yapay zekâya geliyor ama Claude’a değil” diyordu. Mesaj açıktı. OpenAI’ın ChatGPT üze­rinden reklam tabanlı bir iş mo­deline yönelmesi eleştiriliyor ve kullanıcı verilerinin metalaştı­rılacağı ima ediliyordu.

OpenAI cephesinden yanıt ge­cikmedi. Şirketin CEO’su Sam Altman bu reklamları “komik ama dürüstlükten uzak” olarak nitelendirdi. Altman’a göre Ope­nAI’ın hedefi yapay zekâyı mil­yarlarca insan için ücretsiz ve erişilebilir kılmak; bunun yolu da şeffaf bir reklam modelinden geçiyor.

İlk bakışta bu tartışma iki şir­ket arasındaki sıradan bir reka­bet polemiği gibi görülebilir. Oy­sa mesele çok daha derin. Çünkü bu tartışma yapay zekânın gele­cekte nasıl bir iş modeli üzerine kurulacağını sorgulatıyor.

Yapay zekâ Google gibi reklam tabanlı bir “arama ve içerik mo­toru” mu olacak? Yoksa kullanı­cı adına karar veren tarafsız bir “kişisel asistan” mı? Yoksa da­ha başka şeylere de mi muktedir olacak?

Aslında daha net söyleyelim: Google, Meta veya Amazon gi­bi yeninin eskiyen teknolojileri verilerimizi dolaylı yollarla top­lamaya çalışır, ekonomik dav­ranışlarımız hakkında tahmin­ler üretirdi. Yapay zekâ ise artık bunlara ihtiyaç duymuyor. Çün­kü verileri doğrudan biz veriyo­ruz.

Sorularımızla, sohbetleri­mizle, yüklediğimiz belgelerle, sağlık bilgilerimizle, iş raporla­rımızla… Yapay zekâ artık sade­ce tüketim tercihlerimizi değil; düşüncelerimizi, duygularımı­zı ve zihinsel dünyamızı da öğ­reniyor.

Bu nedenle “reklam” dediği­miz şeyin kapsamı da değişiyor. Artık mesele sadece bir ürünü pazarlamak değil. Fikirlerin, dü­şüncelerin ve hatta politik gö­rüşlerin hedefli biçimde yönlen­dirilmesi de mümkün hale geli­yor.

Pentagon sahneye çıkınca: Artık bir güvenlik meselesi

Fakat tartışmanın çok daha ciddi bir boyutu var. Krizin asıl patlak verdiği alan ise Anthropic ile ABD Savaş Bakanlığı arasın­da yaşanan anlaşmazlık.

Anthropic’in Pentagon ile yaklaşık 200 milyon dolarlık bir sözleşmesi bulunuyordu. Ancak şirket, Claude modelinin kitle­sel gözetleme sistemlerinde ve­ya tamamen otonom silahlar­da kullanılmasına karşı çıkarak sözleşmedeki güvenlik bariyer­lerini kaldırmayı reddetti.

ABD Savaş Bakanı Pete Heg­seth, Anthropic’i “ulusal güven­lik için tedarik zinciri riski” ola­rak ilan etti. Bu etiket yalnızca federal kurumların Anthropic ile çalışmasını engellemekle kal­mıyor; Pentagon ile iş yapan di­ğer şirketlerin de Anthropic ile ticari ilişki kurmasını zorlaştı­ran bir tür ikincil boykot riski ya­ratıyor.

‘Yurtsever yapay zekâ’ ile‘etik yapay zekâ’ ayrımı

Tam bu noktada sahneye Ope­nAI çıktı. Anthropic bu baskıla­ra direnirken OpenAI’ın Penta­gon ile yeni bir sözleşme imzala­maya hazırlanması dikkat çekti. Böylece yapay zekâ dünyasın­da yeni bir ayrım belirginleşti: “yurtsever yapay zekâ” ile “etik yapay zekâ.”

Aslında yaşananlar önümüz­deki on yılları şekillendirecek tartışmaların ipuçlarını veriyor. “Güvenli yapay zeka” gerçek­ten bir temel hak mı, yoksa sa­dece bir pazarlama stratejisi mi? Anthropic güvenliği bir ürün özelliği olarak konumlandırıyor. Ancak devlet baskısı karşısın­da bu etik bariyerlerin ne kadar sürdürülebilir olduğu belirsiz. Devlet çıkarı söz konusu oldu­ğunda bir şirketin “ulusal güven­lik riski” ilan edilerek oyun dışı bırakılabileceğini görüyoruz.

Bu süreçte yapay zekâ ekosis­teminin bölünüyor; kitlesel, rek­lam destekli, devletlerle işbirli­ğine açık ve “herkes için yapay zekâ” söylemine dayanan prag­matik yaklaşımlı şirketler türü­yor. Diğerlerinin de ne kadar di­renebileceği muamma.

Yapay zekâ devrimiyle dijital teknoloji ekosistemi artık bam­başka bir zemine geçmiş durum­da. Önceden tartışma ekonomik tahakkümle sınırlıydı. Bugün ise konu düşüncelerimizden savun­ma sanayine kadar uzanan çok daha geniş bir alanı kapsıyor.

Hükümetlerin yapay zekâ şir­ketlerini “tedarik zinciri” üze­rinden kontrol etmeye başlama­sı, bu şirketlerin artık yalnızca yazılım firmaları değil aynı za­manda stratejik savunma aktör­leri olarak görüldüğünü ortaya koyuyor.

Ve burada daha büyük bir so­ru var.

Bu teknolojiye sahip olan dev­letler – başta ABD ve Çin – yapay zekâyı savunma dahil her alanda sınırsız biçimde kullanmak is­terse, dünyada bunu denetleye­bilecek bir mekanizma var mı? Daha doğrusu böyle bir meka­nizma kurulması mümkün mü?

Bir zamanlar rekabet otorite­lerinin soruşturma dosyaların­da gördüğümüz teknoloji şirket­leri artık ülkelerin milli güvenlik belgelerinde tartışılan aktörlere dönüşüyor.

Kısacası mesele artık sadece veri ekonomisi değil. Mesele, ge­leceğin siyasi ve askeri dengele­rinin hangi algoritmalar tarafın­dan şekillendirileceği ve bu algoritmalara sahip olma­yanların ne yapabileceği.