Yapay zekâya karşı ‘Neo-Luddit’ isyanı
19. yüzyıl Ludditleri Nottingham dokuma işçileri, iş kayıplarına tepki olarak tezgâh ve makineleri çekiçle parçalamış, geçimlerini tehdit eden geleceğe öfkelerini haykırmışlardı. Makine kırıcıların torunları; bugün de çekiçleri klavyelere, tezgâhları da kodlara çevirme eğiliminde. Yapay zekâ çağının vadettiği geleceği zora sokacak sabotaj dalgasına karşı önlem alınmalı.
Yapay zekâ; sağlık, ulaşım, finans ve tarım gibi alanlarda devrim yaratırken, Neo-Luddit hareketlerden kaynaklanan teknoloji sabotajları da hızla yükselme eğiliminde. Yazımda yapay zekâya yönelik sabotaj tehditlerine dikkatleri çekmek istiyorum. Bu tehditlerin doğasını, demografik ve küresel dinamiklerini, Luddit mirasıyla bağını, acil risklerini ve yakın gelecekte 2025- 2030 için alınması gereken stratejik önlemleri kapsamlı bir şekilde ele almaya çalıştım.
Çekiçten klavyeye tezgahtan koda: AI-Luddizm
19. yüzyıl Ludditleri (1811-1816) Nottingham dokuma işçileri, iş kayıplarına tepki olarak tezgâhları makineleri çekiçlerle parçalamış, geçimlerini tehdit eden bir geleceğe öfkelerini haykırmışlar.
Eylemlere ve birtakım hareketlere baktığımızda, o zamanki öfke bugün modern bir kılığa bürünmüş şekilde karşımıza çıkıyor. Bugünün Neo-Ludditleri; otomasyon, gözetim ve etik kaygılar (örneğin, veri gizliliği, algoritmik önyargı) nedeniyle hareket başlatmış durumdalar. Örneğin; veri merkezlerinin soğutma kulelerini, otonom robot hatları ve yapay zekâ modellerinin kod satırlarını hedefleyerek eylemler yapıyorlar.
Peki bu yeni dalga, Ludditlerin doğrudan mirası mı, yoksa iş kayıpları, kontrol korkusu ve etik kaygıların modern bir yansıması mı?
Teknolojinin toplumu zora sokacağı korkusunun dijital çağdaki yansıması; romantik bir hikâye görüntüsünden ziyade, istatistiklerle ve gerçek vakalarla bir tehdit haline gelmiş durumda. O zamanki makine kırıcıların torunları, çekiçleri klavyelere, tezgâhları da kodlara çevirme eğilimine girmişler.
San Francisco’da Safe Street Rebel’in otonom taksilere koni yerleştirme kampanyası, Hollywood’un 148 günlük yapay zekâ karşıtı grevleri ve Molly Crabapple’ın 4 bin imzalı açık mektubu, Neo-Luddit direnişinin zaten başladığını gösteriyor.
Henüz merkezi bir örgütlenme olmasa da sosyal medyanın gücüyle bu dağınık hareketler ileride daha organize bir isyana dönüşebilir. Bir üretim hattının beş dakikalık durması, küresel tedarik zincirinde milyonlarca dolarlık kayba yol açabilir.
Yapay zekânın sağlık, ulaşım, finans ve tarım gibi alanlardaki yaygınlaşmasıyla tehditlerin yıkıcı etkisi de artmış durumda.
-22 bin 52 siber olay, 12 bin 195 doğrulanmış ihlal (2025 Verizon Veri İhlali Araştırmaları Raporu DBIR 2025).
-İhlallerin yüzde 60’ı insan hatasından kaynaklanmakta (Verizon DBIR 2025).
-Tek bir veri ihlalinin küresel ortalama maliyeti 4,88 milyon ABD doları (IBM, 2024).
-Kimlik sahteciliği girişimlerinde (deepfake) iki yılda 31 kat artış (Onfido, 2024).
-Hong Kong’daki deepfake dolandırıcılığı 25,6 milyon ABD doları. E-postadaki sahte imzalar devri kapandı. Dolandırıcılar, video konferanslarda yöneticileri taklit edebiliyor. Deepfake’ler, korku ve güvensizlik yaratmak için güçlü bir araç. (Onfido Raporu).
-Hugging Face’de 100+ zararlı yapay zekâ modeli tespit edildi. Açık kaynak model havuzlarına sızan bir ‘arka kapı’, kumaş arasına gizlenmiş bıçak gibi görünmez, devreye giren ve içeriden yıkıcı eylemler. (JFrog & ReversingLabs, 2025).
-OT ve SCADA sistemlerine saldırılar yüzde 18 arttı. 2025 1. Çeyrekte 708 endüstriyel fidye olayı gerçekleşti (Dragos, 2025).
-Deepfake dolandırıcılıkları 2027 kayıp tahmini ise 40 milyar ABD doları (Deloitte).
Neo-Luddit hareketleri
Dağınık gruplar halinde ve farklı demografik gruplardan beslenerek kendini gösteren bazı Neo-Luddit hareketleri ise şöyle:
-Yazar ve sanatçıların yapay zekâ senaryo üretimini yasaklatan sözleşmelerle sonuçlanan Hollywood’un 148 günlük SAG-AFTRA ve WGA grevleri (The Atlantic, 2024).
-Otonom taksilere koni yerleştirme kampanyası (bir tür fiziksel sabotaj veya dikkat çekme yöntemi) (Safe Street Rebel).
-4 bin imzacıyla yapay zekânın sanat ve yazım alanındaki etkilerine direniş (Molly Crabapple’ın Açık Mektubu) (The Atlantic, 2024).
-The Luddite Club: 2021'de kurulmuş, büyümekte olan ve teknolojiye karşı enerjiye karşı, Z Kuşağı’nı hedef alarak gençlerin teknolojiyle olan bağını kopartmayı ve yüz yüze etkileşimlere odaklanmalarını teşvik etmeye çalışan güçler arasında bir hareket başlatan oluşum (VML, 2023).
-OpenAI gibi şirketlerde etik kaygılarla direnen teknoloji geliştiricileri (Cybernews, 2023).
-Sosyal medyanın etkisi, bu hareketlerin organize bir isyana dönüşme potansiyelini artırmakta (The Guardian, 2024).
-Avrupa’da gizlilik kaygıları, gelişmekte olan ülkelerde iş kayıpları, Asya’da ise veri güvenliğinin öne çıkmasıyla oluşan hareketler (The Atlantic, 2024).
Neden şimdi daha tehlikeli?
Yapay zekâ her yerde; sağlık ve ulaşımdan finansa kadar hayatî kararların merkezinde. Araçlar erişilebilir durumda. Deepfake’ler, ücretsiz uygulamalarla üretilebiliyor. Bu nedenle yapay zekâ ekosistemindeki her bileşen hedef olabilir. İhlallerin yüzde 60’ı insan hatasından kaynaklanıyor (Verizon DBIR 2025). 4,88 milyon dolarlık veri ihlali maliyetlerinden (IBM, 2024) 40 milyar dolarlık deepfake kayıplarına varıncaya kadar ekonomik ve toplumsal riskler oluşturuyor (Deloitte, 2027).
Sabotaj tehditlerine karşı önlem ve öneriler
Güvenlik duvarları:
-Veri merkezleri, biyometrik erişim ve yedek enerji kaynaklarıyla korunmalı (Trend Micro Raporu).
-Yapay zekâ destekli tehdit tespiti ve sızma testleri (OWASP Kılavuzu).
-Şifreli iletişim ve otomatik güncellemelerle IoT koruması.
Teknik savunmalar:
-Yapay zekâ modellerini manipülasyona karşı güçlendirici eğitimler.
-Lightweight protokollerle ölçeklenebilir model doğrulaması, blokzincir tabanlı izleme.
-Veri gizliliğini koruyucu model eğitimi.
-Deepfake’lere karşı biometrik doğrulama, MFA sistemleri.
-Dezenformasyon Tespitine yönelik sosyal medya kampanyaları.
-Yapay zekâ güvenlik odaklı hackathonlar ve hata ödülü (bug bounty) programları.
Toplumsal ve ekonomik dirence karşı önlemler:
-Türkiye’nin 2030 Sanayi ve Teknoloji Stratejisi ile uyumlu iş kayıplarına karşı beceri programları.
-Yapay zekânın faydalarını (hassas tarım, dolandırıcılık önleme) vurgulayan kampanyalar.
Etik yapay zekâ geliştirme:
-Önyargıları azaltıcı, toplumsal güveni artırıcı şeffaf algoritmalar, (NIST Çerçevesi).
-Etik karar alma süreçlerine yönelik insan merkezli tasarımlar.
Politik ve yasal çerçeve:
-EU AI Act ile uyum 2027’ye kadar sağlanmalı (OWASP Kılavuzu).
-Sabotaja karşı yasal caydırıcılık.
-Yapay zekâ güvenlik araştırmalarının artırılması.
Politika yol haritası:
-Yeniden becerilendirme finansmanı.
-Kamu kampanyaları (deepfake farkındalığı).
-Bürokratik koordinasyon.
Kamu bilinci ve katılım
-Deepfake farkındalığına yönelik eğitim kampanyaları düzenlenmeli (Türkiye’nin ‘Gümüş Dijital Dalgası’ gibi yaşlı nüfusu hedeflemeli).
-İşçiler, etik uzmanları ve teknoloji liderlerini birleştiren diyalog platformları oluşturulmalı (The Atlantic, 2024).
-Sabotaj senaryolarını simüle edici senaryolar planlanmalı.
-Dijital altyapılar güçlendirici direnç sistemleri oluşturulmalı.
-Yapay zekânın faydalarını vurgulayan toplumsal güveni artırıcı anlatılar düzenlenmeli.
İsyanın ayak sesleri diyebiliriz
Yapay zekâ, insanlığı geleceğe taşıyacak bir lokomotif. Ancak ‘Neo-Luddit’vari hareketler gözardı edilmemeli. Bu türden hareketler için bir nevi, isyanın ayak sesleri diyebiliriz. Sosyal medyanın gücüyle bu hareketlerin daha organize bir tehdide dönüşmemesi ve ülkemize yayılmaması için şimdiden önlemler alınmalı.
Yapay zekânın dönüştürücü potansiyelini koruyucu çalışmalar ve önlemler hayata geçirilmeli. Yapay zekânın geleceğini şekillendirmek için tüm paydaşlar bir araya gelip iş birliği yapmalı. Akademisyenler, sosyoteknik dinamikleri incelemeli. Ulusal politikalarımız güçlendirilmeli. Yapay zekâ ve siber güvenlik uzmanlarınca teknik savunmalar geliştirmeli. Etik, güvenlik ve toplumsal riskler iyi analiz edilmeli.
Yapay zekâ çağında teknolojinin vaat ettiği geleceği zora sokacak nitelikte yükselme eğilimindeki bu sabotaj dalgasıyla gelmekte olan tehditleri görüp, doğru adımlarla gerekli önlemleri şimdiden almaya başlamalıyız.