Yapay zeka destekli savaşta yeni dönem: Karar alma süreçleri 'düşünce hızını' geride bıraktı

İran'a yönelik gerçekleştirilen operasyonlar, askeri stratejide devrim niteliğinde bir değişimi gözler önüne serdi. ABD ordusunun kullandığı yapay zeka sistemleri, hedef tespiti ve imha sürecini saniyelere indirirken, uzmanlar insan faktörünün devre dışı kalabileceği bir "karar sıkıştırması" çağına girildiği konusunda uyarıyor.

Haber Giriş Tarihi: 03.03.2026 09:59
Haber Güncellenme Tarihi: 03.03.2026 09:59

Dünya askeri tarihinde bir dönüm noktası olarak nitelendirilen İran operasyonları, yapay zekanın savaş alanındaki mutlak hakimiyetini tescilledi. The Guardian tarafından aktarılan bilgilere göre, ABD ordusunun operasyonel süreçlerine entegre edilen yapay zeka modelleri, bombalama faaliyetlerinin insan zihninin işlem kapasitesinden çok daha hızlı gerçekleştiği bir dönemi başlattı. Ancak bu teknolojik üstünlük, etik ve hukuki denetim mekanizmalarının işlevsizleşebileceği yönündeki endişeleri de beraberinde getiriyor.

ASKERİ OPERASYONLARDA 'ÖLDÜRME ZİNCİRİ' NASIL KISALDI?

San Francisco merkezli Anthropic şirketinin geliştirdiği 'Claude' isimli yapay zeka modelinin, ABD ordusu tarafından hava saldırılarının planlanmasında aktif olarak kullanıldığı bildirildi. Teknolojinin, askeri literatürde "öldürme zinciri" (kill chain) olarak tanımlanan hedef belirleme, yasal onay mekanizması ve saldırı emri sürecini dramatik şekilde kısalttığı ifade ediliyor. Özellikle İran'a yönelik gerçekleştirilen ve yaklaşık 900 hedefin vurulduğu 12 saatlik ilk dalga operasyonunda, İsrail füzelerinin İran dini lideri Ayetullah Ali Hamaney'i etkisiz hale getirmesi, bu hızın operasyonel bir sonucu olarak değerlendiriliyor.

KARAR SIKIŞTIRMASI: İNSANLAR SADECE ONAY MAKAMI MI OLUYOR?

Akademik çevreler, yapay zekanın karmaşık saldırı planlarını hazırlama süresini minimize etmesini "karar sıkıştırması" (decision compression) olarak tanımlıyor. Newcastle Üniversitesi'nden Craig Jones, sistemin işleyişini şu sözlerle açıklıyor: "Yapay zeka makinesi, hedef alınacak yerler konusunda önerilerde bulunuyor ve bu, bazı açılardan düşünme hızından çok daha hızlı. Tarihi savaşlarda günler veya haftalar sürebilecek suikast ve balistik savunma imha süreçleri, artık eş zamanlı olarak dakikalar içinde tamamlanabiliyor."

STRATEJİK ORTAKLIK: ANTHROPIC, PALANTIR VE PENTAGON ÜÇGENİ

2024 yılı itibarıyla Anthropic'in modeli, ABD Savaş Bakanlığı ve ulusal güvenlik birimlerinin kullanımına sunuldu. Savaş teknolojileri devi Palantir ile Pentagon'un ortaklaşa geliştirdiği sistemin bir parçası olan Claude, istihbarat analizlerini derinleştirerek karar vericilerin önündeki seçenekleri optimize ediyor. Sistem, insansız hava aracı görüntülerinden telekomünikasyon verilerine kadar devasa bir veri yığınını saniyeler içinde analiz ederek, hedef önceliklendirmesi yapıyor ve geçmiş performansa dayalı silah önerileri sunuyor.

Londra Queen Mary Üniversitesi'nden Profesör David Leslie, yapay zeka bağımlılığının tehlikeli bir "bilişsel yük devri" yaratabileceğine dikkat çekiyor. Leslie'ye göre, analiz sürecini makineye devreden karar vericiler, kararın sonuçlarından duygusal ve hukuki olarak kopma riskiyle karşı karşıya kalıyor. "Avantaj, eskiden haftalar süren planlamanın saniyelere inmesinde yatıyor; ancak insan karar vericiler, sunulan önerileri değerlendirmek için artık çok daha dar bir zaman aralığına sahip" diyen Leslie, bu durumun askeri etik üzerindeki baskısını vurguluyor.

Teknolojik hızın sahadaki acı yansıması, İran'ın güneyindeki bir okulda yaşanan trajedide kendini gösterdi. Bir askeri kışlanın yakınında olduğu tahmin edilen okula düzenlenen füze saldırısında, çoğu çocuk 165 sivil hayatını kaybetti. Birleşmiş Milletler (BM) bu durumu "insani hukukun ağır bir ihlali" olarak tanımlarken, ABD ordusu olayla ilgili inceleme başlatıldığını duyurdu. İran ise 2025'ten bu yana füze hedefleme sistemlerinde kendi yapay zekasını kullandığını iddia etse de, yaptırımlar nedeniyle bu teknolojinin Batılı süper güçlerin gerisinde kaldığı gözlemleniyor.

YAPAY ZEKA PAZARINDA ASKERİ REKABET KIZIŞIYOR

Süreç içerisinde Anthropic'in otonom silah sistemlerine yönelik çekinceleri nedeniyle Pentagon ile yollarının ayrılacağı konuşulurken, rakip dev OpenAI'nin orduyla yeni bir anlaşma imzalaması dikkat çekti. Royal United Services Institute'ten Prerana Joshi, yapay zekanın artık sadece saldırı değil; lojistik, eğitim ve bakım gibi savunma altyapısının her katmanına yayıldığını belirterek, teknolojinin temel amacının veri sentezleme hızını artırmak olduğunu ifade etti.