#Anthropic

İLKHABER-Gazetesi - Anthropic haberleri, son dakika gelişmeleri, detaylı bilgiler ve tüm gelişmeler, Anthropic haber sayfasında canlı gelişmelere ulaşabilirsiniz.

Yapay zeka destekli savaşta yeni dönem: Karar alma süreçleri 'düşünce hızını' geride bıraktı Haber

Yapay zeka destekli savaşta yeni dönem: Karar alma süreçleri 'düşünce hızını' geride bıraktı

Dünya askeri tarihinde bir dönüm noktası olarak nitelendirilen İran operasyonları, yapay zekanın savaş alanındaki mutlak hakimiyetini tescilledi. The Guardian tarafından aktarılan bilgilere göre, ABD ordusunun operasyonel süreçlerine entegre edilen yapay zeka modelleri, bombalama faaliyetlerinin insan zihninin işlem kapasitesinden çok daha hızlı gerçekleştiği bir dönemi başlattı. Ancak bu teknolojik üstünlük, etik ve hukuki denetim mekanizmalarının işlevsizleşebileceği yönündeki endişeleri de beraberinde getiriyor. ASKERİ OPERASYONLARDA 'ÖLDÜRME ZİNCİRİ' NASIL KISALDI? San Francisco merkezli Anthropic şirketinin geliştirdiği 'Claude' isimli yapay zeka modelinin, ABD ordusu tarafından hava saldırılarının planlanmasında aktif olarak kullanıldığı bildirildi. Teknolojinin, askeri literatürde "öldürme zinciri" (kill chain) olarak tanımlanan hedef belirleme, yasal onay mekanizması ve saldırı emri sürecini dramatik şekilde kısalttığı ifade ediliyor. Özellikle İran'a yönelik gerçekleştirilen ve yaklaşık 900 hedefin vurulduğu 12 saatlik ilk dalga operasyonunda, İsrail füzelerinin İran dini lideri Ayetullah Ali Hamaney'i etkisiz hale getirmesi, bu hızın operasyonel bir sonucu olarak değerlendiriliyor. KARAR SIKIŞTIRMASI: İNSANLAR SADECE ONAY MAKAMI MI OLUYOR? Akademik çevreler, yapay zekanın karmaşık saldırı planlarını hazırlama süresini minimize etmesini "karar sıkıştırması" (decision compression) olarak tanımlıyor. Newcastle Üniversitesi'nden Craig Jones, sistemin işleyişini şu sözlerle açıklıyor: "Yapay zeka makinesi, hedef alınacak yerler konusunda önerilerde bulunuyor ve bu, bazı açılardan düşünme hızından çok daha hızlı. Tarihi savaşlarda günler veya haftalar sürebilecek suikast ve balistik savunma imha süreçleri, artık eş zamanlı olarak dakikalar içinde tamamlanabiliyor." STRATEJİK ORTAKLIK: ANTHROPIC, PALANTIR VE PENTAGON ÜÇGENİ 2024 yılı itibarıyla Anthropic'in modeli, ABD Savaş Bakanlığı ve ulusal güvenlik birimlerinin kullanımına sunuldu. Savaş teknolojileri devi Palantir ile Pentagon'un ortaklaşa geliştirdiği sistemin bir parçası olan Claude, istihbarat analizlerini derinleştirerek karar vericilerin önündeki seçenekleri optimize ediyor. Sistem, insansız hava aracı görüntülerinden telekomünikasyon verilerine kadar devasa bir veri yığınını saniyeler içinde analiz ederek, hedef önceliklendirmesi yapıyor ve geçmiş performansa dayalı silah önerileri sunuyor. Londra Queen Mary Üniversitesi'nden Profesör David Leslie, yapay zeka bağımlılığının tehlikeli bir "bilişsel yük devri" yaratabileceğine dikkat çekiyor. Leslie'ye göre, analiz sürecini makineye devreden karar vericiler, kararın sonuçlarından duygusal ve hukuki olarak kopma riskiyle karşı karşıya kalıyor. "Avantaj, eskiden haftalar süren planlamanın saniyelere inmesinde yatıyor; ancak insan karar vericiler, sunulan önerileri değerlendirmek için artık çok daha dar bir zaman aralığına sahip" diyen Leslie, bu durumun askeri etik üzerindeki baskısını vurguluyor. Teknolojik hızın sahadaki acı yansıması, İran'ın güneyindeki bir okulda yaşanan trajedide kendini gösterdi. Bir askeri kışlanın yakınında olduğu tahmin edilen okula düzenlenen füze saldırısında, çoğu çocuk 165 sivil hayatını kaybetti. Birleşmiş Milletler (BM) bu durumu "insani hukukun ağır bir ihlali" olarak tanımlarken, ABD ordusu olayla ilgili inceleme başlatıldığını duyurdu. İran ise 2025'ten bu yana füze hedefleme sistemlerinde kendi yapay zekasını kullandığını iddia etse de, yaptırımlar nedeniyle bu teknolojinin Batılı süper güçlerin gerisinde kaldığı gözlemleniyor. YAPAY ZEKA PAZARINDA ASKERİ REKABET KIZIŞIYOR Süreç içerisinde Anthropic'in otonom silah sistemlerine yönelik çekinceleri nedeniyle Pentagon ile yollarının ayrılacağı konuşulurken, rakip dev OpenAI'nin orduyla yeni bir anlaşma imzalaması dikkat çekti. Royal United Services Institute'ten Prerana Joshi, yapay zekanın artık sadece saldırı değil; lojistik, eğitim ve bakım gibi savunma altyapısının her katmanına yayıldığını belirterek, teknolojinin temel amacının veri sentezleme hızını artırmak olduğunu ifade etti.

Büyük teknoloji firmaları gelişmiş yapay zekayı denetlemek için model öneriyor Haber

Büyük teknoloji firmaları gelişmiş yapay zekayı denetlemek için model öneriyor

SERHAT AKARSU  (İLKHABER)- YZ teknolojisinin en etkili oyuncularından dördü olan Microsoft, Google, OpenAI ve Anthropic Çarşamba günü, en gelişmiş YZ modellerini yönetmek için en iyi uygulamaları belirlemeye adanmış bir endüstri kuruluşunun kurulduğunu duyurdu. Frontier Model Forum olarak adlandırılan girişim, öncü YZ modellerinin güvenli ve sorumlu bir şekilde geliştirilmesini sağlamayı amaçlıyor. Microsoft Başkanı Brad Smith, "YZ teknolojisi yaratan şirketler, bu teknolojinin güvenli ve emniyetli olmasını ve insan kontrolü altında kalmasını sağlama sorumluluğuna sahiptir. Bu girişim, teknoloji sektörünü YZ'yi sorumlu bir şekilde ilerletme ve tüm insanlığa fayda sağlayacak şekilde zorlukların üstesinden gelme konusunda bir araya getirmek için hayati bir adımdır." dedi. Geçtiğimiz birkaç ay içinde birçok şirket, mevcut materyal havuzunu kullanarak resim, metin veya video gibi çeşitli biçimlerde orijinal içerik üretebilen güçlü YZ araçlarını tanıttı. Bu gelişmeler, potansiyel gizlilik ihlalleri, telif hakkı ihlalleri ve YZ'nin çeşitli iş rollerinde insanların yerini alma olasılığı ile ilgili endişelere yol açtı. Dört şirket yaptıkları ortak açıklamada, Frontier Model Forum'un tüm YZ ekosisteminin iyileştirilmesi için üye şirketlerin teknik ve operasyonel uzmanlıklarından yararlanacağını iddia etti. Bunun, teknik değerlendirmelerin ve kıyaslamaların geliştirilmesinin yanı sıra sektörün en iyi uygulamalarını ve standartlarını teşvik etmek için halka açık bir çözüm kütüphanesi oluşturmak gibi yollarla başarılacağını söylüyorlar. Forum aşağıdaki hedefleri belirlemiştir: Sınır modellerin sorumlu bir şekilde geliştirilmesini teşvik etmek ve potansiyel riskleri azaltmak için YZ güvenlik araştırmalarını teşvik etmek. Özellikle öncü modeller için uyarlanmış en iyi güvenlik uygulamalarını belirlemek ve teşvik etmek. Sorumlu YZ gelişimini desteklemek için politika yapıcılar, akademisyenler, sivil toplum ve diğer paydaşlarla bilgi paylaşımını kolaylaştırmak. Toplumun en önemli zorluklarının üstesinden gelmek için yapay zekayı kullanan girişimlere destek sağlamak. Grup üyeliği, mevcut en gelişmiş modellerin yeteneklerini aşan ve çok çeşitli görevleri yerine getirebilen "büyük ölçekli makine öğrenimi modelleri" olarak tanımlanan sınır modellerin geliştirilmesinde yer alan kuruluşlara açıktır. Forum, strateji ve önceliklerinin şekillendirilmesinde rehberlik ve yönlendirme sağlamak üzere bir danışma kurulu oluşturacak.

logo
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.