Anthropic, "tedarik güvenliği açısından riskli" ilan edildi
Anthropic, "tedarik güvenliği açısından riskli" ilan edildi
ABD Savunma Bakanlığı (Pentagon), teknolojisini "tüm yasal askeri amaçlar" için ordunun kullanımına açmayı reddeden yapay zeka firması Anthropic'i "tedarik güvenliği açısından riskli" ilan etti.
Haber Giriş Tarihi: 06.03.2026 15:07
Haber Güncellenme Tarihi: 06.03.2026 15:09
Kaynak:
AA
ABD hükümeti ile yapay zeka aracı Claude'un geliştiricisi Anthropic arasında, şirketin yapay zeka teknolojisindeki bazı güvenlik kısıtlamalarını kaldırmaması üzerine bir süredir tırmanan gerilimde Pentagon'dan yeni adım geldi.
Pentagon'dan yapılan açıklamada, "Derhal yürürlükte olmak üzere, Anthropic yönetimine şirketin ve ürünlerinin tedarik güvenliği açısından riskli olarak sınıflandırıldığı resmen bildirilmiştir." ifadesi kullanıldı.
Açıklamada, bir tedarikçinin "kritik bir yeteneğin yasal kullanımını kısıtlayarak komuta zincirine dahil olmasına izin verilmeyeceği" belirtildi.
Anthropic'in Üst Yöneticisi (CEO) Dario Amodei, yaptığı açıklamada, bu adımın "hukuken geçerli olduğuna inanmadıklarını" ve mahkemeye başvuracaklarını bildirdi.
Firmanın "tedarik güvenliği açısından riskli" ilan edilmesiyle, hükümetle yapılan askeri sözleşmelerde Claude'un kullanımının önüne geçilebileceği belirtiliyor.
HÜKÜMET İLE ANTHROPİC ARASINDAKİ GERİLİM
ABD ordusunun bugüne kadar istihbarat çalışmaları, silah geliştirme faaliyetleri ve askeri operasyonların yürütüldüğü sistemlerde Anthropic'in geliştirdiği yapay zeka sohbet robotu Claude modelini kullandığı belirtiliyor.
Şirketin, Claude modelini "tüm yasal askeri amaçlar" için kullanıma açmayı reddetmesinin ve askeri kullanıma dair güvenlik endişeleri, Pentagon ile anlaşmazlıklara yol açmıştı.
ABD Savunma Bakanı Pete Hegseth, 24 Şubat'ta Anthropic'e ültimatom vermiş, Pentagon'un şirketin yapay zekasını istediği şekilde kullanmasına 27 Şubat'a kadar izin vermedikleri takdirde hükümetle sözleşmelerini kaybetme riskinin bulunduğunu söylemişti.
ABD Başkanı Donald Trump da 27 Şubat'ta Pentagon ile Anthropic arasında yaşanan tartışmaların ardından tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını vermişti.
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
Anthropic, "tedarik güvenliği açısından riskli" ilan edildi
ABD Savunma Bakanlığı (Pentagon), teknolojisini "tüm yasal askeri amaçlar" için ordunun kullanımına açmayı reddeden yapay zeka firması Anthropic'i "tedarik güvenliği açısından riskli" ilan etti.
ABD hükümeti ile yapay zeka aracı Claude'un geliştiricisi Anthropic arasında, şirketin yapay zeka teknolojisindeki bazı güvenlik kısıtlamalarını kaldırmaması üzerine bir süredir tırmanan gerilimde Pentagon'dan yeni adım geldi.
Pentagon'dan yapılan açıklamada, "Derhal yürürlükte olmak üzere, Anthropic yönetimine şirketin ve ürünlerinin tedarik güvenliği açısından riskli olarak sınıflandırıldığı resmen bildirilmiştir." ifadesi kullanıldı.
Açıklamada, bir tedarikçinin "kritik bir yeteneğin yasal kullanımını kısıtlayarak komuta zincirine dahil olmasına izin verilmeyeceği" belirtildi.
Anthropic'in Üst Yöneticisi (CEO) Dario Amodei, yaptığı açıklamada, bu adımın "hukuken geçerli olduğuna inanmadıklarını" ve mahkemeye başvuracaklarını bildirdi.
Firmanın "tedarik güvenliği açısından riskli" ilan edilmesiyle, hükümetle yapılan askeri sözleşmelerde Claude'un kullanımının önüne geçilebileceği belirtiliyor.
HÜKÜMET İLE ANTHROPİC ARASINDAKİ GERİLİM
ABD ordusunun bugüne kadar istihbarat çalışmaları, silah geliştirme faaliyetleri ve askeri operasyonların yürütüldüğü sistemlerde Anthropic'in geliştirdiği yapay zeka sohbet robotu Claude modelini kullandığı belirtiliyor.
Şirketin, Claude modelini "tüm yasal askeri amaçlar" için kullanıma açmayı reddetmesinin ve askeri kullanıma dair güvenlik endişeleri, Pentagon ile anlaşmazlıklara yol açmıştı.
ABD Savunma Bakanı Pete Hegseth, 24 Şubat'ta Anthropic'e ültimatom vermiş, Pentagon'un şirketin yapay zekasını istediği şekilde kullanmasına 27 Şubat'a kadar izin vermedikleri takdirde hükümetle sözleşmelerini kaybetme riskinin bulunduğunu söylemişti.
ABD Başkanı Donald Trump da 27 Şubat'ta Pentagon ile Anthropic arasında yaşanan tartışmaların ardından tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını vermişti.
Kaynak: AA