TR
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文
SON DAKİKA
Hava Durumu
TR
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文

Avrupa Birliği'nde yapay zeka yasası ile yüz tanıma sistemli kimlik doğrulama yasaklanacak

Avrupa Birliği'nin yeni Yapay Zeka Yasası, 2025 yılında yürürlüğe girecek ve yüz tanıma sistemleri aracılığıyla kimlik doğrulama işlemlerini yasaklayacak. Söz konusu yasa, deepfake gibi teknolojilerin kötü niyetli kullanımına karşı önlemler içeriyor.

Haber Giriş Tarihi: 14.02.2024 11:21
Haber Güncellenme Tarihi: 14.02.2024 11:21
Kaynak: AYDIN GÖKÇEOĞLU
Avrupa Birliği'nde yapay zeka yasası ile yüz tanıma sistemli kimlik doğrulama yasaklanacak

Avrupa Birliği Komisyonu, Avrupa Parlamentosu ve üye ülkeler arasında uzlaşma sağlanarak oluşturulan Yapay Zeka Yasası, 2025 yılında yürürlüğe girecek. Bu yasa, özellikle deepfake teknolojisinin yol açtığı dolandırıcılıkların önüne geçilmesi ve kişisel verilerin korunması amacı taşıyor. Yasanın en dikkat çekici hükmü ise yüz tanıma sistemleriyle kimlik doğrulama işlemlerini yasaklaması oldu.

AVRUPA BİRLİĞİ, DÜNYADA BİR İLK OLACAK YAPAY ZEKA YASASINDA ANLAŞMAYA VARDI

Avrupa Birliği (AB) Komisyonu, Avrupa Parlamentosu ve üye ülkeler arasında dünya genelinde bir ilk olan "Yapay Zeka Yasası" üzerinde anlaşma sağlandı. Yapılan düzenleme ile özellikle yüksek riskli sektörlerde kullanılan yapay zeka sistemleri daha sıkı bir şekilde denetlenecek.

Yeni yasaya göre, su, enerji, yargı, sağlık ve biyometri gibi hayati sektörlerde kullanılan yapay zeka sistemleri "yüksek risk" kategorisine alındı. Bu alanlarda kullanılan yapay zeka uygulamalarında daha katı kuralların uygulanacağı belirtiliyor. Risk temelli bir yaklaşım benimseyen düzenleme, yapay zeka uygulamalarının yaratacağı riskleri "en yüksek", "en düşük", "kabul edilemez" ve "spesifik şeffaflık riski" olmak üzere dört kategoriye ayırıyor.

"Kabul edilemez risk" kategorisinde yer alan uygulamalar, insanların temel haklarına açık bir tehdit oluşturduğu gerekçesiyle yasaklanacak. Bu kapsamda, vatandaş takip sistemleri ve insan davranışlarını manipüle etmeye çalışan yapay zeka sistemleri de yasaklanacak. Dini, siyasi ya da cinsel kimliklere dayalı biyometrik tanımlama biçimleri ile duygu tespit sistemlerinin kullanılması da yasak kapsamında olacak. Kamuya açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama gibi uygulamaların kullanılması da bu kategoriye dahil.

"Yüksek risk" kategorisindeki uygulamalar ise su, enerji, yargı, güvenlik, sağlık ve biyometri gibi alanlarda kullanılan yapay zeka sistemlerini kapsıyor. Bu alanlarda kullanılan yapay zeka uygulamaları için daha katı koşullar ve denetimler getirilecek.

"Spesifik şeffaflık riski" kategorisi, kullanıcıların yapay zeka sistemleri ile etkileşimde olduklarının farkında olmalarını sağlamayı hedefliyor. Bu kapsamda, biyometrik sınıflandırma veya duygu tanıma sistemleri içeren uygulamalar konusunda kullanıcıların bilgilendirilmesi gerekecek.

"Düşük risk" kategorisinde yer alan uygulamalar ise insan hakları ve güvenliği açısından daha düşük düzeyde riske sahip olan yapay zeka destekli öneri sistemleri gibi uygulamaları içeriyor.

Yapay Zeka Yasası'nın AB genelinde 2026 yılında yürürlüğe girmesi bekleniyor. AB Komisyonu Başkanı Ursula von der Leyen, yasa üzerinde varılan anlaşmanın AB'de sorumlu yeniliği teşvik edeceğini ve güvenilir yapay zeka gelişimini destekleyeceğini belirtti. Almanya, Fransa ve İtalya gibi AB'nin büyük ülkelerinin çekinceleri bulunan düzenleme, uzun süren müzakereler sonucu kabul edildi. Anlaşma, AB'nin yapay zeka kullanımına ilişkin net kurallar koyan ilk kıta olduğunu vurguluyor.

Konuyla ilgili açıklamalarda bulunan BiOnay Kurucu Ortağı Ümit Yaşar Usta, uzaktan yüz tanıma sistemlerinin getirdiği risklere dikkat çekiyor. Özellikle verilerin kötü niyetli kişilerin eline geçme riskinin önemli olduğunu vurgulayan Usta, bu tür teknolojilerin kullanımının kişisel verilerin korunması yasalarına aykırı olduğunu belirtiyor.

Yapay Zeka Yasası'nın amacının deepfake gibi teknolojilerle yapılan dolandırıcılıkları önlemek ve kişisel verilerin güvenliğini sağlamak olduğunu dile getiren Usta, bu düzenlemenin Türkiye ve diğer ülkelerde de benimseneceğini düşünüyor.

Yüz tanıma sistemlerine karşı en büyük tehdidin deepfake gibi teknolojiler olduğunu belirten Usta, geçtiğimiz günlerde Hong Kong'ta yaşanan bir olayın bunun önemini bir kez daha ortaya koyduğunu ifade ediyor. Deepfake teknolojisinin kullanılarak yapılan bir dolandırıcılık olayında 25 milyon dolarlık zararın ortaya çıktığını hatırlatan Usta, bu tür teknolojilerin güvenlik açıklarını kullanarak ciddi zararlara yol açabileceğini belirtiyor.

Güvenli işlemlerin sağlanması için çipli kimlik kartları ve parmak izi gibi yöntemlerin kullanılmasının önemine dikkat çeken Usta, bu yöntemlerin kişisel verilerin korunması konusunda daha güvenli olduğunu ifade ediyor. Çipli kimlik kartları ve parmak iziyle yapılan kimlik doğrulama işlemlerinde kişisel verilerin hiçbir yere kaydedilmediğini ve gönderilmediğini belirten Usta, bu yöntemin kişisel verilerin güvenliğini sağlamada etkili olduğunu vurguluyor.

Son olarak, yüz tanıma algoritmalarının henüz standartlarının oluşmadığını ve güvenlik seviyeleriyle uyumluluk sorunlarının bulunduğunu belirten Usta, bu nedenle bu tür teknolojilerin kullanımının riskli olduğunu ve güvenli kimlik doğrulama yöntemlerinin tercih edilmesi gerektiğini ifade ediyor.

Kaynak: AYDIN GÖKÇEOĞLU

Yorum Ekle
Gönderilen yorumların küfür, hakaret ve suç unsuru içermemesi gerektiğini okurlarımıza önemle hatırlatırız!
Yorumlar
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.