Av. Katlav uyardı: Yapay zekâ ile 3 saniyelik ses kaydıyla dolandırılabilirsiniz

Türkiye Barolar Birliği Bilişim ve Teknoloji Kurulu Üyesi ve Adana Barosu Siber Suçlar Komisyonu Başkanı Av. Ali Yılmaz Katlav, son dönemde yapay zeka teknolojisi kullanılarak yapılan dolandırıcılıklara karşı önemli uyarılarda bulundu.

Haber Giriş Tarihi: 12.03.2026 00:02
Haber Güncellenme Tarihi: 12.03.2026 00:02

Türkiye Barolar Birliği Bilişim ve Teknoloji Kurulu Üyesi ve Adana Barosu Siber Suçlar Komisyonu Başkanı Av. Ali Yılmaz Katlav, son dönemde yapay zekâ teknolojisi kullanılarak gerçekleştirilen dolandırıcılık yöntemlerine karşı vatandaşları uyardı. Av. Katlav, ses klonlama, deepfake ve hiper-kişiselleştirilmiş oltalama yöntemleriyle dolandırıcıların, internette veya sosyal medyada paylaşılan kısa videolardaki konuşmaları kullanarak sesleri klonlayabildiğini söyledi.

“3 SANİYELİK SES KAYDIYLA BİLE DOLANDIRILABİLİRSİNİZ”

Adana Barosu Siber Suçlar Komisyonu Başkanı Av. Ali Yılmaz Katlav ses klonlama Hiper-kişiselleştirilmiş oltalama yöntemine dikkat çekerek, “Ses klonlama yöntemiyle dolandırıcılar, sosyal medyada paylaştığınız sadece 3 saniyelik bir ses kaydını kullanarak sesinizi birebir taklit edebiliyor. Deepfake görüntülü aramalar artık yapay zeka sayesinde gerçek zamanlı görüntü işleyebildiği için, canlı görüşmelerde bile bir başkasının yüzünü taklit edebiliyor. Hiper-kişiselleştirilmiş oltalama (AI Phishing) eskiden oltalama e-postaları bozuk Türkçesi ve yazım hatalarıyla kendini belli ederdi. Artık yapay zekâ (LLM modelleri) sayesinde dolandırıcılar, sizinle ilgili internetteki tüm verileri (LinkedIn, Facebook vb.) tarayarak size özel, profesyonel mesajlar yazabiliyor. Geçmişte yaptığınız gerçek bir alışverişe atıfta bulunarak güveninizi kazanıyor ve üzerinize baskı kurup istediklerini yaptırabilecek bir konuma gelebiliyorlar. AI zehirlenmesi ve sahte botlar (AI Poisoning) ile dolandırıcılar, kurumların kullandığı yapay zekâ asistanlarını veya müşteri hizmetleri botlarını manipüle ederek yanlış bilgi vermelerini sağlayabiliyor” şeklinde konuştu.

“DOLANDIRICILAR SES VE DEEPFAKE İLE GERÇEK ZAMANLI TAKLİT YAPIYOR”

Adana Barosu Siber Suçlar Komisyonu Başkanı Av. Ali Yılmaz Katlav dolandırıcıların ses ve deepfake görüntülerle gerçek zamanlı taklit yaptığını belirterek, “Son zamanlarda ortaya çıkan yeni bir dolandırıcılık yöntemi var. Yapay zekâ kullanılarak gerçekleştirilen bu yöntemde çeşitli teknikler uygulanabiliyor. En basitinden sesinizi kullanıyorlar. Sizinle görüşme yapabilirler ya da yapmayabilirler. İnternette veya sosyal medyada kayıtlı videolarınızdaki konuşmalarınız bile yeterli olabiliyor. Kısa bir konuşmanızın olması bile sesinizi alıp yapay zekâya yüklemeleri ve sesinizi klonlamaları için yeterli. Eğer diğer kişisel verilerinizi ele geçirmişlerse, telefonda tanıdığınız arkadaşlarınızı arayabilir, sizin sesinizi kullanarak onlarla konuşabilir ve menfaat sağlayabilirler. Sosyal medya hesabınız ele geçirilirse, geçmişte olduğu gibi ‘Paraya ihtiyacım var, yardım gönderir misiniz?’ gibi taleplerle karşılaşabilirsiniz. Ancak artık bu yöntem yaygın olarak biliniyor. Şu anda dolandırıcılar, eğer bir ses kaydı gönderirse ve bu konuşan kişi arkadaşınız gibi görünüyorsa, insanlar genellikle bu isteğe güvenerek karşılık verebiliyor” ifadelerini kullandı.

“DOLANDIRICILAR FOTOĞRAF VE YAPAY ZEKÂYLA KANDIRIYOR”

Av. Katlav, “Bir başka yöntem ise dolandırıcıların elde ettikleri fotoğrafları kullanarak görüntülü konuşma yapmasıdır. ‘Arkadaşımın numarasından arıyorum’ diyerek birçok kişiyle aynı anda, sanki karşısında bir bot varmış gibi veya yapay zekâ sistemi varmış gibi sohbet edip gerekli bilgileri alabilirler. Teknik olarak, karşıdaki kişinin görüntüsünün doğru mu yanlış mı olduğunu anlamak mümkün değildir. Dolandırıcılar sizinle sürekli konuşarak dikkatinizi dağıtır ve başka bir şey düşünmenizi engeller; acele ettirirler. Eğer bir arkadaşınızın numarasını biliyorsanız, ‘Bekle, seni arayacağım’ diyebilir ya da banka ile ilgiliyse ‘Ben müşteri hizmetlerinizi arayacağım’ diyerek zaman kazanabilirsiniz. Şu an herkesin yapabileceği en basit yöntem budur” dedi.

Av. Katlav, vatandaşları yapay zekâ destekli dolandırıcılık yöntemlerine karşı dikkatli olmaları konusunda uyararak, kişisel verilerini paylaşmamaları ve şüpheli durumlarda zaman kazanarak doğrulama yapmaları gerektiğini vurguladı.