Dolandırıcıların Yeni Tuzağı Ses Ve Görüntü Taklitleri Oldu

Dolandırıcıların Yeni Tuzağı Ses Ve Görüntü Taklitleri Oldu

Kaspersky Uzman Veri Bilimcisi Vladislav Tushkanov, "İnternetteki bilgiler baz alınarak önemli bir karar almak tehlikelidir. Mutlaka bilgilerin önce kontrol edilmesi gerekiyor. İnternette gördüğünüz her şeye inanmamanız gerekiyor." dedi

Kaspersky Uzman Veri Bilimcisi Vladislav Tushkanov, deepfake (çeşitli programlarla kişileri sanki onlar konuşuyormuş gibi konuşturarak kamuoyunu yanıltmak) videoları tespit etmenin zorluklarına işaret ederek, "İnternetteki bilgiler baz alınarak önemli bir karar almak tehlikelidir. Mutlaka bilgilerin önce kontrol edilmesi gerekiyor. İnternette gördüğünüz her şeye inanmamanız gerekiyor." dedi

Kaspersky'nin Kazakistan'da bu yıl 8'incisini düzenlediği Siber Güvenlik Hafta Sonu-META 2023'te uzman isimler, Orta Doğu, Türkiye ve Afrika (META) bölgesi ile dünya çapında dijital tehdit ortamındaki gelişmeleri paylaştı.

Kaspersky Uzman Veri Bilimcisi Tushkanov, etkinlikte AA muhabirine yaptığı açıklamada, deepfake ve ses taklit uygulamaları ile birçok dolandırıcılık faaliyeti gerçekleştirildiğini, bunların engellenmesi için çeşitli önlemlerin alınması gerektiğini söyledi.

Bu konuda özellikle şirketlerin önlem alması gerektiğini vurgulayan Tushkanov, "Sizi ses taklidi ile dolandırmak isteyenler olabilir. Büyük miktarlarda paralar, 100 bin dolar gibi, sadece bir telefon konuşması ile verilmemeli. Bu tarz tuzaklara düşmemek için çeşitli protokollerin olması lazım. Bunun yanında eğitim ve farkındalık da çok önemli. Deepfake ve ses taklitlerinin gerçek olduğunu bilirseniz sizi sahte ses ve görüntülerle kandırmaya çalışan insanlara 'Bu konuları telefonda konuşmak istemiyorum. Bana kurumsal e-mail adresinizi verin" diyebilirsiniz." şeklinde konuştu.

Bazı deepfake uygulamalar anlaşılamıyor

Vladislav Tushkanov, deepfake videoların bir kısmının kolaylıkla tespit edilebileceğini aktararak, şu değerlendirmelerde bulundu:

"Bazı deepfake videolarındaki kişiler hiç gözlerini kırpmıyor. Bunları kolaylıkla anlayabiliyoruz ancak çok iyi hazırlanmış bazı deepfake videolar da olabiliyor. Mesela, Tom Cruise'un yapılan deepfake videosu gerçekten çok profesyoneldi. Deepfake videoları yaratmak için geliştirilen teknoloji gelişiyor ama deepfake videoları teknolojisi de gelişiyor. Bu sebeple tamamen deepfake'yi tespit edebilen teknolojilere güvenmek çok da sağlıklı değil."

"İnternet üzerinden her gün 400 bin yeni kötü amaçlı dosya dağıtılıyor"

Kaspersky Uzman Veri Bilimcisi Tushkanov, internet ortamında kontrol edilmesi ve doğrulanması imkansız derecede çok bilgi olduğuna dikkati çekerek, "İnternetteki bilgiler baz alınarak önemli bir karar almak tehlikelidir. Mutlaka bilgilerin önce kontrol edilmesi gerekiyor. İnternette gördüğünüz her şeye inanmamanız gerekiyor." dedi.

Makine öğrenmesinin siber saldırılarla mücadelede çok yardımcı bir rol üstlendiğine işaret eden Tushkanov, şunları kaydetti:

"Her gün çok fazla oltalama gibi saldırılarla karşı karşıya kalıyoruz. İnternet üzerinden her gün 400 bin yeni kötü amaçlı dosya dağıtılıyor. Herhangi bir insan bu kadar fazla saldırı ile başa çıkamaz. ChatGPT'nin oltalama saldırılarını tespit edebildiği bir deney gerçekleştirdik. ChatGPT başarılı bir şekilde oltalama saldırısını keşfetti. Ancak ChatGPT'nin bazı hatalar yaptığını görebiliyoruz. Bu yüzden bu sistemlere tamamen güvenmesem de bir potansiyel taşıdıklarını düşünüyorum."

Birleşik Krallık'ta 243 bin dolarlık dolandırıcılık

Ses taklit edebilen uygulamaların son yıllarda dolandırıcılık faaliyetlerinde de kullanılması endişelere neden oluyor.

The Wall Street Journal'ın 2019'da ortaya çıkardığı dolandırıcılık vakası, "ses taklidi ile ilgili ilk büyük dolandırıcılık vakası olarak" biliniyor.

Adı açıklanmayan ve merkezi Birleşik Krallık'ta bulunan bir enerji şirketinin CEO'su, patronu zannettiği kişinin telefonda verdiği talimat üzerine dolandırıcılara 243 bin dolar para transferi yaptı. CEO, telefonda patronu ile konuştuğunu zannediyordu. Dolandırıcılar ses taklit uygulaması aracılığıyla patronun sesini klonlamıştı.

Kaynak:Haber Kaynağı

HABERE YORUM KAT
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
Önceki ve Sonraki Haberler