Ferrari’yi deepfake yöntemiyle dolandırmaya çalıştılar!
Ferrari, başına gelen deepfake olayının şok edici ayrıntılarını paylaştı. Dolandırıcılığın nasıl gerçekleştirildiği ortaya çıktı.
Ferrari, başına gelen deepfake olayının şok edici ayrıntılarını paylaştı. Dolandırıcılığın nasıl gerçekleştirildiği ortaya çıktı.
Bu ayın başlarında, bir Salı sabahı Ferrari NV’den bir yönetici, CEO Benedetto Vigna’dan geldiği iddia edilen bir dizi beklenmedik mesaj almaya başladı. Bu mesajlarda, büyük bir satın alma işlemi hakkında bilgi veriliyor ve yöneticiye bu konuda yardım edilmesi isteniyordu. Ancak, gerçekler son anda ortaya çıktı. Peki dolandırıcı yakayı nasıl ele verdi? Deepfake ne kadar tehlikeli? İşte detaylar…
Ferrari yöneticisi, CEO’yu taklit eden deepfake dolandırıcısını güvenlik sorusu ile yakaladı
Mesajların geldiği numara ve profil fotoğrafı Vigna’nın genellikle kullandığı numara ve fotoğraf değildi. Ferrari üst düzey yöneticisi, mesajları aldıktan sonra bir şeylerin yanlış olduğunu fark etti. Deepfake teknolojisi kullanılarak yapılan bu dolandırıcılık girişimi, CEO’nun sesi mükemmel bir şekilde taklit edilerek yapılmıştı. Vigna’nın taklidini yapan kişi, başka bir cep telefonu numarasından aradığını ve gizli bir anlaşma hakkında konuşmak istediğini söyledi.
Ancak, yönetici şüphelenmeye başladı ve Vigna’nın gerçekten kim olduğunu doğrulamak için bir güvenlik sorusu sordu: “Benedetto, özür dilerim ama seni tanımlamam gerekiyor. Bana birkaç gün önce önerdiğin kitabın adını söyler misin?” Ardından gelen cevap ise alakasız bir kitap adı olunca, soruyu duyan yönetici anında telefonu kapattı ve durumu yetkililere bildirdi.
Ferrari, bu deepfake olayının ardından iç soruşturma başlattı. Olay, AI tabanlı deepfake teknolojilerinin dolandırıcılıkta nasıl kullanılabileceğine dair önemli bir örnek oldu. Bu tür dolandırıcılık girişimleri, yüksek profilli yöneticilerin taklit edilmesiyle gerçekleştiriliyor.
Mayıs ayında, reklam devi WPP Plc’nin CEO’su Mark Read, benzer bir deepfake dolandırıcılık girişiminin hedefi olmuştu. Bu yıl, dolandırıcıların AI kullanarak ses klonlama girişimlerinde artış yaşandığı görülüyor. Az da olsa, bazı şirketler bu tür tehditlere karşı önlem alarak, yöneticilerine dolandırıcılık girişimlerini nasıl tespit edebileceklerini öğretiyor.
Siz ne düşünüyorsunuz? Bu tür AI tabanlı dolandırıcılıklara karşı alınabilecek en iyi önlemler sizce neler? Görüşlerinizi aşağıdaki yorumlar kısmında paylaşabilirsiniz.
Shiftdelete
Kaynak : https://shiftdelete.net/ferrari-deepfake-yontemiyle-dolandirmaya-calistilar