Her gün yeni yöntemlerle ortaya çıkan dolandırıcılar, zamana ve teknolojiye de uyum sağlıyor. Dolandırıcıların son yöntemi ise yapay zeka kullanılarak hazırlanan sahte ünlü videoları. Ünlü isimlerin görüntülerini ve seslerini teknolojiyi kullanarak değiştiren dolandırıcılar, yatırım tavsiyesi yalanıyla kandırıyorlar.
Dolandırıcıların son kurbanı Defne Samyeli oldu. Ünlü ismin görüntüleri kullanılarak hazırlanan sahte video ile yatırım tavsiyesi adı altında dolandırıcılık yapıldı. Sosyal medya hesabından kullanıcılarını uyaran Samyeli, “İşin içinde para varsa misliyle dikkatli olun.” dedi.
Sahte vide ile birçok kişinin dolandırıldığını söyleyen Samyeli, “Bu videonun tamamen uydurma bir montaj işi olduğu ilk bakışta anlaşılsa da anlıyorum ki birçok vatandaşımızın dolandırılmasına neden olmuş. Bu bir yandan yapay zeka kullanımının ne tehlikeli boyutlara ulaşabileceği konusunda bize fikir vermesi açısından anlamlı. İnsanları herhangi bir yatırıma yönlendirecek bir yayın yapmadım, bu gibi sponsorlu yayınları gördüğü zaman demek ki insanların misliyle dikkatli olması gerekiyor, hele işin içinde para varsa.” uyarısında bulundu.
Dolandırıcılar hakkında yasal işlem başlatacağını söyleyen Samyeli, “Sadece ben değil, en güvendiğiniz başka kim varsa bu devirde ‘paranızı şuraya yatırın’ şeklinde bir video gördüğünüzde yüzlerce kez sorgulamanızı öneririm. Yüzümü ve YouTube kanalımdaki yayınlarımı kullanarak vatandaşları dolandıran, bu videoları yayan, yayınlayan sorumlular hakkında yasal süreci başlatacağımı bu vesileyle duymak isterim.” dedi.
Deepfake (Derin sahtecilik) nedir?
Deepfake, gerçek bir kişinin yüzünün, başka bir kişinin yüzünün üzerine yerleştirildiği sahte bir video veya görüntüdür. Deepfake, genellikle ünlüler, politikacılar veya diğer tanınmış kişileri hedef alan dolandırıcılık yönteminde kullanılır.
İlk yorum yapan olun