-
BIST 100
16159,06%-0,58
-
DOLAR
44,31% 0,24
-
EURO
50,84% 0,09
-
GRAM ALTIN
6912,41% 0,93
-
Ç. ALTIN
11465,56% 0,00
Talepte artış var: Darkweb'de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı
Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka destekli video oluşturma hizmeti sunuyor.
Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka destekli video oluşturma hizmeti sunuyor. Deepfake oluşturma veya satın alma fiyatları, projenin karmaşıklığına ve nihai ürünün kalitesine bağlı olarak değişebiliyor. Kaspersky uzmanlarının tahminlerine göre bir dakikalık deepfake video başına fiyatlar 300 ila 20 bin dolar arasında değişebiliyor. Bu durum Kaspersky Cyber Security Weekend - META 2023 etkinliğinde paylaşıldı.
Kaspersky, farklı kötü niyetli amaçlar için deepfake video ve ses oluşturma hizmeti veren çeşitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluşturmak için ünlüler veya siyasi figürler gibi belirli hedefler talep edebiliyor.
Siber suçlular, üretilen yapay zeka videolarını yasa dışı faaliyetler için çeşitli şekillerde kullanıyor. Bireyleri veya kuruluşları dolandırmak için kullanılabilecek sahte videolar veya görüntüler oluşturmak için deepfake örnekleri kullanabiliyor. Örneğin bir CEO'nun banka havalesi talep ettiği veya bir ödemeyi yetkilendirdiği sahte bir video hazırlanabiliyor ve bu video kurumsal fonları çalmak için kullanabiliyor. Sahte videolar, kişilerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler oluşturmak için de kullanılabiliyor. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake'lerden faydalanabiliyor. Örneğin bir politikacının tartışmalı açıklamalar yaptığı sahte bir video oluşturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabiliyor.
Deepfake teknolojisi, meşru hesap sahibinin gerçekçi sahte videolarını veya ses kayıtlarını oluşturarak ödeme hizmetlerinde doğrulama aşamasını atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti sağlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düşünmeleri için kandırmak ve böylece hesaba ve ilgili fonlara erişim elde etmek için kullanılabiliyor.
Kaspersky Lider Veri Bilimcisi Vladislav Tushkanov, şunları söyledi: 'Deepfake'ler giderek artan bir şekilde şantaj ve dolandırıcılık amacıyla kullanılıyor. Örneğin, bir İngiliz enerji firmasının CEO'su, ana şirketinin başkanının acil fon transferi talep eden bir ses deepfake'i ile 243.000 dolar dolandırıldı. Neticede fonlar dolandırıcının banka hesabına aktarıldı. Durum ancak suçlu başka bir transfer talebinde bulununca ortaya çıktı, ancak o zamana kadar zaten transfer edilmiş olan fonları geri almak için çok geç kalınmıştı. Benzer bir vaka BAE'de rapor edildi ve burada da ses deepfake'i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake'lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir veya rızası olmadan başka birinin kimliğine bürünebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliğindedir.'
Darkweb kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor. Araştırmacılar darknet'i izleyerek deepfake'lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içeriyor.
Kaspersky, deepfake ile ilgili tehditlerden korunmak için şunları öneriyor:
Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılımları değil, aynı zamanda gelişmiş BT becerilerini de ele alın. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın. Kurumsal 'insan güvenlik duvarınızı' güçlendirin. Çalışanların deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve yol açabilecekleri problemleri anlamalarını sağlayın. Çalışanlara bir deepfake'i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları yapın. Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır. Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan önemli bir etken olmaya devam ediyor. 'Güven ama doğrula' gibi iyi protokollere sahip olun. Sesli mesaj ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir. Deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kaymaları, cilt tonunda kaymalar, garip şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmaması, görüntüdeki dijital kalıntılar, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipuçlarıdır.
Kaynak: (BYZHA) Beyaz Haber Ajansı
ANAMUR'DA ÇANAKKALE RUHU YENİDEN CANLANDI: ŞEHİTLERİMİZ DUALARLA ANILDI
Kaymakam Kemal Duru’dan 18 Mart Mesajı: "Çanakkale Ruhu Birliğimizin Teminatıdır"
Anamur’da Narkotikten Sokak Satıcılarına Darbe
HAKLARINIZ BİR RİCA DEĞİL, DEVLETİN ÖDEVİDİR VE DİLEKÇE VATANDAŞIN DEVLETE OLAN ARZIDIR
Mersin’de Jandarmadan Yasadışı Bahis Operasyonu: 13 Şüpheli Yakalandı
Jandarmadan Telefon Kaçakçılığı Operasyonu: 800 Bin Liralık Kaçak Telefon Ele Geçirildi
TOKİ İnşaatındaki Hırsızlık Olayına Jandarmadan Operasyon: 5 Şüpheli Yakalandı
Anamur Korucuk’ta Tarım Aracına Ayağını Kaptıran Çiftçi Yaralandı
Anamur’da Hafızlık Öğrencileri İftar Sofrasında Buluştu
Mersinli Kuyumcular Dünya Mücevher Sektörünün Dev Buluşmasında Yerini Alıyor
Büyükşehir’in “Yaşlı Destek Hizmetleri” Yaş Almışların Hayatına Dokunuyor
Anamur’da Şehit Aileleri İftar Sofrasında Bir Araya Geldi
Toptan Ahşap Askı: Mağazalar İçin Şık ve Dayanıklı Askı Çözümleri
ANAMUR ORMAN İŞLETME’DE SELAHATTİN YILDIRIM DÖNEMİ HIZLI BAŞLADI
Kuzeyhan Dubaiye Gidebilecek
90’lı Yıllar Neden Yeniden Trend Oldu? Sosyal Medyada Nostalji Rüzgârı
Doktorlara Göre Bağışıklığı Güçlendiren 5 Besin
Yapay Zeka Kapıda: Microsoft'tan Korkutan Rapor! 40 Meslek Tarihe mi Karışıyor?
Yapay Zeka Geleceğin Mesleklerini Nasıl Değiştirecek?
Japon Tatlı Patatesi Neden Trend Oldu? Sağlıklı Beslenme Tutkunları Bu Lezzeti Konuşuyor
2026 Emekli Paketi Şekilleniyor: Maaş, Sosyal Haklar ve Sağlıkta Yeni Dönem
Anamur’da Çocuklar Camide Buluştu
Anamur’da Yürekleri Dağlayan Kaza: Direksiyon Hakimiyeti ve 3 Saniyelik Mikro Uyku Sendromu
Anamur-Abanoz Yolunda Katliam Gibi Kaza: 3 Ölü, 11 Yaralı
Kaymakam Kemal Duru’dan 12 Mart İstiklal Marşı Mesajı
Minik öğrenciler Mehmet Akif Ersoy’u andı
Başkan Recep Tayyip Erdoğan: Maaş ve İkramiye 14 Mart’tan İtibaren Hesaplarda
Minimalist Gelinliklere İlgi Patladı: Narciso Rodriguez Aramaları Zirve Yaptı
Japon Tatlı Patatesi Küresel Trend Oldu: “Japanese Sweet Potato Chocolate Cake” Tarifi Patlama Yaşıyor
ENHYPEN ve Heeseung Sosyal Medyada Gündem Oldu: “Heeseung Ayrılıyor mu?” Sorusu Hayranları Harekete Geçirdi
Yükleniyor

