Hacklink panel

Hacklink Panel

Hacklink panel

Hacklink

Hacklink panel

Backlink paketleri

Hacklink Panel

deneme bonusu veren siteler

deneme bonusu

Hacklink

Hacklink

Hacklink

Hacklink panel

Hacklink

betzula

Hacklink

Hacklink

Hacklink

Hacklink panel

Eros Maç Tv

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink satın al

Hacklink satın al

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

deneme bonusu

Hacklink panel

deneme bonusu

deneme bonusu veren siteler

Illuminati

Hacklink

Hacklink Panel

Hacklink

Hacklink Panel

Hacklink panel

Hacklink Panel

Hacklink

interbahis

Masal oku

Hacklink

Hacklink

Hacklink

Hacklink

alobet

Hacklink

Hacklink

Hacklink

anadoluslot

Hacklink panel

Postegro

Masal Oku

Hacklink

Hacklink panel

Hacklink panel

Hacklink panel

sezarcasino

Hacklink panel

Hacklink Panel

Hacklink

Hacklink

Hacklink

Hacklink

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink

Hacklink

Hacklink Panel

Hacklink

Hacklink

Hacklink

Buy Hacklink

Hacklink

Hacklink

Hacklink

Hacklink

Hacklink satın al

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink panel

Hacklink

Masal Oku

Hacklink panel

Hacklink

Hacklink

หวยออนไลน์

Hacklink

Hacklink satın al

deneme bonusu

deneme bonusu veren siteler

deneme bonusu

deneme bonusu veren siteler

Hacklink Panel

scam clickbait

cloaking

cloaks content scam

impersonates doeda fake page

Jasminbet

marsbahis giriş

marsbahis giriş telegram

meritking giriş twitter

casibom

Brain Savior Review

betlike

https://letsrelaxspa.today/

Etiket: Deepfake

  • Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı

    Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı

    Son yıllarda yapay zeka (AI) ve makine öğrenimi teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine saldırılarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.

    Bunlardan biri de insan benzeri doğal konuşma veya gerçek insanların fotoğraf ve video kopyalarını içeren deepfake’ler. Bu saldırıları oluşturmak için harcanan zaman ve çaba genellikle potansiyel ‘ödüllerinden’ daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake’lerin gelecekte daha fazla endişe kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.

    Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka yardımıyla video oluşturma imkanı sunuyor. Kaspersky uzmanlarının tahminlerine göre, bir dakikalık deepfake video 300 dolar gibi düşük bir fiyata satın alınabiliyor.

    İnternet kullanıcıları arasında dijital okuryazarlık konusunda önemli bir uçurum olduğu konusunda da endişeler var. Yakın zamanda yapılan Kaspersky İş Dijitalleşme Anketine¹ göre Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51’i bir deepfake’i gerçek bir görüntüden ayırt edebileceklerini söyledi. Yapılan testte ise yalnızca %25’i gerçek bir görüntüyü yapay zeka tarafından oluşturulmuş bir görüntüden ayırt edebildi2. Kimlik avı ve diğer sosyal mühendislik saldırılarının birincil hedeflerinin genellikle çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek.

    Örneğin, siber suçlular CEO’nun bir banka havalesi talep ettiği veya ödemeyi onayladığı sahte bir video oluşturabilir ve bu video şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı videolar ya da görüntüler oluşturulabilir.

    Kaspersky Baş Veri Bilimcisi Vladislav Tushkanov, şunları söylüyor: “Yüksek kaliteli deepfake yaratacak teknolojiler henüz yaygın olarak bulunmasa da, bu teknolojinin en olası kullanım alanlarından biri gerçek zamanlı sesler üreterek başka birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans görevlisi, deepfake teknolojisi sayesinde bir video konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara 25 milyon dolar aktarmak üzere kandırıldı. Deepfake’lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak önemlidir. Yanlış bilgi yayarlar, dolandırıcılık amacıyla kullanılırlar veya rızası olmadan başka birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit.”

    Kaspersky, deepfake’lerin oluşturduğu çeşitli tehditlere karşı korunmak için kişilere ve işletmelere aşağıdaki önlemleri öneriyor:

    • Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma şekilleri ve gelen anlamsız gürültülere dikkat edin.
    • Deepfake videoların temel özelliklerini öğrenin. Bu özellikler arasında sarsıntılı hareketler, bir plandan diğerine geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
    • Asla duygulara dayalı kararlar vermeyin ve ayrıntıları kimseyle paylaşmayın. Sadece o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıca doğrulamak her zaman daha iyidir. Bu noktada ‘güven ama doğrula’ protokolünü izleyin.
    • Kuruluşunuzun siber güvenlik uygulamalarını kontrol edin ve güncelleyin. 
    • Kaspersky Threat Intelligence gibi bir güvenlik çözümü, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında güncel kalmasına yardımcı olabilir.
    • Şirketler ayrıca çalışanlarının deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak insana dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake saldırılarını nasıl tespit edeceklerini öğretmek üzere uygulanacak sürekli farkındalık ve eğitim çalışmalarını kapsar.

    Kaynak: (BYZHA) Beyaz Haber Ajansı

  • Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı

    Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı

    Kimlik avı saldırıları, uzun yıllardır var olan bir siber saldırı yöntemi olsa da halen kuruluşlara saldırmanın ve sızmanın en etkili yollarından biri olarak görülüyor. Son yıllarda kimlik avı saldırıları, yapay zeka teknolojilerinin siber suç yöntemi olarak kullanılmasıyla şekil değiştirdi. Deepfake kimlik avı saldırı girişimlerinin 2023 yılında %3.000 oranında arttığını dile getiren Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Direktörü Alev Akkoyunlu, deepfake kimlik avı saldırılarına nerelerde maruz kalınabileceğine ve karşı karşıya gelindiğinde neler yapılması gerektiğini paylaştı. 

    Deepfake derin öğrenme yöntemiyle sahte görüntülerin, videoların ve seslerin oluşturulması anlamına geliyor. Kimlik avı saldırıları, siber suçluların mağdurları alt etmek için kullandıklarını en etkili yollardan biri olarak görülüyor. Deepfake kimlik avı saldırıları, sosyal mühendislik teknikleri ve deepfake teknolojisinin birleşimiyle yeni bir siber saldırı yöntemi olarak hayata girdi. Deepfake kimlik avı saldırılarındaki artış, derin öğrenme modellerinin daha erişilebilir hale gelmesinden kaynaklanıyor. Günümüzde artık yapay zeka algoritmaları düşük maliyetli veya ücretsiz bir şekilde olduğu için ulaşabilir bir durumda. Deepfake kimlik avı saldırı girişimlerinin 2023 yılında %3.000 oranında arttığı gözlemlendi. En çok finans ve muhasebe alanındaki kişilerin hedeflendiğini ve CFO’ların taklit edidiğine dikkat çeken Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Direktörü Alev Akkoyunlu, siber suçluların deepfake kimlik avı saldırılarını kullandıkları alanları ve kuruluşların dikkat etmesi gereken noktaları anlattı. 

    1. E-postalar veya mesajlar. Kuruluşlar her yıl iş e-postası saldırıları nedeniyle milyarlarca dolar kaybediyor. Deepfake’ler e-posta saldırılarını daha da tehlikeli hale getiriyor çünkü tehdit aktörleri bu yaklaşımı mesajları kişiselleştirmek ve kimliklerini daha inandırıcı göstermek için kullanabiliyor. Örneğin, saldırganlar CEO’ların sahte LinkedIn profillerini oluşturabilir ve bunları çalışanları cezbetmek için kullanabilir.

    2. Görüntülü aramalar. Bir siber suçlu, mağdurlarla etkileşime geçmek ve mağdurları gizli bilgileri (kimlik bilgileri gibi) paylaşmaya ikna etmek veya onları yetkisiz finansal işlemler gerçekleştirmeye yönlendirmek için bir Zoom görüşmesi üzerinden video deepfake kullanabilir. Örneğin, Çin’deki bir dolandırıcı, birinin kimliğine bürünmek için yüz değiştirme teknolojisini kullandı ve mağduru 622.000 doları transfer etmeye ikna etti.

    3. Sesli mesajlar. Bugünlerde herhangi birinin sesini kopyalamak son derece kolay. Tek gereken üç saniyelik bir klip. Bu deepfake’ler, sesli mesaj bırakmak veya insanları canlı sohbetlere dahil etmek için kullanılabilir; böylece gerçeklik ile aldatma arasındaki çizgi daha da bulanıklaşır. 2022 yılında kuruluşların %37’sinin deepfake ses sahtekarlığı yaşadığına inanılıyor.

    Kuruluşlar Deepfake Kimlik Avı Saldırıları Konusunda Neden Endişelenmeli?

    1. Hızla büyüyen bir tehdit. Deepfake teknolojisi, üretken yapay zeka araçları sayesinde giderek daha erişilebilir hale geliyor. Deepfake kimlik avı ve dolandırıcılık vakaları 2023 yılında %3.000 gibi şaşırtıcı bir oranda arttı.

    2. Hedefe yönelik. Saldırganlar son derece kişiselleştirilmiş saldırılar oluşturmak için deepfake’leri kullanabilir. İnsanları belirli ilgi alanlarına, hobilerine ve arkadaş ağlarına göre hedefleyebilir. Belirli kişi ve kuruluşlara özgü güvenlik açıklarından yararlanabilir.

    3. Tespit edilmesi zor. Yapay zeka birinin yazı stilini taklit edebilir, sesleri mükemmele yakın bir doğrulukla klonlayabilir ve insan yüzlerinden ayırt edilemeyen yapay zeka tarafından oluşturulmuş yüzler yaratabilir. Bu da deepfake kimlik avı saldırılarının tespit edilmesini son derece zorlaştırır.

    Kuruluşlar Deepfake Kimlik Avı Saldırılarını Nasıl Önleyebilir?

    1. Öncelikli olarak finans departmanlarında görev alan çalışanları eğitin.  Kuruluşların finans departmanlarında görev alan çalışanlar, özellikle para transferi gibi işlemleri yaparken dikkatli olmaları konusunda eğitilmeli. Özellikle patronları veya yöneticileri tarafından acil ve hızlı bir şekilde yapılması istenen para transferlerinde aceleci davranmak yerine, daha dikkatli bir davranış biçimi sergilemeleri gerekiyor. Genelde bu tür siber dolandırıcılık yöntemlerinde siber suçlular, psikolojik baskıyla para transfer işini aceleye getirmeye çalışıyor. Para transferi yapılacak hesabın gerçekten cari bir alacaklı olup olmadığını kontrol etmek gerekiyor. Hesap bilgisinin doğru kişi olduğundan emin olmak için para transferi yapılacak hesap numarası kontrol edilmeli. Yönetici, para transferi yapılacak kişi tarafından aranarak gerçekten böyle bir para transfer emri verip vermediği kontrol etmeli. 

    2. Çalışanların sahte içerik konusundaki farkındalığını artırın.  Çalışanlar, sahte içeriğin giderek yaygınlaşması konusunda bilinçlendirilmeli. Çalışanlara, sadece çevrimiçi profillerinde bazı videolar, fotoğraflar veya ses klipleri olduğu için çevrimiçi bir kişiliğe, bireye veya kimliğe güvenmemeleri gerektiği öğretilmeli.

    3. Çalışanları deepfake’i tanımaları ve raporlamaları için eğitin.  Kimlik avını önleme ve tespit etme söz konusu olduğunda hiçbir şey insan sezgisinden daha güçlü olamaz. Çalışanları, sahte çevrimiçi kimlikleri, dudak senkronizasyonu tutarsızlıkları gibi görsel anormallikleri, sarsıntılı baş ve gövde hareketlerini, olağandışı ses işaretlerini ve düzensiz veya şüpheli istekleri tanıma ve raporlama konusunda eğitmek çok önemli. Bu eğitim uzmanlığına sahip olmayan kuruluşlar, gerçek, kullanıma hazır örnek sosyal mühendislik senaryolarını kullanan kimlik avı simülasyon programlarını da değerlendirebilir.

    4. Kimlik sahtekarlığı riskini azaltmak için güçlü kimlik doğrulama yöntemleri kullanın.  Kimlik avına dirençli çok faktörlü kimlik doğrulama ve sıfır güven gibi araçların kullanılması, kimlik hırsızlığı ve yanal hareket riskini kesinlikle bir dereceye kadar azaltabilir. Bununla birlikte, güvenlik liderleri saldırganların akıllıca deepfake tabanlı sosyal mühendislik teknikleri kullanarak kimlik doğrulama sistemlerini hacklemeye veya baypas etmeye çalıştıklarını görmeyi bekleyebilirler.

    Deepfake kimlik avı saldırılarının başarısı ve etkinliği, özünde insanların güvenini ve saflığını kullanma becerisinde yatıyor. Kuruluşlar çalışanlarına internette gördükleri ya da duydukları her şeyi sorgulamayı öğretmeli ve düzenli sosyal mühendislik farkındalık egzersizleriyle altıncı bir savunma hissiyle birlikte bir şey fark ettikleri anda devreye giren bir kas hafızası oluşturmalı. Kuruluşların giderek yaygınlaşan bu tehditle etkili bir şekilde mücadele edebilmelerinin en iyi yolu insan sezgisi.

    Kaynak: (BYZHA) Beyaz Haber Ajansı

  • Deepfake dünyanın başını ağrıtıyor

    Deepfake dünyanın başını ağrıtıyor

    Dünya nüfusunun yaklaşık dörtte biri 2024 yılında sandık başına gidecek. Dezenformasyon ve yapay zeka destekli hilelerin seçim sonuçlarını etkilemek için kullanılabileceğine dair endişeler artıyor. Uzmanlar deepfake örneklerinin yaygınlaşmasının sonuçlarından çekiniyor. Dijital güvenlik şirketi ESET deepfake konusunu masaya yatırdı, bunun  kitlesel bir aldatma silahı olup olmadığını inceledi. 

    Yaklaşık iki milyar seçmen bu yıl tercih ettikleri temsilcilerine ve siyasi liderlerine oy vermek üzere seçim merkezlerine gidecek. Aralarında ABD, İngiltere ve Hindistan’ın da bulunduğu çok sayıda ülkede (Avrupa Parlamentosu için de) önemli seçimler yapılacağından, bu durum önümüzdeki birkaç yıl ve sonrasında jeopolitiğin siyasi manzarasını ve yönünü değiştirme potansiyeline sahip. Gerçek insanların sahte görüntüleri, ses ve video klipleri yaygınlaştıkça yapay zeka destekli bir dezenformasyon ihtimali giderek artan bir endişeye neden oluyor.

    Sahte haberler, 2016’da Beyaz Saray yarışı sırasında büyük bir hikaye haline geldiğinden beri seçim ile ilgili manşetlere hakim oldu. Bundan  sekiz yıl sonra, tartışmasız daha büyük bir tehdit var; uzmanları bile kandırabilecek dezenformasyon ve derin sahteciliklerin bir kombinasyonu. Arjantin’deki seçimler öncesinde dolaşıma sokulan bir dizi resim ve video ile ABD Başkanı Joe Biden’ın üzerinde oynanmış bir ses kaydı da dahil olmak üzere, yapay zeka tarafından üretilen seçim temalı içeriğin son örneklerinin, daha büyük ölçekte olabileceklerin habercisi olma ihtimali yüksek. 

    Dünya Ekonomik Forumu riske dikkat çekti

    Yanlış bilgilendirme ve dezenformasyon Dünya Ekonomik Forumu (WEF) tarafından önümüzdeki dönemin en önemli küresel riski olarak belirlendi. Deepfake’lerle ilgili sorun, yapay zeka destekli teknolojinin artık ucuz, erişilebilir ve büyük ölçekte zarar verebilecek kadar güçlü hale gelmesi olarak tanımlanıyor. Bu da siber suçluların, kötü niyetli siyasi aktörlerin ve hacktivistlerin ikna edici dezenformasyon kampanyaları ve daha geçici, tek seferlik dolandırıcılıklar başlatma becerilerini artırıyor. 

    WEF’in raporuna göre sentetik içerik önümüzdeki iki yıl içinde bireyleri manipüle edecek, ekonomilere zarar verecek ve toplumları çeşitli şekillerde parçalayacak. ChatGPT ve kolaylıkla erişilebilen üretken yapay zeka (GenAI) gibi araçların, daha geniş bir yelpazedeki bireylerin deepfake teknolojisi tarafından yönlendirilen dezenformasyon kampanyalarının oluşturulmasına katılmasını mümkün kılması önemli bir zorluğu oluşturuyor. 

    Bir seçim sürecinde deepfake, seçmenlerin belirli bir adaya olan güvenini sarsmak için kullanılabilir. Eğer bir siyasi parti ya da adayın destekçileri sahte ses ya da videolarla uygun bir şekilde yönlendirilebilirse, bu rakip gruplar için bir kazanç olacaktır.  Bu zorluğun temelinde basit bir gerçek yatıyor: İnsanlar bilgiyi işlerken niceliğe ve kolay anlaşılırlığa değer verme eğilimindedir. Benzer bir mesaj içeren ne kadar çok içerik görürsek ve bunları anlamak ne kadar kolay olursa, bunlara inanma şansımız da o kadar yüksek olur. Buna bir de deepfake’lerin gerçek içerikten ayırt edilmesinin giderek zorlaştığı gerçeğini eklediğinizde, elinizde potansiyel bir demokratik felaket reçetesi var demektir.

    Teknoloji firmaları bu konuda ne yapıyor?

    Hem YouTube hem de Facebook’un, yakın zamanda yapılan bir seçimi etkilemeyi amaçlayan bazı deepfake’lere yanıt vermekte yavaş davrandığı söyleniyor. Bu durum, sosyal medya şirketlerinin seçim manipülasyonu girişimlerini engellemelerini gerektiren yeni bir AB yasasına (Dijital Hizmetler Yasası) rağmen gerçekleşti. 

    OpenAI ise DALL-E 3 tarafından üretilen görüntüler için Coalition for Content Provenance and Authenticity’nin (C2PA) dijital kimlik bilgilerini uygulayacağını açıkladı. Meta ve Google tarafından da denenen kriptografik filigran teknolojisi, sahte görüntü üretmeyi zorlaştırmak için tasarlandı. Ancak bunlar hala bebek adımları ve seçim ateşi tüm dünyayı sararken tehdide karşı teknolojik müdahalenin çok az ve çok geç olacağına dair haklı endişeler var. Özellikle de WhatsApp grupları ya da robocall’lar gibi nispeten kapalı ağlarda yayıldığında, sahte ses ya da videoları hızlı bir şekilde takip etmek ve çürütmek zor olacaktır. 

     

    Kaynak: (BYZHA) Beyaz Haber Ajansı