
Geçen hafta, Federal Soruşturma Bürosu (FBI) kamu spotu yayınladı Deepfake müstehcen içerikteki artış ve bunun gasp, şantaj ve taciz gibi suçlar için nasıl kullanıldığı hakkında. En basit ifadeyle, Deepfake, orijinali taklit etmeye çalışan sentetik multimedya malzemesidir.. AI nesli bir fotoğraf, video veya ses klibi olabilir.
İçindekiler
- Uzmanlar derin sahtekarlıklar hakkında ne diyor?
- Kendinizi nasıl güvende tutabilirsiniz?
- Sosyal medya güvenli ve sorumlu bir şekilde yapılır
- Deepfaked alırsanız ne yapmalısınız?
- Deepfake'ler nasıl anlaşılır?
- Yarı etkili çözümlerle ciddi bir sorun
"Deepfake" adı, bu tür medyaların yaratılmasında kullanılan doğal teknolojiden - derin öğrenme - gelir. Orijinal materyali kullanarak bir yapay zeka modelinin eğitilmesini ve ardından istenen modeli oluşturmak için değiştirilmesini içerir. sonuçlar. Tam olarak yeni bir buluş değil, ama popülaritesinde patlayan üretken yapay zeka - ve erişim - derin sahte suçlar artıyor.
Önerilen Videolar
Popülariteleri o kadar yüksek ki, Cumhuriyetçi başkan adayı Ron DeSantis'in kampanyası bile onu kötülemek için rakibi Donald Trump'ın derin sahte görüntülerini kullandı. Deepfake'ler ayrıca yapay zekayı düzenleme çağrılarının her yerde gündeme getirilmesinin nedenlerinden biridir. FBI'a göre, derin sahtekarlık oluşturma içeriği genellikle sosyal medya gönderilerinden kaldırılır. ve görüntülü görüşme klipleri, şantaj ve zorbalık için müstehcen materyallere dönüştürülmeden önce.
İlgili
- ChatGPT üreticisi OpenAI, tüketici koruma yasaları nedeniyle FTC soruşturmasıyla karşı karşıya
- ChatGPT web sitesi trafiği ilk kez düştü
- OpenAI, süper zeki yapay zekanın haydutlaşmasını durdurmak için yeni ekip kuruyor
Uzmanlar derin sahtekarlıklar hakkında ne diyor?

Peki çözüm nedir? Maalesef çözüm yok. En azından, "sosyal medyanın" tüm anlamını temelden alt üst eden bir taviz vermeden değil.
"Maalesef, fotoğraflarınızın veya videolarınızın derin sahte görüntüler oluşturmak için kullanılmadığından emin olmanın tek yolu, herhangi bir fotoğraf veya video yayınlamayı bırakmaktır. bir siber güvenlik uzmanı olan Adrianus Warmenhoven, "Çevrimiçi fotoğraflarınız olabilir, ancak bu, internet kullanıcılarının çok eğlenmesine neden olur" diyor. danışman Kuzey.
“Yeni ve daha iyi güvenlik uygulamaları ortaya çıktıkça, kötü niyetli aktörler zarar vermenin bir yolunu bulacaktır. Eski bir Google çalışanı ve yeni nesil şifre yönetimi aracının yaratıcısı olan Parteek Saran, "Bu bir yakalama oyunu ve bazen hayal kırıklığı yaratıyor" diyor. Uno. Ayrıca, gönderi gönderme söz konusu olduğunda kişinin "sıfır güven felsefesini" benimsemesi gerektiğini öne sürüyor. sosyal medyadaki içerik ve derin sahtelikten uzak durmak için tanıdıklarla etkili iletişimi vurgular dolandırıcılık
Dijital Güvenlik Uzmanı ve CMO'su Yaron Litwin, "Yapay zeka, dijital güvenlik endişelerinin ele alınmasına yardımcı olsa da, kusursuz bir güvenlik ağı yoktur" diyor. gölgelik. Şirketin adını taşıyan uygulaması, çocukları çevrimiçi cinsel suçlardan korumayı hedefliyor ve ayrıca çeşitli ebeveyn denetimleri sunuyor. Litwin, normal görüntülerin bile yayınlanma sıklığını azaltırken, samimi veya uzlaşmacı görüntüler yayınlamaktan kaçınmanız gerektiğini de ekliyor.
Kendinizi nasıl güvende tutabilirsiniz?

Derin sahtekarlıklar ürkütücüdür ve bir kişiye ve aile üyelerine verebilecekleri travmayı anlamak zordur. Ancak kullanıcıların tuzağa düşmekten kaçınmasının veya en azından büyük ölçüde uzaklaşmasının birkaç yolu vardır.
Hangi adımların ortalama olduğunu anlamak için akıllı telefon tipik dijital becerilere sahip kullanıcıların alabileceği, Araştırma ve İnovasyondan Sorumlu Başkan Yardımcısı Andrew Gardner'a ulaştım. Gen Dijital, diğerlerinin yanı sıra Norton, Avast ve Avira gibi güvenilir güvenlik araçları sunan bir yazılım şirketidir.
Gardner, güvenlik protokollerinin temel düzeyde başladığını söylüyor. Kullanıcılar, profillerini gizli hale getirerek başlamalı veya en azından gönderi görünürlük ayarlarını, yalnızca karşılıklı olarak takip ettikleri kişilerin gönderilerini görebilmesi ve bunlarla etkileşim kurabilmesi için değiştirmelidir. Ebeveyn DenetimleriArtık neredeyse tüm büyük sosyal medya platformlarında kullanılabilen, koruyucuların herhangi bir şüpheli etkileşimi izleyebilmesi için özenle etkinleştirilmelidir.
Kişinin yalnızca tanıdığı kişilerden gelen istekleri kabul etmesi genel bir nasihattir, ancak fazladan bir adım atmak uzun bir yol kat edebilir. Gardner, "Ağ oluşturuyorsanız, ne kadar gerçek olduklarını ölçmek için davetlilerin son gönderilerini ve etkinliklerini kontrol edin" diyor ve birinin "hesaplara" karşı dikkatli olması gerektiğini ekliyor. birkaç arkadaşla veya ortak arkadaşlarla.” Gen Digital yöneticisinin vermesi gereken bir diğer önemli tavsiye, sosyal medyayı kontrol etmek ve kısıtlamaktır. oturumlar.

Kullanıcılar genellikle çevrimiçi hizmetleri ziyaret eder ve hesap oluşturma zahmetinden kaçınmak için sosyal medya oturum açma seçeneğini tercih ederler. "Bu, uygulamaların kişisel bilgilere erişmesini sağlıyor ve bazı durumlarda bu uygulamalar bu bilgileri üçüncü taraflara satıyor" diyor. Facebook'un karıştığı Cambridge Analytica skandalı harika bir örnek. Hangi uygulamaların sosyal medya hesaplarına bağlı olduğu periyodik olarak kontrol edilmeli ve gerekli olmadıkça erişimleri iptal edilmelidir.
Deepfakes, yapay zeka destekli karmaşık suçlardır, ancak Gardner, kullanıcıların yine de bazı temel güvenlik yönergelerine uyması gerektiğini önermektedir - örneğin iki faktörlü kimlik doğrulamayı etkinleştirmek, güçlü parolalar kullanmak, biyometrik geçiş anahtarlarını etkinleştirmek ve şüpheli veya bilinmeyen herhangi bir şeyden kaçınmak gibi. bağlantılar.
Sosyal medya güvenli ve sorumlu bir şekilde yapılır

Canopy'den Litwin, ne kadar çok paylaşırsanız inandırıcı derin sahtekarlıklar yaratmanın o kadar kolay hale geldiği görüşünde. Müstehcen materyal oluşturma konusunda herhangi bir kısıtlama olmaksızın gölgeli yapay zeka görüntü oluşturma modellerinde eksiklik yoktur. Bu araçlar, modeli eğitmek için görüntü girdilerine dayanır. Ne kadar çok eğitim verisi beslenirse, deepfake'ler o kadar doğru ve gerçekçi hale gelir.
Bu, ana akım AI görüntü oluşturucuları tarafından uygulanan standart taktiktir. MidJourney. Sosyal ağınız açıksa ve bol miktarda fotoğraf ve video içeriyorsa, kötü bir aktörün onları tehlikeye atarak derin sahtekarlıklar oluşturmaktan alıkoyması mümkün değildir. Ancak sosyal medyayı en değerli anılarınızı saklayabileceğiniz bir yer olarak görenlerdenseniz, almanız gereken birkaç önlem var. mutlak almak.

"Çevrimiçi olarak hangi kişisel bilgileri paylaştığınıza dikkat edin, hesaplarınızdaki gizlilik ayarlarını düzenleyin, iki faktörlü kimlik doğrulamayı etkinleştirin ve herhangi bir kusur için resimleri dikkatlice inceleyin" diyor. Boyd ClewisForbes Güvenlik Konseyi'nde siber güvenlik uzmanı ve "Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity" kitabının yazarı.
Ancak, derin sahtekarlıklar oluşturmak ve yaymak gibi karanlık eylemlerde bulunan kötü bir aktörün arkasında olması muhtemel bir sosyal medya profilini nasıl güvenilir bir şekilde tespit edebiliriz? “Şüpheli profillerden video veya ses materyali paylaşılıyorsa ve hesaplar herhangi bir kişisel bilgi veya Baltic Amadeus'ta bilgi güvenliği mimarı olan Tomas Samulis, fotoğraflarda profilin sahte olması muhtemeldir" diyor. Kişisel olarak tanımlanabilir bilgilerden yoksun bu tür profillerin özellikle sahte ve diğer tartışmalı bilgileri yaymak için oluşturulduğunu öne sürüyor.”
Deepfaked alırsanız ne yapmalısınız?

Ancak ortalama bir akıllı telefon kullanıcısının alabileceği çok fazla önlem var. En dijital bilgili kullanıcılar bile, sonrasında bile kendilerini siber suçların alıcı tarafında bulur. iki faktörlü kimlik doğrulama, özel profiller ve biyometrik gibi tüm standart araçları kullanarak güvenlik duvarları.
Tüm önlemleri almanıza rağmen kendinizi yine de derin bir suçun merkezinde bulursanız, meseleyi kendi elinize almak yerine uzman tavsiyesi ve yetkililerden yardım alın. Uzmanlar, bu tür bir tacizin üzerine oturmanın veya bunu kendi başlarına ihtiyatlı bir şekilde halletmeye çalışmanın genellikle mağdurların durumunu daha da kötüleştirdiğini belirtiyor.
"Birinin içeriğinizi kötüye kullandığını fark ederseniz, içeriğin kaldırılmasına yardımcı olması için telif hakkı yasasına aşina bir avukat arayın. Dallas Barosu üyesi ve siber güvenlik riski ve verileri gibi alanlarda lisanslı hukuk uzmanı olan Rob Scott, mümkün olan en kısa sürede" diyor. mahremiyet.
Canopy'den Litwin, dijital haklarınız konusunda size yol gösterebileceği için bir hukuk uzmanına danışmak çok önemlidir. Kanıt, mağdurlara “harap girişimine ilişkin mesajlar, e-postalar veya olayla ilgili herhangi bir iletişim biçimi gibi herhangi bir kanıtı belgelemelerini” tavsiye ediyor. gasp."
Bir başka önemli tavsiye de, mağdurun bir suçluyla tüm temasını derhal kesmesi gerektiğidir çünkü suçlu, daha ciddi şantaj talepleriyle onları daha fazla manipüle edebilir veya taciz edebilir. Aynı zamanda, kullanıcılar doğru önlemleri zamanında almak için bir siber güvenlik uzmanıyla iletişime geçmeli veya devletin siber suç yardım hatlarından birini çevirmelidir.
Deepfake'ler nasıl anlaşılır?

AI motorları giderek daha karmaşık hale geldikçe, ürettikleri derin sahtekarlıklar ürkütücü bir şekilde gerçek oluyor ve tespit edilmesi zorlaşıyor. Bununla birlikte, kullanıcıların sentetik olarak değiştirilmiş veya yapay zeka tarafından oluşturulmuş tehlikeli materyalleri tespit etmek için dikkat edebilecekleri birkaç işaret var.
Uzmanların sunması gereken derin sahte tanımlayıcıların bir derlemesi aşağıdadır:
- Doğal olmayan göz hareketlerine dikkat edin. Bir kişinin gözleri yanıp sönmüyorsa, göz hareketi kapalıysa veya yüz ifadeleri konuştukları kelimelerle senkronize görünmüyorsa, bu büyük olasılıkla bir deepfake kliptir. Duygu eksikliği veya tutarsız duygular, medyanın dijital olarak değiştirildiğini gösteren bir göstergedir.
- Gardner, "Deepfake teknolojisi tipik olarak yüz özelliklerine odaklanır" diyor. "Kişinin vücut şekli doğal görünmüyorsa veya hareketleri sarsıntılı ve tutarsızsa, video büyük ihtimalle derin sahtedir."
- Diğer bir güvenilir işaret, doğal olmayan bir şekilde bulanık görünebilen veya garip görsel eserler gösteren arka plandır. Deepfake'leri tespit etmenin bir başka kolay yolu da, özellikle etraftaki nesnelerin yüzü ve gölgesinde anormal renk bozulması veya ciddi renk uyumsuzluğu olup olmadığına bakmaktır.
- Bir kişinin "mükemmel saç" salladığı bir fotoğrafla karşılaşırsanız ve uçuşan birkaç saç teli veya kıvırcıklık gibi herhangi bir bireysel unsuru göremiyorsanız, dikkatli olun. AI modellerinin de dişlerle mücadele ettiği bilinmektedir. Doğal olmayan şekilde mükemmel olan veya tek tek dişler için dış hatları olmayan veya normal insan takma dişinden daha fazla diş olan dişlere dikkat edin.
- Yanlış hizalanmış vücut parçaları, bulanık kenarlar, birkaç ekstra veya daha az parmak, garip bir şekilde bükülmüş uzuvlar, senkronize olmayan hareket duraklamaların ve duygusal kırılmaların olmadığı bir ses, yakından dikkat etmeniz gereken diğer işaretlerdir. için. Samulis, "Sahte ses veya ses kayıtlarında genellikle arka plan gürültüsü, robotik sesler ve garip telaffuzlar bulunur" diye açıklıyor.
Yarı etkili çözümlerle ciddi bir sorun

Yukarıda açıklandığı gibi, derin sahtekarlıklara karşı kusursuz bir güvenlik ağı yoktur. Ancak fotoğrafları nerede paylaştığınıza, kimlerin görebileceğine ve sosyal medya erişiminizin ne kadar ileri gittiğine dikkat ederseniz nispeten güvenli bir bölgede kalabilirsiniz.
Ayrıca çevrimiçi arkadaşlarının kim olduğuna dikkat edilmeli ve yeni davetlileri sosyal medyadaki arkadaş çevrelerine eklemeden önce neler yaptıkları incelenmelidir. Deepfake söz konusu olduğunda, bu biraz zor. Ancak uyanık kalırsanız ve şüpheli bir fotoğraf veya videodaki tutarsızlıkları değerlendirmek için zaman ayırırsanız, derin sahteler oldukça yüksek bir doğrulukla tespit edilebilir.
Günün sonunda, her şey hijyenik çevrimiçi alışkanlıklar geliştirmek ve giderek artan bir şekilde sahteciliğe eğilimli bir çevrimiçi alanda uyanık kalmakla ilgili.
Editörlerin Önerileri
- Google Bard artık konuşabiliyor, ancak ChatGPT'yi bastırabilir mi?
- Elon Musk'ın yeni yapay zeka şirketi 'evreni anlamayı' hedefliyor
- Bilim adamları, AI buluşlarının arıların beyinlerinden gelebileceğini söylüyor
- OpenAI, ilk uluslararası karakolunun yerini açıkladı
- Ankete göre %81'i ChatGPT'nin bir güvenlik riski olduğunu düşünüyor