Görüntü manipülasyonları nasıl tanınır?

GokyuzuYankilari

Global Mod
Yetkili
Global Mod
Portreler oluşturmak kolaydır. Akıllı telefona bağlı olarak, “sihirli silgi” kullanarak rahatsız edici kişileri ve görüntü öğelerini fotoğraflardan kaldırmak önceden yüklenmiş bir işlevdir. Ancak fotoğraflarda daha fazla “değişiklik” yapmak için bile özel bir teknik bilgi gerekmez. “Stabil Difüzyon” ve “DALL-E” gibi görüntü oluşturucular, metin girişini görüntülere dönüştürebilir. Çok sayıda web sitesi teknolojiye erişimi kolaylaştırır.


Doktor gibi güvenilir bir kişinin inandırıcı fotoğraflarını icat etmek, mevcut makine öğrenimi modelleri için kolay bir iştir. Bu tür sahtekarlıkları fark etmenin kolay olduğunu düşünenler, British University of Lancaster’dan psikolog Sophie J. Nightingale tarafından yakın zamanda yapılan bir araştırmaya bakmalıdır. Neredeyse bir yıl önce, insanların gerçek yüzler ile yapay zeka (AI) tarafından oluşturulanlar arasında ayrım yapıp yapamayacağını araştırdı. Sonuç ayıltıcıydı: ortalama isabet oranı yüzde 48,2 idi. Denekler yazı tura atmış olabilir.

Kaynağın ne kadar güvenilir olduğu pek ilgilendirmiyor


Nightingale bir röportajda “İnsan algısının gerçeği sahteden ayırması giderek zorlaşıyor” diye açıklıyor. Bununla birlikte bilim adamı, görüntü manipülasyonunun genellikle yeni bir şey olmadığına da dikkat çekiyor – yüzyıllardır var. Tahminine göre, miktar farkı yaratıyor. Araştırmacı, çevrimiçi “bilgi bombardımanı”nın insanların iyi kararlar vermesini zorlaştırabileceğini söylüyor. Ve bu, hangi içeriğe inandıkları sorusu için de geçerlidir.


Kaliforniya’daki Davis Üniversitesi’nde iletişim bilimleri profesörü olan Cuihua Cindy Shen, insanların sahte ürünleri tanıyıp tanımadıklarını ve ne zaman tanıyabileceklerini araştırdı. Binlerce katılımcıyla yapılan bir çalışmada, sahte görüntülerin bu şekilde tanınıp tanınmadığını analiz etti. Manipülasyonlar kasıtlı olarak özellikle karmaşık değildi – örneğin görüntünün öğeleri silindi veya rötuşlandı. Bilim adamı, “Çok çeşitli konulardan fotoğraflar çektik ve bunları Photoshop ile kendimiz düzenledik” diye açıklıyor. En büyük bulgu: İnsanlar internet, görüntü işleme, fotoğrafçılık ve çevrimiçi medya hakkında ne kadar iyi bilgilendirilirse, sahte ürünleri o kadar iyi anlayabilirler.



güvenli şifre

Neden tek başına güçlü bir parola bile koruma sağlamaz?


Kedinin adı şifre mi? Ve her hesap için? Tembel parola seçimleri, siber suçluların işini kolaylaştırır. Ancak uzun ve karmaşık parolaları da bulabilirler ve bu nedenle çok fazla hasara neden olabilirler. Çevrimiçi hesaplarınızı gerçekten nasıl koruyabilirsiniz?

Kaynakların çok az etkisi vardır


Dolayısıyla eğitim, sahte içeriği açığa çıkarmaya yardımcı olur. Ancak Shen, insanların daha önce sahip olunan inançları doğrulayan görüntülere inanma olasılığının daha yüksek olduğunu keşfetti ve bunu, sahte haberlerin sosyal medyada neden bu kadar başarılı olduğunun olası bir açıklaması olarak görüyor. Shen’i şaşırtan şey ise sosyal faktörlerin ve deneyim değerlerinin “ölçülebilir bir rol oynamadığını” fark etmesiydi. Kaynağın ne kadar güvenilir derecelendirildiği, bağlantıyı kimin ilettiği, daha önce bir şeyin ne sıklıkla paylaşıldığı – tüm bunların çok az etkisi vardır. Daha önceki çalışmalara katılanlar “bu kriterleri kullandıklarını” söylediler.

İnternette kalpazanlıkla ilgili tartışma yeni değil. Yapay zeka tarafından oluşturulan inandırıcı portreler, birkaç yıl önce oldukça heyecan yarattı. Her şeyden önce, çeşitli teknolojileri geniş çapta erişilebilir kılan web sitelerinin ve uygulamaların sayısı yeni. İnternette sahtecilik ve manipülasyon tartışması görüntülerin çok ötesine geçiyor. “Sahte haber” terimi 2016’dan beri her yerde kullanılıyor. Mimikama derneği ise “internet kötüye kullanımı konusunda farkındalık yaratmak” için 2011’den beri var.

Kötü taklitler bile işe yarar – çok sayıda


Derneğin basın sözcüsü Andre Wolf, büyük ölçüde manipüle edilmiş fotoğraf ve görüntülerin haberleri tahrif etmek için kullanılıp kullanılmadığını sınıflandırabilir. Bu nadiren olur, diye açıklıyor. Wolf’a göre, görüntü manipülasyonu neredeyse her zaman sözde hibrit sahteciliklerle ilgilidir. Yöntem köklü ve teknik olarak basit: Fotoğraflar veya videolar mutlaka sonradan işlenmez, ancak “özellikle yanlış bağlama yerleştirilir” diye açıklıyor Wolf. Bunu Ukrayna savaşı örneğini kullanarak gösteriyor. Rus saldırısı başladıktan kısa bir süre sonra, bir hava gösterisinin, bir video oyununun ve 2015’te Çin’deki bir depo patlamasının video klipleri internette dolaşmaya başladı – savaşın sözde tüm görüntüleri yüzbinlerce kez paylaşıldı.

Bu gibi durumlarda görüntülerin kendisi sahte değildir. Yerleştirildikleri bağlam bir yalandır. Wolf, bu tür bir manipülasyonun maskesini düşürmenin de kolay olduğuna inanıyor. Sahte ürünlerin başarılı olması için daha iyi hale gelmesi gerekmiyor: “Mesele maskelerinin çıkıp çıkamayacağı değil, sadece kitlesel olarak ortaya çıkmaları” diye açıklıyor.

Wolf’a göre bu manipülasyon biçimi, duygusal bir etkiye sahip olduğu, hikayeler anlattığı ve “izleyicinin zihninde bir tepkiyi tetiklediği” sosyal medyada önemli bir rol oynamaya devam ediyor.

Gerçekliğe inanç da önemlidir


Belirli bir mesafe, eleştirel bir tutum çevrimiçi ortamda önemini koruyor. Psikolog Nightingale, 2017’de yaptığı bir çalışmada faydalarını zaten gösterdi – genellikle daha fazla görüntünün çevrimiçi olarak manipüle edildiğine inanan insanlar, “aynı zamanda orijinal fotoğraflar ile manipüle edilmiş fotoğrafları daha iyi ayırt edebildiler”. Ancak bunun ötesinde, Nightingale bir dengeyi önemli buluyor: “İnsanların sahteleri tanımasına ve yine de gerçekliğe inanmalarına yardımcı olmalıyız.”

Uzmanlar, optimal fon seçimi konusunda hemfikirdir. Eğitimle ilgili. İngiliz araştırmacı, insanların yaygın kalpazanlık yöntemlerinin farkında olması gerektiğini söylüyor. Shen çok yönlü bir “dijital medya yetkinliği için eğitim” talep ediyor ve aynı zamanda bir denge çağrısında bulunuyor. Her şeyin sahte olduğu yönündeki kapsamlı varsayım da aynı şekilde ters tepiyor.” Wolf ayrıca, bilgileri kendilerinin inceleyebilecekleri “insanlara araçları gösterme ve açıklama” çağrısında bulunuyor. Dolayısıyla, manipüle edilmiş görüntüler sorunu değişiyor olabilir, ancak temelde yeni değil Ve araçlar da buna karşı değil.

Sahteleri tanıma – bu bağlantılar yardımcı olacaktır


Gerçekleri kendiniz kontrol edin:

Hoaxsearch, Mimikama’nın sahte araması: www.hoaxsearch.com/


Google: https://google.com/

TinEye, ters görsel arama: https://tineye.com/

Şuradaki güncel durum kontrolleri:

Düzeltme: https://correctiv.org/fatencheck/

dpa: https://dpa-factchecking.com/germany/

AFP: https://factencheck.afp.com/list


Mimikama: https://www.mimikama.org/
 
Üst