Berlin. Uzmanların yaptığı bir çalışma, yapay zeka yardımıyla oluşturulan görselleri, videoları ve ses kayıtlarını etiketlemeye yönelik günümüz yöntemlerinde önemli eksiklikler olduğu konusunda uyarıda bulunuyor. İnternet Vakfı Mozilla, Pazartesi günü yayınlanan bir raporda, kullanıcılar tarafından görülebilen işaretlerin yanıltıcı olabileceğini ve tespit edilmesi zor olabileceğini, aynı zamanda kaldırılmasının da nispeten kolay olduğunu vurguladı. Yapay zeka tarafından oluşturulan içeriğe otomatik olarak yerleştirilen teknik filigranlar daha sağlam bir çözümdür. Ancak burada da, bu bilgilerin öncelikle kullanıcıların cihazlarındaki yazılım tarafından okunması ve onlara görüntülenmesi gerektiğine dair bir uyarı bulunmaktadır.
Mozilla araştırmacısı Ramak Molavi Vasse'i, içeriğin etiketlenmesine ilişkin düzenlemelerin çoğu zaman boşa çıktığı konusunda uyardı. Sonuçta, sözde deepfake'ler genellikle özellikle yanıltmak için yaratılıyor. Eğer endüstri öz-denetim konusunda ilerleme kaydedemezse daha fazla baskı olması gerekir. Genel olarak, kötü amaçlı kullanıma karşı önlemlerin en baştan düşünülmediği ve kurulmadığı bir teknolojinin şu anda dolaşıma sokulması bir sorundur. Buna ek olarak, tek tip bir standart yerine, bunun için hala çeşitli prosedürlerin yaygınlaşması söz konusudur.
Yapay Zeka: Gerçekten ne kadar kötüleşecek?
İnsanlar yapay zekadan bahsettiğinde en kötü korku senaryolarını duyuyorlar. Orada gerçekten neler oluyor?
Kaynak: Haberler
Yapay zeka yazılımıyla, metin özelliklerinden giderek daha gerçekçi fotoğraflar oluşturabilirsiniz. Ve artık bu şekilde giderek daha fazla video üretiliyor – ChatGPT geliştiricisi OpenAI yakın zamanda video yazılımı Sora'yı tanıttı. Mozilla uzmanı, Sora'nın durumunda yapay zekanın kökenini gösteren, küçük ve çoğu zaman görülmesi zor olan görünür işareti eleştirdi.
Ses sahtekarlıkları sözde torun hilesi için kullanılıyor
Özellikle bu yıl, ABD başkanlık seçimleri ve Avrupa seçimleriyle birlikte, yapay zeka kullanılarak oluşturulan sahte ürünlerin sonuçları etkilemek için kullanılabileceğine dair büyük endişeler var. ABD'de, Demokrat Parti'nin New Hampshire eyaletindeki ön seçimlerinden kısa bir süre önce, Başkan Joe Biden'ın yanıltıcı derecede gerçek sesinin insanlara oylamadan uzak durma çağrısı yaptığı otomatik çağrılar vardı.
Bu tür sahte seslerin büyük bir sorun olduğu düşünülüyor çünkü bunları hatalara veya plakalara göre tespit etmenin daha az yolu var. Suçluların akrabalar adına para çalmaya çalıştığı sözde torun hilesi için bu tür kayıtların kullanıldığı durumlar zaten mevcut.
Haberler
Mozilla araştırmacısı Ramak Molavi Vasse'i, içeriğin etiketlenmesine ilişkin düzenlemelerin çoğu zaman boşa çıktığı konusunda uyardı. Sonuçta, sözde deepfake'ler genellikle özellikle yanıltmak için yaratılıyor. Eğer endüstri öz-denetim konusunda ilerleme kaydedemezse daha fazla baskı olması gerekir. Genel olarak, kötü amaçlı kullanıma karşı önlemlerin en baştan düşünülmediği ve kurulmadığı bir teknolojinin şu anda dolaşıma sokulması bir sorundur. Buna ek olarak, tek tip bir standart yerine, bunun için hala çeşitli prosedürlerin yaygınlaşması söz konusudur.
Yapay Zeka: Gerçekten ne kadar kötüleşecek?
İnsanlar yapay zekadan bahsettiğinde en kötü korku senaryolarını duyuyorlar. Orada gerçekten neler oluyor?
Kaynak: Haberler
Yapay zeka yazılımıyla, metin özelliklerinden giderek daha gerçekçi fotoğraflar oluşturabilirsiniz. Ve artık bu şekilde giderek daha fazla video üretiliyor – ChatGPT geliştiricisi OpenAI yakın zamanda video yazılımı Sora'yı tanıttı. Mozilla uzmanı, Sora'nın durumunda yapay zekanın kökenini gösteren, küçük ve çoğu zaman görülmesi zor olan görünür işareti eleştirdi.
Ses sahtekarlıkları sözde torun hilesi için kullanılıyor
Özellikle bu yıl, ABD başkanlık seçimleri ve Avrupa seçimleriyle birlikte, yapay zeka kullanılarak oluşturulan sahte ürünlerin sonuçları etkilemek için kullanılabileceğine dair büyük endişeler var. ABD'de, Demokrat Parti'nin New Hampshire eyaletindeki ön seçimlerinden kısa bir süre önce, Başkan Joe Biden'ın yanıltıcı derecede gerçek sesinin insanlara oylamadan uzak durma çağrısı yaptığı otomatik çağrılar vardı.
Bu tür sahte seslerin büyük bir sorun olduğu düşünülüyor çünkü bunları hatalara veya plakalara göre tespit etmenin daha az yolu var. Suçluların akrabalar adına para çalmaya çalıştığı sözde torun hilesi için bu tür kayıtların kullanıldığı durumlar zaten mevcut.
Haberler