Rusya'nın Ukrayna ve Ortadoğu'daki savaşları sadece karadaki silahlarla yapılmıyor. Aynı zamanda dezenformasyon ve manipülasyonun bir ruh hali yaratmak için kullanıldığı savaşlardır. Sektör lideri OpenAI'nin artık blogunda yayınladığı gibi, bazı aktörler bunu yapmak için yapay zeka kullanıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
ChatGPT sağlayıcısı yakın zamanda beş vakaya yanıt verdi. Her durumda, platformlar bir ruh hali yaratmak, siyasi iklimi etkilemek veya çatışma durumlarını manipüle etmek için kötüye kullanıldı. Failler Rusya'da iki vakada ve Çin, İran ve İsrail'de birer vakada tespit edildi.
Yapay zeka uzmanı
Yapay zekanın ürettiği yalanlar saniyeler içinde dünya çapında yayılıyor
Amaç sadece Ukrayna'daki savaşa ve Ortadoğu çatışmasına müdahale etmek değil, aynı zamanda Hindistan'daki seçimleri baltalamak, Çin'i eleştirenleri kötü göstermek, Avrupa ve ABD'de siyasete yön vermek ve toplumları kutuplaştırmaktı. Bütün bunlar elbette gerçek kimliği ve gerçek ilgi alanlarını açığa vurmadan.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Yapay zeka uzmanı Michael Zerna, RedaktionsNetzwerk Deutschland'a (Haberler) şöyle açıklıyor: “Oyuncular rakibi karalamak ve kendini onaylamak istiyor.” “Bunun tek amacı rakibe zarar vermek.” Geçmişte yalanlar kulaktan kulağa yayılıyordu ama bugün tamamen farklı seçenekler var. “Sosyal medya aracılığıyla tüm dünyaya dağıtılan, montaj hattında yalanlar üretebilen yaratıcı makinelerimiz var.”
Çin, Rusya, İran ve İsrail'den aktörlerin OpenAI'yi manipüle ettiği söyleniyor
ChatGPT chatbotunun arkasındaki şirket olan OpenAI'nin şimdi yayınladığı örnekler, manipülasyonun zaten bilindiği 2018 ile bugün arasındaki vakalarla ilgilidir. Örneğin Rusya, Çin, İran ve İsrail'den aktörler farklı dillerde sosyal medya yorumları oluşturmak, manşetler ve makalelerin tamamını oluşturmak ve haber makalelerini taraflı sosyal medya gönderilerine dönüştürmek için OpenAI'nin yapay zekasını kullandı. Web siteleri de yapay zeka tarafından oluşturulan makalelerle beslendi ve yapay zekayı çalıştıran kodlar manipüle edildi.
OpenAI dört nokta belirledi: Yapay zeka, bir insanla mümkün olabilecekten daha fazla içerik oluşturmak amacıyla mevcut metinlere dayalı içerik oluşturmak için kullanıldı. Güvenilirliği artırmak için yapay zeka tarafından oluşturulan materyaller, kendi yazdığı metinlerin yanı sıra yayınlandı. Ayrıca aktörler, etkileşim (ve onay) numarası yapmak için sosyal medyada sahte hesaplar oluşturdu. OpenAI, yapay zekanın aynı zamanda ilgili aktörlerin üretkenliğini artırmaya da hizmet ettiğini yazıyor.
Yapay zeka birbirini doğrulayan sahte hesaplar oluşturuyor
Bunun arkasındaki prensip basittir: Önyargılı veya yanlış iddialar çevrimiçi hale geldiğinde, bir tür kendi kendini doğrulayan sarmal ortaya çıkar. Oyuncular, başlangıçta yapılan iddiayı anlayan ve onaylayan birçok bot ve sahte profil oluşturmak için yapay zekayı kullanıyor. Bu da erişimi artırır ve sosyal medya kullanıcılarını rahatsız edebilir: Bir şeyi yeterince sık duyarsanız veya okursanız, bir noktada ona inanma olasılığınız artar. Zerna, “Her sosyal medya kullanıcısının arkasında hükümet tarafından kontrol edilen bir bot olabilir” diye açıklıyor. Bunlar daha sonra gönderilere yanıt veriyor ve belirli bir anlatıyı doğrulamak için özenle yorum yapıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Zerna, “Yapay zeka, belirli bir hedefe ulaşmak için metinleri yeniden yorumlamak veya yeniden formüle etmek için dili kullanma yeteneğine sahip” diyor. Bazı yerlerde nimet olan bazı yerlerde istismar edilebiliyor. Zerna, bu tür metin araçlarını kendi şirketi Zerna.io'da da kullanıyor. Zerna, “Şu anda genel olarak anlaşılır olması ve halkın bunları ilginç bulması için ek materyallerle, ders olarak, şarkıyla birlikte 3.000 bilimsel yayın hazırlıyoruz” diyor. Yapay zekanın 3.000 farklı içerik parçasını işlemesi için bir aya ihtiyacı var ve her şey tamamen otomatik. “Bu mekanizma elbette siyasi bir gündemi hayata geçirmek için de kullanılabilir.”
Normal İnternet kullanıcıları botlarla gerçek insanları zorlukla ayırt edebilir
Ortalama bir sosyal medya kullanıcısının bu tür botları ve etkileri tanıması zordur. Botları açığa çıkaran özellikler tanımlandığında yapay zeka, bunların artık geçerli olmayacağı bir düzeye kadar gelişmiş olacaktır. Zerna, “Genel olarak bakıldığında burada demokrasi açısından büyük bir tehlike var çünkü gerçeklerin sürekli sorgulanması gerekiyor” diyor.
Yapay zeka uzmanı
Yapay zeka dedektörleri mevcut ancak yapay zeka içeriğini tespit etmek üzere eğitilmiş bir yapay zeka, yapay zeka tarafından oluşturulan içeriği göz ardı edecek şekilde kolayca yeniden programlanabilir. Zerna, “Yapay zeka güveni baltalıyor, artık bir şeyin doğru olup olmadığından emin olamayız” diye uyarıyor. “Son zamanlarda Instagram'daki “Tüm Gözler Refah'ta” görselinde gördüğümüz gibi, okumaya, yani yapay zeka tarafından oluşturulan görsellere görmeyi de eklersek, yapay zeka daha da güçlü hale gelir.”
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Yapay zeka olmadan savaş olmaz: Yapay zekanın manipülasyonu artacak
Bir zamanlar komplo teorisi olarak görülen “Ölü İnternet Teorisi” uzun vadede gerçeğe dönüşebilir. Teori, internette çok fazla sahte haber ve yapay zeka tarafından oluşturulan içerik bulunduğunu ve pek çok botun, İnternet'in artık bir bilgi kaynağı olarak hiçbir değerinin olmadığını yalnızca kendilerini doğruladığını belirtiyor. Zerna, “Günümüzde içerik üretmek çok kolay olduğundan teorinin doğru olduğu ortaya çıkabilir” diyor. Sorun alanının gelecekte daha da büyüyeceğine inanıyor: Yapay zeka kullanımı her çatışmada ve her seçimde daha da önemli hale geliyor. “Sosyal medyada manipülasyonun ve içeriğin hedeflenen kontrolünün gelecekte artacağını varsaymalıyız.”
OpenAI gibi endüstri devlerinin yapay zekanın kötüye kullanımını önlemek için tespit araçları ve önleyici tedbirleri olsa da bunlar her zaman yüzde 100 etkili olmuyor. Bu aynı zamanda şirketin Sam Altman tarafından yazılan blog yazısında da gösterilmektedir. Blog gönderisinde, “OpenAI, diğer teknoloji şirketlerinin de yaptığı gibi, daha geniş bir paydaş topluluğunda bilgi paylaşımını ve en iyi uygulamaları teşvik etmek için bu sonuçları yayınlıyor.”
Sonuçta OpenAI, bildiği kadarıyla manipülasyonun şu ana kadar pek işe yaramadığını ve operasyonların “izleyici ilgisinde veya erişiminde önemli bir artıştan fayda sağlamadığını” yazıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
ChatGPT sağlayıcısı yakın zamanda beş vakaya yanıt verdi. Her durumda, platformlar bir ruh hali yaratmak, siyasi iklimi etkilemek veya çatışma durumlarını manipüle etmek için kötüye kullanıldı. Failler Rusya'da iki vakada ve Çin, İran ve İsrail'de birer vakada tespit edildi.
Michael Zerna,Montaj hattında yalanlar üretebilen ve sosyal medya aracılığıyla tüm dünyaya dağıtılabilen yaratıcı makinelerimiz var.
Yapay zeka uzmanı
Yapay zekanın ürettiği yalanlar saniyeler içinde dünya çapında yayılıyor
Amaç sadece Ukrayna'daki savaşa ve Ortadoğu çatışmasına müdahale etmek değil, aynı zamanda Hindistan'daki seçimleri baltalamak, Çin'i eleştirenleri kötü göstermek, Avrupa ve ABD'de siyasete yön vermek ve toplumları kutuplaştırmaktı. Bütün bunlar elbette gerçek kimliği ve gerçek ilgi alanlarını açığa vurmadan.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Yapay zeka uzmanı Michael Zerna, RedaktionsNetzwerk Deutschland'a (Haberler) şöyle açıklıyor: “Oyuncular rakibi karalamak ve kendini onaylamak istiyor.” “Bunun tek amacı rakibe zarar vermek.” Geçmişte yalanlar kulaktan kulağa yayılıyordu ama bugün tamamen farklı seçenekler var. “Sosyal medya aracılığıyla tüm dünyaya dağıtılan, montaj hattında yalanlar üretebilen yaratıcı makinelerimiz var.”
Çin, Rusya, İran ve İsrail'den aktörlerin OpenAI'yi manipüle ettiği söyleniyor
ChatGPT chatbotunun arkasındaki şirket olan OpenAI'nin şimdi yayınladığı örnekler, manipülasyonun zaten bilindiği 2018 ile bugün arasındaki vakalarla ilgilidir. Örneğin Rusya, Çin, İran ve İsrail'den aktörler farklı dillerde sosyal medya yorumları oluşturmak, manşetler ve makalelerin tamamını oluşturmak ve haber makalelerini taraflı sosyal medya gönderilerine dönüştürmek için OpenAI'nin yapay zekasını kullandı. Web siteleri de yapay zeka tarafından oluşturulan makalelerle beslendi ve yapay zekayı çalıştıran kodlar manipüle edildi.
OpenAI dört nokta belirledi: Yapay zeka, bir insanla mümkün olabilecekten daha fazla içerik oluşturmak amacıyla mevcut metinlere dayalı içerik oluşturmak için kullanıldı. Güvenilirliği artırmak için yapay zeka tarafından oluşturulan materyaller, kendi yazdığı metinlerin yanı sıra yayınlandı. Ayrıca aktörler, etkileşim (ve onay) numarası yapmak için sosyal medyada sahte hesaplar oluşturdu. OpenAI, yapay zekanın aynı zamanda ilgili aktörlerin üretkenliğini artırmaya da hizmet ettiğini yazıyor.
Yapay zeka birbirini doğrulayan sahte hesaplar oluşturuyor
Bunun arkasındaki prensip basittir: Önyargılı veya yanlış iddialar çevrimiçi hale geldiğinde, bir tür kendi kendini doğrulayan sarmal ortaya çıkar. Oyuncular, başlangıçta yapılan iddiayı anlayan ve onaylayan birçok bot ve sahte profil oluşturmak için yapay zekayı kullanıyor. Bu da erişimi artırır ve sosyal medya kullanıcılarını rahatsız edebilir: Bir şeyi yeterince sık duyarsanız veya okursanız, bir noktada ona inanma olasılığınız artar. Zerna, “Her sosyal medya kullanıcısının arkasında hükümet tarafından kontrol edilen bir bot olabilir” diye açıklıyor. Bunlar daha sonra gönderilere yanıt veriyor ve belirli bir anlatıyı doğrulamak için özenle yorum yapıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Zerna, “Yapay zeka, belirli bir hedefe ulaşmak için metinleri yeniden yorumlamak veya yeniden formüle etmek için dili kullanma yeteneğine sahip” diyor. Bazı yerlerde nimet olan bazı yerlerde istismar edilebiliyor. Zerna, bu tür metin araçlarını kendi şirketi Zerna.io'da da kullanıyor. Zerna, “Şu anda genel olarak anlaşılır olması ve halkın bunları ilginç bulması için ek materyallerle, ders olarak, şarkıyla birlikte 3.000 bilimsel yayın hazırlıyoruz” diyor. Yapay zekanın 3.000 farklı içerik parçasını işlemesi için bir aya ihtiyacı var ve her şey tamamen otomatik. “Bu mekanizma elbette siyasi bir gündemi hayata geçirmek için de kullanılabilir.”
Normal İnternet kullanıcıları botlarla gerçek insanları zorlukla ayırt edebilir
Ortalama bir sosyal medya kullanıcısının bu tür botları ve etkileri tanıması zordur. Botları açığa çıkaran özellikler tanımlandığında yapay zeka, bunların artık geçerli olmayacağı bir düzeye kadar gelişmiş olacaktır. Zerna, “Genel olarak bakıldığında burada demokrasi açısından büyük bir tehlike var çünkü gerçeklerin sürekli sorgulanması gerekiyor” diyor.
Michael Zerna,Her sosyal medya kullanıcısının arkasında devletin kontrol ettiği bir bot olabilir.
Yapay zeka uzmanı
Yapay zeka dedektörleri mevcut ancak yapay zeka içeriğini tespit etmek üzere eğitilmiş bir yapay zeka, yapay zeka tarafından oluşturulan içeriği göz ardı edecek şekilde kolayca yeniden programlanabilir. Zerna, “Yapay zeka güveni baltalıyor, artık bir şeyin doğru olup olmadığından emin olamayız” diye uyarıyor. “Son zamanlarda Instagram'daki “Tüm Gözler Refah'ta” görselinde gördüğümüz gibi, okumaya, yani yapay zeka tarafından oluşturulan görsellere görmeyi de eklersek, yapay zeka daha da güçlü hale gelir.”
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Yapay zeka olmadan savaş olmaz: Yapay zekanın manipülasyonu artacak
Bir zamanlar komplo teorisi olarak görülen “Ölü İnternet Teorisi” uzun vadede gerçeğe dönüşebilir. Teori, internette çok fazla sahte haber ve yapay zeka tarafından oluşturulan içerik bulunduğunu ve pek çok botun, İnternet'in artık bir bilgi kaynağı olarak hiçbir değerinin olmadığını yalnızca kendilerini doğruladığını belirtiyor. Zerna, “Günümüzde içerik üretmek çok kolay olduğundan teorinin doğru olduğu ortaya çıkabilir” diyor. Sorun alanının gelecekte daha da büyüyeceğine inanıyor: Yapay zeka kullanımı her çatışmada ve her seçimde daha da önemli hale geliyor. “Sosyal medyada manipülasyonun ve içeriğin hedeflenen kontrolünün gelecekte artacağını varsaymalıyız.”
OpenAI gibi endüstri devlerinin yapay zekanın kötüye kullanımını önlemek için tespit araçları ve önleyici tedbirleri olsa da bunlar her zaman yüzde 100 etkili olmuyor. Bu aynı zamanda şirketin Sam Altman tarafından yazılan blog yazısında da gösterilmektedir. Blog gönderisinde, “OpenAI, diğer teknoloji şirketlerinin de yaptığı gibi, daha geniş bir paydaş topluluğunda bilgi paylaşımını ve en iyi uygulamaları teşvik etmek için bu sonuçları yayınlıyor.”
Sonuçta OpenAI, bildiği kadarıyla manipülasyonun şu ana kadar pek işe yaramadığını ve operasyonların “izleyici ilgisinde veya erişiminde önemli bir artıştan fayda sağlamadığını” yazıyor.