San Francisco. Yapay zekanın saygın uzmanları, teknolojinin tehlikeleri konusunda yeni ve sert bir uyarı yayınladı. Araştırmacılar, “Science” dergisinin yeni sayısındaki bir metinde, “Yeterli tedbir olmazsa, otonom yapay zeka sistemlerinin kontrolünü geri dönülemez şekilde kaybedebiliriz” diye yazdı. Olası yapay zeka riskleri arasında büyük ölçekli siber saldırılar, toplumsal manipülasyon, her yerde bulunan gözetim ve hatta “insanlığın neslinin tükenmesi” yer alıyor. Yazarlar arasında yapay zeka araştırmalarının önde gelen isimleri arasında yer alan Geoffrey Hinton, Andrew Yao ve Dawn Song gibi bilim insanları da yer alıyor.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
“Bilim” dergisindeki metnin yazarları, örneğin kendileri için belirlenen hedeflere ulaşmak için bilgisayarları bağımsız olarak kullanabilen otonom yapay zeka sistemleriyle özellikle ilgileniyorlar. Uzmanlar, iyi niyetli programların bile öngörülemeyen yan etkileri olabileceğini savunuyor. Yapay zeka yazılımının eğitilme şekli, spesifikasyonlarına sıkı sıkıya bağlı kaldığı için, ancak sonucun ne olması gerektiği konusunda hiçbir fikrim yok. Metinde, “Otonom yapay zeka sistemleri istenmeyen hedeflerin peşinden gittiğinde, onları artık kontrol altında tutamayabiliriz” diyor.
Seul'deki AI zirvesine ilişkin açıklama
Geçen yıl da dahil olmak üzere birçok kez benzer dramatik uyarılar yapıldı. Bu kez yayın Seul'deki yapay zeka zirvesine denk geliyor. Salı günkü iki günlük toplantının başlangıcında Google, Meta ve Microsoft gibi ABD şirketleri teknolojiyi sorumlu bir şekilde kullanma sözü verdi.
Devamını oku sonra Reklamcılık
Daha sonra okuyun Reklamcılık
ChatGPT geliştiricisi OpenAI'nin yapay zeka teknolojisinde öncü olarak yeterince sorumlu davranıp davranmadığı sorusu hafta sonu yeniden gündeme geldi. OpenAI'de AI yazılımını insanlar için güvenli hale getirmekten sorumlu olan geliştirici Jan Leike, istifasının ardından yönetici katındaki olumsuz rüzgarları eleştirdi. Leike, X'te son yıllarda “gösterişli ürünlerin” güvenliğe tercih edildiğini yazdı. “İnsanlardan daha akıllı yazılım geliştirmek doğası gereği tehlikeli bir girişimdir” diye uyardı. “Bizden çok daha akıllı olan” yapay zeka sistemlerinin nasıl kontrol edileceğini bulmak acildir.
Hayat ve biz
Sağlık, esenlik ve tüm aile için rehber – her iki perşembe.
Facebook'taki AI patronu endişelerin abartıldığını düşünüyor
OpenAI patronu Sam Altman, şirketinin yapay zeka yazılımının güvenliğini sağlamak için daha fazlasını yapmak zorunda hissettiğini söyledi. Facebook'un Meta grubundaki yapay zeka araştırmalarının başkanı Yann LeCun, böyle bir aciliyetin “bir ev kedisinden daha akıllı” sistemlerin ilk kez ortaya çıkmasını gerektireceğini söyleyerek buna karşı çıktı. Şu anda sanki 1925'te birileri, ses hızında okyanus boyunca yüzlerce yolcu taşıyan uçakları nasıl idare edeceğimizi acilen öğrenmemiz gerektiği konusunda uyarmış gibi. Yapay zeka teknolojisinin insanlar kadar akıllı olması uzun yıllar alacak ve uçaklarda olduğu gibi güvenlik önlemleri de yavaş yavaş gelecek.
Daha sonra okuyun Reklamcılık
Devamını oku sonra Reklamcılık
Haberler
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
“Bilim” dergisindeki metnin yazarları, örneğin kendileri için belirlenen hedeflere ulaşmak için bilgisayarları bağımsız olarak kullanabilen otonom yapay zeka sistemleriyle özellikle ilgileniyorlar. Uzmanlar, iyi niyetli programların bile öngörülemeyen yan etkileri olabileceğini savunuyor. Yapay zeka yazılımının eğitilme şekli, spesifikasyonlarına sıkı sıkıya bağlı kaldığı için, ancak sonucun ne olması gerektiği konusunda hiçbir fikrim yok. Metinde, “Otonom yapay zeka sistemleri istenmeyen hedeflerin peşinden gittiğinde, onları artık kontrol altında tutamayabiliriz” diyor.
Seul'deki AI zirvesine ilişkin açıklama
Geçen yıl da dahil olmak üzere birçok kez benzer dramatik uyarılar yapıldı. Bu kez yayın Seul'deki yapay zeka zirvesine denk geliyor. Salı günkü iki günlük toplantının başlangıcında Google, Meta ve Microsoft gibi ABD şirketleri teknolojiyi sorumlu bir şekilde kullanma sözü verdi.
Devamını oku sonra Reklamcılık
Daha sonra okuyun Reklamcılık
ChatGPT geliştiricisi OpenAI'nin yapay zeka teknolojisinde öncü olarak yeterince sorumlu davranıp davranmadığı sorusu hafta sonu yeniden gündeme geldi. OpenAI'de AI yazılımını insanlar için güvenli hale getirmekten sorumlu olan geliştirici Jan Leike, istifasının ardından yönetici katındaki olumsuz rüzgarları eleştirdi. Leike, X'te son yıllarda “gösterişli ürünlerin” güvenliğe tercih edildiğini yazdı. “İnsanlardan daha akıllı yazılım geliştirmek doğası gereği tehlikeli bir girişimdir” diye uyardı. “Bizden çok daha akıllı olan” yapay zeka sistemlerinin nasıl kontrol edileceğini bulmak acildir.
Hayat ve biz
Sağlık, esenlik ve tüm aile için rehber – her iki perşembe.
Facebook'taki AI patronu endişelerin abartıldığını düşünüyor
OpenAI patronu Sam Altman, şirketinin yapay zeka yazılımının güvenliğini sağlamak için daha fazlasını yapmak zorunda hissettiğini söyledi. Facebook'un Meta grubundaki yapay zeka araştırmalarının başkanı Yann LeCun, böyle bir aciliyetin “bir ev kedisinden daha akıllı” sistemlerin ilk kez ortaya çıkmasını gerektireceğini söyleyerek buna karşı çıktı. Şu anda sanki 1925'te birileri, ses hızında okyanus boyunca yüzlerce yolcu taşıyan uçakları nasıl idare edeceğimizi acilen öğrenmemiz gerektiği konusunda uyarmış gibi. Yapay zeka teknolojisinin insanlar kadar akıllı olması uzun yıllar alacak ve uçaklarda olduğu gibi güvenlik önlemleri de yavaş yavaş gelecek.
Daha sonra okuyun Reklamcılık
Devamını oku sonra Reklamcılık
Haberler