Birkaç gün önce Geoffrey Hinton 2024 Nobel Fizik Ödülü'nü kazandı. Araştırması, yeni yapay zeka (AI) biçimlerinin geliştirilmesine öncülük etmesiyle tanınıyor. Hinton ödülü, fikirlerini daha da geliştirebildiği meslektaşı John Hopfield ile paylaşıyor.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Ödül sonrası basın toplantısında bir gazetecinin Geoffrey Hinton'a çok güzel bir soru sormasıyla gerçekten unutulmaz bir an yaşandı. Bir keresinde, yapay zekanın yarattığı riskler nedeniyle, hayatı boyunca yaptığı çalışmaların bazı kısımlarından pişmanlık duyduğunu söylemişti. “Bugün bunun hakkında nasıl hissediyorsun?” gazeteciye sordu.
Hinton açık ve dürüst bir şekilde cevap verdi. Birinin bilerek yanlış bir şey yaptığında hissettiği türden bir pişmanlık duymuyor. Ama o zamanların bilgisiyle aynı şeyi tekrar yapabileceğine dair bir pişmanlık duygusuyla. Ama sonuçta bunun sonu iyi bitmiyor. Daha sonra Hinton konuya açıklık getirdi: “Genel sonuçlarının bizden daha akıllı ve kontrolü ele geçirme potansiyeli olan bir sistem olmasından endişe ediyorum.” Hinton'un bununla kastettiği, araştırmasıyla iyi niyetli olduğudur. O zamanlar daha iyisini bilmiyordu. Ama – pişman oluyor.
Nükleer savaş kadar tehlikeli
Hinton, yapay zekanın gelecekte toplum üzerindeki etkisi sorulduğunda zaten bir uyarı sesi vermişti. Verimlilikte güçlü bir iyileşme beklenebileceğini söyledi. “Ancak aynı zamanda olası olumsuz etkiler, özellikle de bu olayların kontrolden çıkması tehdidi konusunda da endişelenmemiz gerekiyor.” Hinton, yapay zekanın toplumsal etkisinin Sanayi Devrimi'ninkiyle karşılaştırılabilir olduğunu söyledi. Ancak bu sefer, o zamanki makineler gibi bizden daha güçlü olmayan ama daha akıllı olan bir şeyle karşı karşıyayız. Hinton, “Ve bir şeyin bizden daha akıllı olmasının nasıl bir şey olduğuna dair hiçbir deneyimimiz yok” diyor.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Araştırmacı uzun zamandır yapay zekanın riskleri konusunda bir uyarı olarak biliniyordu. Geçen yıl Hinton, kar amacı gütmeyen bir kuruluş olan Yapay Zeka Güvenliği Merkezi'nin web sitesinde yayınlanan bir çağrıyı imzaladı. Bu şu şekildedir: “Pandemiler veya nükleer savaş gibi topluma yönelik diğer risklerin yanı sıra yapay zekanın oluşturduğu tehditleri kontrol altına almak küresel bir öncelik olmalıdır.”
Askeri kullanıma karşı
ChatGPT geliştiricisi OpenAI'nin başkanı Sam Altman da itirazı imzaladı. Altman bir keresinde OpenAI'yi ilk atom bombasının yapımına yol açan ABD askeri araştırma projesi olan Manhattan Projesi'ne benzetmişti. Manhattan Projesi'nin başkanı Robert Oppenheimer'ın daha sonra pişmanlık duyduğu ve nükleer silahların daha fazla kullanılmasına karşı çıktığı söyleniyor.
Hayat ve biz
Sağlık, esenlik ve tüm aile için rehber – her iki perşembe.
Hinton, yapay zekanın geliştirilmesine dahil olduğu için ya da tam olarak onun tehlikeli olduğunu düşünen tek kişi değil. Ancak vicdan çatışmaları yaşamasına rağmen yapay zeka araştırmaları nedeniyle şu anda Nobel Ödülü alan tek kişi o. Hinton, küçük yaşlardan itibaren işinin neye dönüşebileceğini düşünmeye başladı. Bu yüzden Amerikan üniversitelerinde bilgisayar bilimleri profesörü olarak çalışmaya devam etmek zorunda kalmamak için ABD'den Kanada'ya taşındı. Yapay zeka alanındaki araştırmalar genellikle Savunma Bakanlığı tarafından finanse ediliyor. Ancak Hinton, otonom silahların ve savaş robotlarının yapımında olduğu gibi bunların askeri amaçlı kullanımını kesinlikle reddediyor.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Hinton sayesinde sohbet robotları mümkün oldu
Kanada'da eski öğrencileriyle birlikte Google tarafından satın alınan bir şirket kurdu. Hinton daha sonra yapay zekanın tehlikeleri hakkında çıkar çatışması olmadan özgürce konuşabilmek için Google'dan ayrıldı. Hinton'un bulguları, kendi kendine öğrenen yapay zekalar yaratmak için kullanılabilir. ChatGPT ve Google Bard gibi sohbet robotları bu şekilde mümkün hale geldi. Yapay zeka artık günlük yaşamda giderek daha fazla yer kaplayacak ve sonunda kontrolden çıkacak mı?
Bir zamanlar New York Times'a verdiği bir röportajda açıkladığı gibi, Hinton'un korktuğu da tam olarak bu. Bir yandan, chatbotların geleneksel arama motorlarının yerini giderek daha fazla alması tehlikesini görüyor. Klasik Google aramasının aksine bir sorun var: Sohbet robotları kaynakları belirleyemiyor. İçeriğiniz, yapay zekanın İnternetten ürettiği çok çeşitli bilgilerden otomatik olarak bir araya getirilir. Belirsiz gerçekle.
Belirsiz doğruluk
Bir chatbottan kaynak istenirse, yalnızca aldatıcı derecede gerçek görünen bilgileri tahrif edebilir. Ve sohbet robotları zaten birbirlerinden kopyalanıyor, dolayısıyla ilk bilgiler giderek daha fazla sulandırılıyor ve doğrulanması zorlaşıyor. Hinton, gelecekte İnternet'in yapay zeka tarafından oluşturulan fotoğraf, video ve metinlerle dolup taşacağından ve “ortalama bir insanın artık neyin doğru neyin yanlış olduğunu söyleyemeyeceğinden” korkuyor.
Diğer endişesi ise yapay zeka nedeniyle iş kaybı yaşanması, ki bu da zaten belirgin hale geliyor. Ayrıca Hinton, yapay zeka sistemlerinin kontrol edilemez hale gelmesinden endişe ediyor. Bu, bir yapay zekanın, büyük miktarda veriyle beslendiğinde genellikle tahmin edilmesi zor olan davranışları öğrendiği yönündeki gözlemine kadar uzanıyor. Bunun ne kadar tehlikeli olabileceği, yapay zekanın verdiği yanlış kararlardan kaynaklanabilecek sürücüsüz araçların karıştığı kazalarda görülebilir.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Yapay zeka aldatabilir ve aldatabilir
Başka bir örnek, bir yapay zekanın ne kadar kolay kontrolden çıkabileceğini gösteriyor: Yakın zamanda yapılan bir çalışmada araştırmacılar, yapay zeka sistemi “Cicero”nun bir oyunda defalarca adaletsiz davrandığını gösterdi. Ve bu, “çoğunlukla dürüst ve yardımsever” olacak ve diğer oyuncuları “asla kasıtlı olarak aldatmayacak” şekilde programlanmış olmasına rağmen. Bu sadece bir oyun olduğu sürece o kadar da kötü görünmüyor. Peki ya yapay zekanın gelecekte önemli kararlar üzerinde giderek daha fazla etkisi varsa? Son olarak Hinton, yapay zekanın kasıtlı olarak kötüye kullanılması tehlikesinden endişe ediyor: Hinton, New York Times'a “Onun kötü şeyler için kullanılmasını nasıl önleyebileceğinizi hayal etmek zor” dedi.
Nobel Ödülü'nün kurucusu Alfred Nobel'in de hayatı boyunca yaptığı çalışmalarla ilgili şüpheleri olduğu söyleniyor. Dinamiti icat etti ve bunun ölümcül patlayıcı saldırılar için de kullanılabileceğini anlayınca şok oldu. Bu nedenle Nobel, öncelikli olarak insanlığın yararına hizmet eden icatlara bir ödül bağışladı. Geoffrey Hinton yapay zekanın insanlığa yarardan çok zarar getireceğine inanıyorsa Nobel Ödülü'nü reddetmesi gerekmez miydi? Araştırmacı New York Times'a ödülün kendisi için olumlu bir şey olduğunu söyledi: Artık teknolojinin tehlikeleri konusunda uyarıda bulunduğunda daha ciddiye alınacaktı.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Ödül sonrası basın toplantısında bir gazetecinin Geoffrey Hinton'a çok güzel bir soru sormasıyla gerçekten unutulmaz bir an yaşandı. Bir keresinde, yapay zekanın yarattığı riskler nedeniyle, hayatı boyunca yaptığı çalışmaların bazı kısımlarından pişmanlık duyduğunu söylemişti. “Bugün bunun hakkında nasıl hissediyorsun?” gazeteciye sordu.
Hinton açık ve dürüst bir şekilde cevap verdi. Birinin bilerek yanlış bir şey yaptığında hissettiği türden bir pişmanlık duymuyor. Ama o zamanların bilgisiyle aynı şeyi tekrar yapabileceğine dair bir pişmanlık duygusuyla. Ama sonuçta bunun sonu iyi bitmiyor. Daha sonra Hinton konuya açıklık getirdi: “Genel sonuçlarının bizden daha akıllı ve kontrolü ele geçirme potansiyeli olan bir sistem olmasından endişe ediyorum.” Hinton'un bununla kastettiği, araştırmasıyla iyi niyetli olduğudur. O zamanlar daha iyisini bilmiyordu. Ama – pişman oluyor.
Nükleer savaş kadar tehlikeli
Hinton, yapay zekanın gelecekte toplum üzerindeki etkisi sorulduğunda zaten bir uyarı sesi vermişti. Verimlilikte güçlü bir iyileşme beklenebileceğini söyledi. “Ancak aynı zamanda olası olumsuz etkiler, özellikle de bu olayların kontrolden çıkması tehdidi konusunda da endişelenmemiz gerekiyor.” Hinton, yapay zekanın toplumsal etkisinin Sanayi Devrimi'ninkiyle karşılaştırılabilir olduğunu söyledi. Ancak bu sefer, o zamanki makineler gibi bizden daha güçlü olmayan ama daha akıllı olan bir şeyle karşı karşıyayız. Hinton, “Ve bir şeyin bizden daha akıllı olmasının nasıl bir şey olduğuna dair hiçbir deneyimimiz yok” diyor.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Araştırmacı uzun zamandır yapay zekanın riskleri konusunda bir uyarı olarak biliniyordu. Geçen yıl Hinton, kar amacı gütmeyen bir kuruluş olan Yapay Zeka Güvenliği Merkezi'nin web sitesinde yayınlanan bir çağrıyı imzaladı. Bu şu şekildedir: “Pandemiler veya nükleer savaş gibi topluma yönelik diğer risklerin yanı sıra yapay zekanın oluşturduğu tehditleri kontrol altına almak küresel bir öncelik olmalıdır.”
Askeri kullanıma karşı
ChatGPT geliştiricisi OpenAI'nin başkanı Sam Altman da itirazı imzaladı. Altman bir keresinde OpenAI'yi ilk atom bombasının yapımına yol açan ABD askeri araştırma projesi olan Manhattan Projesi'ne benzetmişti. Manhattan Projesi'nin başkanı Robert Oppenheimer'ın daha sonra pişmanlık duyduğu ve nükleer silahların daha fazla kullanılmasına karşı çıktığı söyleniyor.
Hayat ve biz
Sağlık, esenlik ve tüm aile için rehber – her iki perşembe.
Hinton, yapay zekanın geliştirilmesine dahil olduğu için ya da tam olarak onun tehlikeli olduğunu düşünen tek kişi değil. Ancak vicdan çatışmaları yaşamasına rağmen yapay zeka araştırmaları nedeniyle şu anda Nobel Ödülü alan tek kişi o. Hinton, küçük yaşlardan itibaren işinin neye dönüşebileceğini düşünmeye başladı. Bu yüzden Amerikan üniversitelerinde bilgisayar bilimleri profesörü olarak çalışmaya devam etmek zorunda kalmamak için ABD'den Kanada'ya taşındı. Yapay zeka alanındaki araştırmalar genellikle Savunma Bakanlığı tarafından finanse ediliyor. Ancak Hinton, otonom silahların ve savaş robotlarının yapımında olduğu gibi bunların askeri amaçlı kullanımını kesinlikle reddediyor.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Hinton sayesinde sohbet robotları mümkün oldu
Kanada'da eski öğrencileriyle birlikte Google tarafından satın alınan bir şirket kurdu. Hinton daha sonra yapay zekanın tehlikeleri hakkında çıkar çatışması olmadan özgürce konuşabilmek için Google'dan ayrıldı. Hinton'un bulguları, kendi kendine öğrenen yapay zekalar yaratmak için kullanılabilir. ChatGPT ve Google Bard gibi sohbet robotları bu şekilde mümkün hale geldi. Yapay zeka artık günlük yaşamda giderek daha fazla yer kaplayacak ve sonunda kontrolden çıkacak mı?
Bir zamanlar New York Times'a verdiği bir röportajda açıkladığı gibi, Hinton'un korktuğu da tam olarak bu. Bir yandan, chatbotların geleneksel arama motorlarının yerini giderek daha fazla alması tehlikesini görüyor. Klasik Google aramasının aksine bir sorun var: Sohbet robotları kaynakları belirleyemiyor. İçeriğiniz, yapay zekanın İnternetten ürettiği çok çeşitli bilgilerden otomatik olarak bir araya getirilir. Belirsiz gerçekle.
Belirsiz doğruluk
Bir chatbottan kaynak istenirse, yalnızca aldatıcı derecede gerçek görünen bilgileri tahrif edebilir. Ve sohbet robotları zaten birbirlerinden kopyalanıyor, dolayısıyla ilk bilgiler giderek daha fazla sulandırılıyor ve doğrulanması zorlaşıyor. Hinton, gelecekte İnternet'in yapay zeka tarafından oluşturulan fotoğraf, video ve metinlerle dolup taşacağından ve “ortalama bir insanın artık neyin doğru neyin yanlış olduğunu söyleyemeyeceğinden” korkuyor.
Diğer endişesi ise yapay zeka nedeniyle iş kaybı yaşanması, ki bu da zaten belirgin hale geliyor. Ayrıca Hinton, yapay zeka sistemlerinin kontrol edilemez hale gelmesinden endişe ediyor. Bu, bir yapay zekanın, büyük miktarda veriyle beslendiğinde genellikle tahmin edilmesi zor olan davranışları öğrendiği yönündeki gözlemine kadar uzanıyor. Bunun ne kadar tehlikeli olabileceği, yapay zekanın verdiği yanlış kararlardan kaynaklanabilecek sürücüsüz araçların karıştığı kazalarda görülebilir.
Daha sonra okuyun Reklamcılık
Daha sonra okuyun Reklamcılık
Yapay zeka aldatabilir ve aldatabilir
Başka bir örnek, bir yapay zekanın ne kadar kolay kontrolden çıkabileceğini gösteriyor: Yakın zamanda yapılan bir çalışmada araştırmacılar, yapay zeka sistemi “Cicero”nun bir oyunda defalarca adaletsiz davrandığını gösterdi. Ve bu, “çoğunlukla dürüst ve yardımsever” olacak ve diğer oyuncuları “asla kasıtlı olarak aldatmayacak” şekilde programlanmış olmasına rağmen. Bu sadece bir oyun olduğu sürece o kadar da kötü görünmüyor. Peki ya yapay zekanın gelecekte önemli kararlar üzerinde giderek daha fazla etkisi varsa? Son olarak Hinton, yapay zekanın kasıtlı olarak kötüye kullanılması tehlikesinden endişe ediyor: Hinton, New York Times'a “Onun kötü şeyler için kullanılmasını nasıl önleyebileceğinizi hayal etmek zor” dedi.
Nobel Ödülü'nün kurucusu Alfred Nobel'in de hayatı boyunca yaptığı çalışmalarla ilgili şüpheleri olduğu söyleniyor. Dinamiti icat etti ve bunun ölümcül patlayıcı saldırılar için de kullanılabileceğini anlayınca şok oldu. Bu nedenle Nobel, öncelikli olarak insanlığın yararına hizmet eden icatlara bir ödül bağışladı. Geoffrey Hinton yapay zekanın insanlığa yarardan çok zarar getireceğine inanıyorsa Nobel Ödülü'nü reddetmesi gerekmez miydi? Araştırmacı New York Times'a ödülün kendisi için olumlu bir şey olduğunu söyledi: Artık teknolojinin tehlikeleri konusunda uyarıda bulunduğunda daha ciddiye alınacaktı.