Güven önemlidir. Ancak bir şeye güvenirsek onu kullanırız. Genellikle teknolojiye güvenmeye alışığız. Seve seve uçağa biniyoruz ve yolculuğumuzu ve bir ölçüde de hayatımızı sistemlere ve elbette pilotların becerilerine güveniyoruz.
Bunun iyi nedenleri var: Pilotlar iyi eğitimlidir. Uçak bakımına ilişkin katı düzenlemeler vardır. Sayısız güvenlik sistemi kuruludur. Günlük başarılı uçuşlarla karşılaştırıldığında kaza sayısı yok denecek kadar azdır. Bu örnek diğer birçok teknolojiye uygulanabilir. Makinelerin biz insanlardan daha az hataya açık ve daha tarafsız görülmesi alışılmadık bir durum değil.
Çok fazla ve çok az güven
Ancak yapay zeka (AI) ile çoğu insan tam olarak bu deneyimden, bu günlük hayattan, güvenlikten ve nihayetinde güvenden yoksundur. Duisburg-Essen Üniversitesi’nde sosyal psikoloji profesörü Nicole Krämer, “Şu anda aşırı güven ile yetersiz güven arasında çok fazla dalgalanma yaşıyoruz” diyor.
Gerçekten endişelenmemiz gereken beş yapay zeka tehdidi
Şu anda yapay zeka tehlikeleri hakkında pek çok uyarı var. Maalesef çoğu zaman yanlış insanların önünde. Hangi korkular abartılıyor ve bizi asıl endişelendiren şey ne? Bir seçim.
Bir yandan araştırmalar, halk arasında yapay zekaya karşı büyük bir şüphenin olduğunu gösteriyor. İnsanların yalnızca borç verme, tazminat ödemeleri veya tıbbi teşhislerle ilgili kararları verirken daha iyi muhakeme gücüne sahip olduklarına inanılmıyor; aynı zamanda telefon yardım hattında veya hizmet sohbetinde etten kemikten danışmanlar da tercih ediliyor.
Öte yandan yapay zeka uygulamalarını abartma eğilimi de var. Aniden insanlar yarı otonom arabalarda gazete okumaya başlıyor veya gerçekleri kontrol etmeden ChatGPT’ye tüm dönem ödevlerini yazdırıyor.
Teknolojinin potansiyelini ve sınırlamalarını bilin
LMU Münih tarafından yapılan bir çalışmada, test denekleri sözde yapay zeka desteğiyle Schafkopf oynadı. Araştırmacılar onlara tuhaf bir hikaye anlattı. Akıllı yazılım, ölçülen beyin dalgalarından duyulamayan bir ses üretir ve bu, oyun ilerledikçe bilişsel yetenekleri geliştirir.
Sonuç: Test denekleri, sözde yapay zeka desteğiyle risk alma konusunda önemli ölçüde daha istekli davrandılar. Onun kesin inancı: Makine hatalarını düzeltecektir. “Her ikisi de (aşırı şüphecilik ve aşırı güven) ileriye giden bir yol değil. Kullanıcılar olarak teknolojinin potansiyeli ve aynı zamanda sınırları hakkında daha yakından düşünmemiz gerekiyor ve onun güvenilirliği hakkında kendi kararımızı verme gibi zor bir görevle karşı karşıyayız” diyor Krämer.
Perde arkasına bir bakış
Yapay zeka uygulamaları günlük hayatımıza girdikçe ve bazen bizim adımıza kararlar aldıkça, bu kişisel tartışma daha da önemli hale geliyor. Büyük zorluk: Bir yapay zeka uygulamasının perde arkasına bakmak ne konuyla ilgilenen sıradan kişiler ne de araştırmacılar için hiç de önemsiz değildir.
Hangi verilerle eğitiliyor ve sonuçlar nasıl ortaya çıkıyor? Algoritmaları programlayan teknoloji şirketlerinin hedefleri neler? Yapay zeka uygulaması gerçekten güvenilir mi, yoksa hemen belli olmayan ölümcül hatalar bile yapıyor olabilir mi? Neyse ki bariz bir çözüm var: Yapay zeka uygulamaları için bir tür DIN standardı olan bağlayıcı standartlar. “Bilginin sorumluluğu yalnızca kullanıcılara ait olamaz. Geliştiriciler için şeffaflık yükümlülüklerine ihtiyacımız var. Aksi takdirde bir yapay zeka uygulamasına güvenip güvenemeyeceğimize pek karar veremeyiz” diyor Krämer.
Sanal Evcil Hayvanlar: İnsanın Yeni En İyi Arkadaşı mı?
Furby’ye sarılmak, Alexa ile sohbet etmek, Replika ile flört etmek; dijital arkadaşlara alışıyoruz. Özellikle çocuklar için bazı gadget’lar ve uygulamalar gerçekten canlı hissettiriyor. Ancak sıklıkla ebeveynlerde korkuya neden olurlar.
AB yapay zekayı düzenlemek istiyor
İyi haber: Avrupa Birliği yapay zeka uygulamaları için yasal ve etik bir çerçeve oluşturmak istiyor. “Yapay Zeka Yasası” olarak adlandırılan yasa, dünyadaki ilk yapay zeka yasalarından biridir. Açıklanan amaç: Yapay zeka uygulamaları insanların temel haklarını kısıtlamamalı veya ihlal etmemeli, zarar vermemeli, adil ve şeffaf kalmalıdır.
Bu, güvenlik, sağlık veya temel haklara yönelik risklere göre derecelendirilen yapay zeka sistemlerinin geliştirilmesi, eğitimi ve izlenmesine yönelik gereksinimlerle sağlanmalıdır. Mevcut taslakta dört seviye öngörülüyor: kabul edilemez, yüksek, düşük ve uygulamanın oluşturduğu minimum risk.
Farklı aşamalar
Karayolu trafiğindeki veya güç kaynağındaki kritik altyapı, yüz tanıma veya kolluk kuvvetleri gibi yüksek riskli yapay zeka sistemleri için gereksinimler özellikle yüksektir. AB’ye göre, eğitim verilerinin kalitesine özellikle yüksek talepler konulmalı, tüm kararlar belgelenmeli ve sonuçta sürekli insan gözetimi garanti edilmelidir.
Öte yandan bir telekomünikasyon sağlayıcısının veya bir sigorta şirketinin chatbot’u düşük ila minimum düzeyde risk taşır. Ancak şeffaflık yükümlülükleri burada da geçerli olmalıdır. Kullanıcılar her zaman bir insanla mı yoksa bir makineyle mi konuştuğunu veya sohbet ettiğini bilmelidir. Görüntüler veya ses kayıtları gibi yapay olarak oluşturulmuş içerikler de açıkça etiketlenmelidir.
Henüz mühür yok
Saarbrücken’deki Alman Yapay Zeka Araştırma Merkezi’nde profesör olan Philipp Slusallek’in bakış açısına göre yapay zeka yasası, hem yapay zekayı geliştiren insanlar hem de onu kullananlar için acilen ihtiyaç duyulan bir adımdır. “Açık kurallar ve yönergeler sayesinde geliştiriciler, uygulamalar üzerinde çalışmak için daha iyi bir çerçeveye sahip oluyor ve artık günümüzün hukuk sisteminin dışında kalmıyorlar. Kalite mühürleri ve sertifikalar kullanıcılar için yeni bir güvenilirlik düzeyi yaratıyor” diyor.
AB girişimine rağmen, güvenilir yapay zeka uygulamalarına yönelik bir tür TÜV mührüne hâlâ birkaç adım uzaktayız. Kalite mühürlerine yönelik ilk yaklaşımlar öncelikle yoğun gelişim desteğine dayanır ve örneğin dış uzmanlar tarafından “izleme” yapılmasını öngörür.
Slusallek için bu sadece bir ilk adım. “İdeal olarak, kullanıcıya, ister teşhis aracı kullanan doktor olsun, ister dönem ödevini araştırmak için ChatGPT kullanan öğrenci olsun, uygulamanın ne kadar iyi ve güvenilir bir şekilde çalıştığına dair bir olasılık verebiliriz.”
“Bayan Matthes, Bakan Heil yapay zekadan ne anlıyor?”
Çalışma Bakanı Hubertus Heil, 2035 yılına kadar tüm çalışanların yapay zeka uygulamalarıyla karşı karşıya kalacağını öngörüyor. Bu değerlendirme ne kadar gerçekçi? Peki bu mutlu olmak için bir neden mi, değil mi?
Bu sadece güvenden daha fazlası ile ilgili
Bu bilginin sonuçları daha sonra kendimiz tarafından belirlenmeli veya bazı durumlarda sosyal bir tartışmaya ihtiyaç duyulmalıdır. Görüntülemedeki bir teşhis aracının akciğer kanserinin yüzde 97’sini tespit etmesinden memnun muyuz ve yüzde üç yanlış teşhis ve buna karşılık gelen yanlış tedaviyi tolere edebilir miyiz? Bugün olduğundan çok daha az insanı yaralasa da bir çocuğa çarpma ihtimali çok düşük olan otonom araçların yollara çıkmasına izin veriyor muyuz? Arabalar aniden çok güvenli bir şekilde otonom olarak hareket ettiğinde ve teşhis araçları kanseri çok güvenilir bir şekilde teşhis ettiğinde “aşırı güven” ile nasıl başa çıkacağız?
Toplumun, siyasetin ve bilimin bu soruları acilen ele alması ve mümkün olan en kısa sürede çözüm bulması gerekiyor. Sonuçta yapay zeka hızla gelişiyor ve onun için test laboratuvarı günlük hayatımızın bir parçası. Pek çok kullanım durumu halihazırda hukuk sisteminin ve ahlaki kavramların sınırındadır. Gelişmekte olan şirketlerin dürüstlüğüne güvenmek saflıktan da öte bir şey gibi görünüyor.
Bu, haklarımızı ve değerlerimizi korumak için gerekirse yasaklarla yasa ve kurallar oluşturmayı daha da önemli hale getiriyor. Çünkü hayatlarımızı değiştirebilecek ve iyileştirebilecek birçok iyi yapay zeka fikrine duyulan güveni yaratan da tam olarak budur.
Bunun iyi nedenleri var: Pilotlar iyi eğitimlidir. Uçak bakımına ilişkin katı düzenlemeler vardır. Sayısız güvenlik sistemi kuruludur. Günlük başarılı uçuşlarla karşılaştırıldığında kaza sayısı yok denecek kadar azdır. Bu örnek diğer birçok teknolojiye uygulanabilir. Makinelerin biz insanlardan daha az hataya açık ve daha tarafsız görülmesi alışılmadık bir durum değil.
Çok fazla ve çok az güven
Ancak yapay zeka (AI) ile çoğu insan tam olarak bu deneyimden, bu günlük hayattan, güvenlikten ve nihayetinde güvenden yoksundur. Duisburg-Essen Üniversitesi’nde sosyal psikoloji profesörü Nicole Krämer, “Şu anda aşırı güven ile yetersiz güven arasında çok fazla dalgalanma yaşıyoruz” diyor.
Gerçekten endişelenmemiz gereken beş yapay zeka tehdidi
Şu anda yapay zeka tehlikeleri hakkında pek çok uyarı var. Maalesef çoğu zaman yanlış insanların önünde. Hangi korkular abartılıyor ve bizi asıl endişelendiren şey ne? Bir seçim.
Bir yandan araştırmalar, halk arasında yapay zekaya karşı büyük bir şüphenin olduğunu gösteriyor. İnsanların yalnızca borç verme, tazminat ödemeleri veya tıbbi teşhislerle ilgili kararları verirken daha iyi muhakeme gücüne sahip olduklarına inanılmıyor; aynı zamanda telefon yardım hattında veya hizmet sohbetinde etten kemikten danışmanlar da tercih ediliyor.
Öte yandan yapay zeka uygulamalarını abartma eğilimi de var. Aniden insanlar yarı otonom arabalarda gazete okumaya başlıyor veya gerçekleri kontrol etmeden ChatGPT’ye tüm dönem ödevlerini yazdırıyor.
Teknolojinin potansiyelini ve sınırlamalarını bilin
LMU Münih tarafından yapılan bir çalışmada, test denekleri sözde yapay zeka desteğiyle Schafkopf oynadı. Araştırmacılar onlara tuhaf bir hikaye anlattı. Akıllı yazılım, ölçülen beyin dalgalarından duyulamayan bir ses üretir ve bu, oyun ilerledikçe bilişsel yetenekleri geliştirir.
Sonuç: Test denekleri, sözde yapay zeka desteğiyle risk alma konusunda önemli ölçüde daha istekli davrandılar. Onun kesin inancı: Makine hatalarını düzeltecektir. “Her ikisi de (aşırı şüphecilik ve aşırı güven) ileriye giden bir yol değil. Kullanıcılar olarak teknolojinin potansiyeli ve aynı zamanda sınırları hakkında daha yakından düşünmemiz gerekiyor ve onun güvenilirliği hakkında kendi kararımızı verme gibi zor bir görevle karşı karşıyayız” diyor Krämer.
Perde arkasına bir bakış
Yapay zeka uygulamaları günlük hayatımıza girdikçe ve bazen bizim adımıza kararlar aldıkça, bu kişisel tartışma daha da önemli hale geliyor. Büyük zorluk: Bir yapay zeka uygulamasının perde arkasına bakmak ne konuyla ilgilenen sıradan kişiler ne de araştırmacılar için hiç de önemsiz değildir.
Hangi verilerle eğitiliyor ve sonuçlar nasıl ortaya çıkıyor? Algoritmaları programlayan teknoloji şirketlerinin hedefleri neler? Yapay zeka uygulaması gerçekten güvenilir mi, yoksa hemen belli olmayan ölümcül hatalar bile yapıyor olabilir mi? Neyse ki bariz bir çözüm var: Yapay zeka uygulamaları için bir tür DIN standardı olan bağlayıcı standartlar. “Bilginin sorumluluğu yalnızca kullanıcılara ait olamaz. Geliştiriciler için şeffaflık yükümlülüklerine ihtiyacımız var. Aksi takdirde bir yapay zeka uygulamasına güvenip güvenemeyeceğimize pek karar veremeyiz” diyor Krämer.
Sanal Evcil Hayvanlar: İnsanın Yeni En İyi Arkadaşı mı?
Furby’ye sarılmak, Alexa ile sohbet etmek, Replika ile flört etmek; dijital arkadaşlara alışıyoruz. Özellikle çocuklar için bazı gadget’lar ve uygulamalar gerçekten canlı hissettiriyor. Ancak sıklıkla ebeveynlerde korkuya neden olurlar.
AB yapay zekayı düzenlemek istiyor
İyi haber: Avrupa Birliği yapay zeka uygulamaları için yasal ve etik bir çerçeve oluşturmak istiyor. “Yapay Zeka Yasası” olarak adlandırılan yasa, dünyadaki ilk yapay zeka yasalarından biridir. Açıklanan amaç: Yapay zeka uygulamaları insanların temel haklarını kısıtlamamalı veya ihlal etmemeli, zarar vermemeli, adil ve şeffaf kalmalıdır.
Bu, güvenlik, sağlık veya temel haklara yönelik risklere göre derecelendirilen yapay zeka sistemlerinin geliştirilmesi, eğitimi ve izlenmesine yönelik gereksinimlerle sağlanmalıdır. Mevcut taslakta dört seviye öngörülüyor: kabul edilemez, yüksek, düşük ve uygulamanın oluşturduğu minimum risk.
Farklı aşamalar
Karayolu trafiğindeki veya güç kaynağındaki kritik altyapı, yüz tanıma veya kolluk kuvvetleri gibi yüksek riskli yapay zeka sistemleri için gereksinimler özellikle yüksektir. AB’ye göre, eğitim verilerinin kalitesine özellikle yüksek talepler konulmalı, tüm kararlar belgelenmeli ve sonuçta sürekli insan gözetimi garanti edilmelidir.
Öte yandan bir telekomünikasyon sağlayıcısının veya bir sigorta şirketinin chatbot’u düşük ila minimum düzeyde risk taşır. Ancak şeffaflık yükümlülükleri burada da geçerli olmalıdır. Kullanıcılar her zaman bir insanla mı yoksa bir makineyle mi konuştuğunu veya sohbet ettiğini bilmelidir. Görüntüler veya ses kayıtları gibi yapay olarak oluşturulmuş içerikler de açıkça etiketlenmelidir.
Henüz mühür yok
Saarbrücken’deki Alman Yapay Zeka Araştırma Merkezi’nde profesör olan Philipp Slusallek’in bakış açısına göre yapay zeka yasası, hem yapay zekayı geliştiren insanlar hem de onu kullananlar için acilen ihtiyaç duyulan bir adımdır. “Açık kurallar ve yönergeler sayesinde geliştiriciler, uygulamalar üzerinde çalışmak için daha iyi bir çerçeveye sahip oluyor ve artık günümüzün hukuk sisteminin dışında kalmıyorlar. Kalite mühürleri ve sertifikalar kullanıcılar için yeni bir güvenilirlik düzeyi yaratıyor” diyor.
AB girişimine rağmen, güvenilir yapay zeka uygulamalarına yönelik bir tür TÜV mührüne hâlâ birkaç adım uzaktayız. Kalite mühürlerine yönelik ilk yaklaşımlar öncelikle yoğun gelişim desteğine dayanır ve örneğin dış uzmanlar tarafından “izleme” yapılmasını öngörür.
Slusallek için bu sadece bir ilk adım. “İdeal olarak, kullanıcıya, ister teşhis aracı kullanan doktor olsun, ister dönem ödevini araştırmak için ChatGPT kullanan öğrenci olsun, uygulamanın ne kadar iyi ve güvenilir bir şekilde çalıştığına dair bir olasılık verebiliriz.”
“Bayan Matthes, Bakan Heil yapay zekadan ne anlıyor?”
Çalışma Bakanı Hubertus Heil, 2035 yılına kadar tüm çalışanların yapay zeka uygulamalarıyla karşı karşıya kalacağını öngörüyor. Bu değerlendirme ne kadar gerçekçi? Peki bu mutlu olmak için bir neden mi, değil mi?
Bu sadece güvenden daha fazlası ile ilgili
Bu bilginin sonuçları daha sonra kendimiz tarafından belirlenmeli veya bazı durumlarda sosyal bir tartışmaya ihtiyaç duyulmalıdır. Görüntülemedeki bir teşhis aracının akciğer kanserinin yüzde 97’sini tespit etmesinden memnun muyuz ve yüzde üç yanlış teşhis ve buna karşılık gelen yanlış tedaviyi tolere edebilir miyiz? Bugün olduğundan çok daha az insanı yaralasa da bir çocuğa çarpma ihtimali çok düşük olan otonom araçların yollara çıkmasına izin veriyor muyuz? Arabalar aniden çok güvenli bir şekilde otonom olarak hareket ettiğinde ve teşhis araçları kanseri çok güvenilir bir şekilde teşhis ettiğinde “aşırı güven” ile nasıl başa çıkacağız?
Toplumun, siyasetin ve bilimin bu soruları acilen ele alması ve mümkün olan en kısa sürede çözüm bulması gerekiyor. Sonuçta yapay zeka hızla gelişiyor ve onun için test laboratuvarı günlük hayatımızın bir parçası. Pek çok kullanım durumu halihazırda hukuk sisteminin ve ahlaki kavramların sınırındadır. Gelişmekte olan şirketlerin dürüstlüğüne güvenmek saflıktan da öte bir şey gibi görünüyor.
Bu, haklarımızı ve değerlerimizi korumak için gerekirse yasaklarla yasa ve kurallar oluşturmayı daha da önemli hale getiriyor. Çünkü hayatlarımızı değiştirebilecek ve iyileştirebilecek birçok iyi yapay zeka fikrine duyulan güveni yaratan da tam olarak budur.