Anka Reuel endişeli bir insan değil: Bir gezgin olarak çok sayıda egzotik ülkeye seyahat etti. Triatlonda terliyor ve hardstyle müzik dinliyor. Ancak Amerikan seçkin Stanford Üniversitesi’ndeki BT doktora öğrencisini yönlendiren şey yapay zekanın (AI) riskleridir. Emekli nöroloji profesörü ve AI girişimcisi Gary Marcus ile birlikte, Nisan ayında The Economist dergisinde yeni teknolojinin küresel olarak koordineli bir şekilde düzenlenmesi çağrısında bulunduğu bir makale yayınladı. Almanya’da, AI’nın sorumlu kullanımı için endüstri, bilim ve siyaseti bir araya getirmeyi amaçlayan Kira düşünce kuruluşunun kurucularından biridir.
Bayan Reuel, ChatGPT piyasaya çıktığında halk çok hevesliydi. Senaristler ve aktörler, yapay zekanın (AI) işlerini mahvedeceğinden korktukları için şimdi Hollywood’da grevdeler. Yeni teknolojiye karşı çok saf mıydık?
Bunun için toplumu suçlayabileceğini sanmıyorum. Gelişme aslında uzmanları ve hatta sistem üzerinde çalışan geliştiricileri bile şaşırttı. Neredeyse hiç kimse ChatGPT’nin böyle bir darbe almasını beklemiyordu. Grev, bunun gerçekten de daha önce otomasyondan etkilenmeyeceğini düşündüğümüz birçok işe meydan okuyan yıkıcı bir teknoloji olduğunu gösteriyor.
Stanford’da yani Silikon Vadisi’nde çalışıyorsunuz. Teknoloji sektörünün kalbinde hava nasıl?
Konuşmalar çok değişti. Hem teknik yapay zeka güvenliği hem de yapay zeka yönetişimi üzerine araştırmama geçen Eylül ayında burada başladım. O zamanlar önlemlere ve düzenlemelere ihtiyacımız olduğundan bahsettiğimde, sık sık şunu duydum: “Neden? Olur!”. Çok daha iyimser bir hava vardı. ChatGPT piyasaya çıktıktan sonra üniversitemizdeki görüş çok değişti. Şimdi çok daha fazla meslektaşım gelip diyor ki: “Anka sen yönetimle bir şeyler yap. Riskler konusunda endişeliyim. Ne yapabiliriz?”
Amerikan seçkin üniversitesi Stanford’da bilgisayar bilimleri alanında doktora öğrencisi olan Anka Reuel, yapay zekanın sorumlu kullanımı için endüstri, bilim ve siyaseti bir araya getirmek istiyor.
© Kaynak: özel
İyimserlik gitti mi?
Her halükarda, tartışma yön değiştirdi. ChatGPT’ye kadar riskleri teknik çözümlerle yönetebileceğimiz inancı hakimdi. Artık bunun yeterli olmayacağına dair artan bir farkındalık var. Tüm aktörler için geçerli olan düzenlemelere ihtiyacımız var. Yapay zekanın sorumlu bir şekilde geliştirilmesi ve kullanılması için standartlar belirlenmelidir.
AI’nın en büyük tehlikelerini nerede görüyorsunuz?
Hem kısa vadeli hem de uzun vadeli bir dizi riskten bahsediyoruz. ChatGPT’nin yanlış beyanlarda bulunduğunu, iftira ve ayrımcılık yaptığını şimdiden görüyoruz. Kısa bir süre önce sözde ezmeyle ilgili raporlar var: sesler klonlanıyor ve birisi zorla girildiğini polise bildiriyor, polis daha sonra bir Özel Tim (bir görev gücü) ile uyuyan insanlara şüphelenmeden yaklaşıyor. Böyle bir şeyin sana ne yaptığını hayal etmelisin.
Sıradaki ne?
ChatGPT gibi sistemler şu anda kritik altyapıda çok az kullanılıyor veya hiç kullanılmıyor, ancak yapay zekanın burada da giderek daha fazla kullanılması beklenebilir. Ardından, hatalar olduğunda veya kötüye kullanım meydana geldiğinde, milyonlarca insan çok ciddi sonuçlarla karşı karşıya kalabilir.
Bu tür ağlar genellikle birbirine de bağlıdır. Bir bileşen saldırıya uğrarsa, hızla tüm sisteme yayılabilir. Otonom kararı yapay zekaya bırakmadığımızı söylesek ve makinenin tavsiyelerine göre karar vermek veya en azından kararı kontrol etmek için her zaman bir insanın orada olmasını istesek bile, bu bir risktir. Bir durum ne kadar karmaşıksa, insanların karar vermesi o kadar zor olur. Şüpheye düştüğünde, önerinin mantıklı olup olmadığını düşünmeden makineyi takip eder.
N’aber, Amerika?
Haftalık ABD haber bülteni, her Salı Amerikan siyaset, toplum ve kültür alanındaki gelişmeler hakkında arka plan bilgileri sağlar.
Robot daha sonra gerçekten gücü devralıyor mu?
Her halükarda, insanlar gönüllü olarak bir şeyleri etkileme yeteneklerinden vazgeçtikleri için aşağı yukarı tamamen özerk hale gelen yarı özerk bir yapay zeka kullandığımız tehlikeli durumlar ortaya çıkabilir.
Şu anda sorunun büyük bir ilgi gördüğü ve hükümetler üzerinde sorunla başa çıkma baskısının arttığı bir zaman aralığına sahip olduğumuza inanıyorum. Elbette zorlukları görüyorum: Bunu bir araya getirmenin zor olduğu hem ulusal hem de uluslararası birçok farklı çıkar grubu var. Öte yandan, özellikle AB ve Çin’deki düzenleme çabaları bana umut veriyor: Her iki bölgenin de kendi düzenlemelerinde uygulamak isteyeceği birçok benzer yapı taşı var. ABD’de de daha da ileri götürülen bir asgari konsensüs var. Somut mevzuat muhtemelen burada farklı görünecektir. Ancak uluslararası düzeyde ortak bir paydaya gelinebileceğine inanıyorum çünkü yapay zeka güvenliği, oldukça farklı motivasyonlardan dolayı tüm hükümetler için önemlidir. Ama kuşkusuz, kolay olmayacak.
AB Parlamentosu, Avrupa AI mevzuatını başlattı. Bu bir kalıp olabilir mi?
Bu, büyük ölçüde nihai tasarıma ve standartlarda ve ulusal yasalarda gerçekte nasıl uygulandığına bağlıdır. Şu anda, düzenlemenin etkinliğini değerlendirmek hala zordur.
Her durumda, çok hızlı olmayacak. Özellikle ABD’de değil. Gelecek yılın başkanlık yarışı için ön seçim kampanyası burada daha yeni başlıyor. Dijital bir bok gösterisi tarafından tehdit mi ediliyoruz?
Bundan gerçekten korkmalısın. Üretken video modellerinde ne kadar iyileştirme olduğuna ve insanların ne kadar aldatıcı bir şekilde sahte videolara yerleştirilebildiğine bağlı olarak, her iki taraf da güçlü bir dezenformasyon kampanyası tehdidinde bulunuyor. Bu, bilgiye olan güveni daha da aşındıracaktır. Gelecekte neyin doğru neyin yanlış olduğunu bulmak çok daha fazla zaman alacak. Zaten aşırı derecede kutuplaşmış bir ortamda söylem daha da zorlaşıyor. Bu, özellikle yerelde yaşayan biri olarak beni gerçekten endişelendiriyor.
Bayan Reuel, ChatGPT piyasaya çıktığında halk çok hevesliydi. Senaristler ve aktörler, yapay zekanın (AI) işlerini mahvedeceğinden korktukları için şimdi Hollywood’da grevdeler. Yeni teknolojiye karşı çok saf mıydık?
Bunun için toplumu suçlayabileceğini sanmıyorum. Gelişme aslında uzmanları ve hatta sistem üzerinde çalışan geliştiricileri bile şaşırttı. Neredeyse hiç kimse ChatGPT’nin böyle bir darbe almasını beklemiyordu. Grev, bunun gerçekten de daha önce otomasyondan etkilenmeyeceğini düşündüğümüz birçok işe meydan okuyan yıkıcı bir teknoloji olduğunu gösteriyor.
Stanford’da yani Silikon Vadisi’nde çalışıyorsunuz. Teknoloji sektörünün kalbinde hava nasıl?
Konuşmalar çok değişti. Hem teknik yapay zeka güvenliği hem de yapay zeka yönetişimi üzerine araştırmama geçen Eylül ayında burada başladım. O zamanlar önlemlere ve düzenlemelere ihtiyacımız olduğundan bahsettiğimde, sık sık şunu duydum: “Neden? Olur!”. Çok daha iyimser bir hava vardı. ChatGPT piyasaya çıktıktan sonra üniversitemizdeki görüş çok değişti. Şimdi çok daha fazla meslektaşım gelip diyor ki: “Anka sen yönetimle bir şeyler yap. Riskler konusunda endişeliyim. Ne yapabiliriz?”
Amerikan seçkin üniversitesi Stanford’da bilgisayar bilimleri alanında doktora öğrencisi olan Anka Reuel, yapay zekanın sorumlu kullanımı için endüstri, bilim ve siyaseti bir araya getirmek istiyor.
© Kaynak: özel
İyimserlik gitti mi?
Her halükarda, tartışma yön değiştirdi. ChatGPT’ye kadar riskleri teknik çözümlerle yönetebileceğimiz inancı hakimdi. Artık bunun yeterli olmayacağına dair artan bir farkındalık var. Tüm aktörler için geçerli olan düzenlemelere ihtiyacımız var. Yapay zekanın sorumlu bir şekilde geliştirilmesi ve kullanılması için standartlar belirlenmelidir.
AI’nın en büyük tehlikelerini nerede görüyorsunuz?
Hem kısa vadeli hem de uzun vadeli bir dizi riskten bahsediyoruz. ChatGPT’nin yanlış beyanlarda bulunduğunu, iftira ve ayrımcılık yaptığını şimdiden görüyoruz. Kısa bir süre önce sözde ezmeyle ilgili raporlar var: sesler klonlanıyor ve birisi zorla girildiğini polise bildiriyor, polis daha sonra bir Özel Tim (bir görev gücü) ile uyuyan insanlara şüphelenmeden yaklaşıyor. Böyle bir şeyin sana ne yaptığını hayal etmelisin.
Sıradaki ne?
ChatGPT gibi sistemler şu anda kritik altyapıda çok az kullanılıyor veya hiç kullanılmıyor, ancak yapay zekanın burada da giderek daha fazla kullanılması beklenebilir. Ardından, hatalar olduğunda veya kötüye kullanım meydana geldiğinde, milyonlarca insan çok ciddi sonuçlarla karşı karşıya kalabilir.
Elektrik veya internet gibi şeylerden bahsediyorsunuz.Şüpheye düştüğünde, insanlar kendilerini yansıtmadan makineyi takip ederler.
Bu tür ağlar genellikle birbirine de bağlıdır. Bir bileşen saldırıya uğrarsa, hızla tüm sisteme yayılabilir. Otonom kararı yapay zekaya bırakmadığımızı söylesek ve makinenin tavsiyelerine göre karar vermek veya en azından kararı kontrol etmek için her zaman bir insanın orada olmasını istesek bile, bu bir risktir. Bir durum ne kadar karmaşıksa, insanların karar vermesi o kadar zor olur. Şüpheye düştüğünde, önerinin mantıklı olup olmadığını düşünmeden makineyi takip eder.
N’aber, Amerika?
Haftalık ABD haber bülteni, her Salı Amerikan siyaset, toplum ve kültür alanındaki gelişmeler hakkında arka plan bilgileri sağlar.
Robot daha sonra gerçekten gücü devralıyor mu?
Her halükarda, insanlar gönüllü olarak bir şeyleri etkileme yeteneklerinden vazgeçtikleri için aşağı yukarı tamamen özerk hale gelen yarı özerk bir yapay zeka kullandığımız tehlikeli durumlar ortaya çıkabilir.
AI için kurallar dizisinin küresel olarak koordine edilmesini savunuyorlar. Bu mantıklı geliyor. Ama gerçekçi mi?ABD’de de daha da ileri götürülen bir asgari konsensüs var.
Şu anda sorunun büyük bir ilgi gördüğü ve hükümetler üzerinde sorunla başa çıkma baskısının arttığı bir zaman aralığına sahip olduğumuza inanıyorum. Elbette zorlukları görüyorum: Bunu bir araya getirmenin zor olduğu hem ulusal hem de uluslararası birçok farklı çıkar grubu var. Öte yandan, özellikle AB ve Çin’deki düzenleme çabaları bana umut veriyor: Her iki bölgenin de kendi düzenlemelerinde uygulamak isteyeceği birçok benzer yapı taşı var. ABD’de de daha da ileri götürülen bir asgari konsensüs var. Somut mevzuat muhtemelen burada farklı görünecektir. Ancak uluslararası düzeyde ortak bir paydaya gelinebileceğine inanıyorum çünkü yapay zeka güvenliği, oldukça farklı motivasyonlardan dolayı tüm hükümetler için önemlidir. Ama kuşkusuz, kolay olmayacak.
AB Parlamentosu, Avrupa AI mevzuatını başlattı. Bu bir kalıp olabilir mi?
Bu, büyük ölçüde nihai tasarıma ve standartlarda ve ulusal yasalarda gerçekte nasıl uygulandığına bağlıdır. Şu anda, düzenlemenin etkinliğini değerlendirmek hala zordur.
Her durumda, çok hızlı olmayacak. Özellikle ABD’de değil. Gelecek yılın başkanlık yarışı için ön seçim kampanyası burada daha yeni başlıyor. Dijital bir bok gösterisi tarafından tehdit mi ediliyoruz?
Bundan gerçekten korkmalısın. Üretken video modellerinde ne kadar iyileştirme olduğuna ve insanların ne kadar aldatıcı bir şekilde sahte videolara yerleştirilebildiğine bağlı olarak, her iki taraf da güçlü bir dezenformasyon kampanyası tehdidinde bulunuyor. Bu, bilgiye olan güveni daha da aşındıracaktır. Gelecekte neyin doğru neyin yanlış olduğunu bulmak çok daha fazla zaman alacak. Zaten aşırı derecede kutuplaşmış bir ortamda söylem daha da zorlaşıyor. Bu, özellikle yerelde yaşayan biri olarak beni gerçekten endişelendiriyor.