Hannover. Yapay zeka hayatımızı kolaylaştıracak mı, yoksa hepimizi öldürecek mi? Yapay zeka endüstrisi birkaç yıldır bu soruyu tartışıyor – şimdi anlaşmazlık bir kez daha OpenAI'yi etkiliyor. Sohbet programı ChatGPT ile tanınan yapay zeka şirketi, risk ve güvenlik ekibini dağıttı. Sürece aşina olan bir kişi bunu ABD'li yayıncı CNBC'ye doğruladı ve bunu ilk olarak Wired dergisi bildirdi. Geçen hafta takım liderleri Ilya Sutskever ve Almanya doğumlu Jan Leike, OpenAI'den ayrıldıklarını duyurdular.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Leike, Cuma günü OpenAI yönetim ekibini suçlayan bir dizi tweet yayınladı. Leike, “Bizden çok daha akıllı olan yapay zeka sistemlerinin nasıl yönetileceğini ve kontrol edileceğini acilen çözme ihtiyacı nedeniyle bu işi bırakmak şimdiye kadar yaptığım en zor şeylerden biriydi” diye yazdı. OpenAI'ye katıldı çünkü buranın “bu araştırmayı yapmak için dünyadaki en iyi yer” olduğuna inanıyordu. Görünüşe göre, gönderiler olayın bu şekilde gerçekleşmediğini gösteriyor.
Leike, “Şirketin temel öncelikleri konusunda OpenAI'nin liderliğine bir süredir katılmıyorum” diye devam etti. Geliştirici, güvenlik, gözetim, hazırlık, koruma ve düşmanlara karşı sağlamlık konularında daha fazla çalışma yapılması gerektiğini söylüyor. Ancak son aylarda güvenlik ekibi “rüzgara karşı” yola çıktı. Ilya Sutskever'in açıklaması biraz daha uzlaşmacı gibi görünüyor – ancak altta yatan eleştiri burada da parlıyor: “OpenAI'nin hem güvenli hem de kullanışlı bir AGI (editörün notu: genel yapay zeka) oluşturacağından emin” veda yazısında şöyle yazıyor: X.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Risk ekibi yapay zekayı kontrol etmeli
Sutskever ve Leike liderliğindeki sözde süper hizalama ekibi 2023 yazında tanıtıldı. Yapay zeka şirketi o dönemde web sitesinde şöyle yazıyordu: “Süper zeka, insanlığın şimdiye kadar icat ettiği en etkili teknoloji olacak (… ). Ancak süper zekanın muazzam gücü aynı zamanda çok tehlikeli olabilir ve insanlığın güçsüzleşmesine, hatta insanlığın yok olmasına yol açabilir.”
Bu nedenle güvenlik ekibinin, en kötü senaryoda akıllı yapay zeka sistemlerinin insan niyetlerini takip etmemesini sağlayacak önlemler geliştirmesi gerekiyor. Şirket o dönemde şunu kabul etmişti: “Potansiyel olarak süper zeki bir yapay zekayı yönlendirecek veya kontrol edecek ve onun kötüye gitmesini engelleyecek bir çözümümüz şu anda yok.” Bu, yeni bilimsel ve teknik atılımlar gerektirir.
Önde gelen araştırmacı ve geliştiricilerden oluşan bir ekip bu konuda birlikte çalışmalıdır. OpenAI bu görev için bilgi işlem gücünün yüzde 20'sini sağlamak istiyor. Ancak buna açıkça uyulmadı; en azından mevcut istifalar bunu gösteriyor. Wired'a göre güvenlik ekibi şu anda dağıldı ve eski üyelerin şirketin diğer alanlarında çalıştığı bildiriliyor. OpenAI şirketi başlangıçta medyaya yorum yapmadı.
ChatGPT ve Co.'nun nasıl daha iyi yanıtlar sağladığına dair yedi ipucu
Chatbotlardan gelen yanıtlar, yalnızca kullanıcılarının verdiği komutlar kadar iyidir. Akıllı metinler üretmek istiyorsanız ChatGPT and Co.'ya mümkün olduğunca ayrıntılı ve anlaşılır talimatlar vermelisiniz. Bu yönlendirmelerle nelere dikkat etmeniz gerektiğini açıklıyoruz.
Yön konusundaki anlaşmazlık Altmann'ın ihraç edilmesine yol açtı
Ancak şirketteki mevcut gelişmeler pek de şaşırtıcı değil; şirkette güvenlik konusundaki anlaşmazlık bir süredir devam ediyor. Geçen sonbaharda bu durum OpenAI patronu Sam Altman'ın kısa süreliğine işten çıkarılmasına bile yol açtı.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
OpenAI, 2015 yılında Altman ve Elon Musk tarafından kuruldu ve başından beri belirli bir hedefi vardı. Uzun vadede hayatı kolaylaştıracak “insan pozitif yapay zeka” geliştirilmelidir. OpenAi, kar elde etmenin yalnızca ikincil bir rol oynaması gereken, kar amacı gütmeyen bir kuruluş olmalıdır. Altman o dönemde OpenAI'nin “dünyaya ait olacağını” açıklamıştı.
Ancak eleştirmenler bu odağın zamanla giderek gözden kaybolduğu görüşünde. Altmann, yapay zeka girişimini, kar amacı gütmeyen bir araştırma laboratuvarından, kar amacı güden bir teknoloji şirketine giderek daha fazla dönüştürmeye başladı. Yatırımcılar arandı ve Altman da dev Microsoft ile milyar dolarlık işbirliğine girdi. Medyanın sonbaharda bildirdiğine göre, bu durum grubun yönetim kurulu arasında artan memnuniyetsizliğe neden oldu. Bu döneme ait makaleler, yön meselesinde derin bir iç ayrılığı ortaya koyuyor.
Liderlik ekibinde bir ileri bir geri
Güvenlik meselesi de rol oynadı. Bazı yönetim kurulu üyelerinin yapay zeka gelişmelerinin yarattığı tehlikeler konusunda giderek daha fazla endişe duydukları ve Altman'ın bunlara yeterince dikkat etmediği söyleniyor. Şüphecilerden biri de şu anda kamuoyu önünde istifa eden OpenAI kurucu üyesi Ilya Sutskever'di.
Kasım ayında yön konusundaki anlaşmazlık o kadar arttı ki, Sam Altman yapay zeka şirketinin liderliğinden ayrılmak zorunda kaldı. Altman daha sonra OpenAI'ye büyük yatırım yapan şirket olan Microsoft'a geçecekti. Ancak OpenAI'nin 770 çalışanından 700'ü onu takip etmekle tehdit etti; bu da fiilen şirketin sonu anlamına gelirdi. Altman şirkete geri getirildi ve Mart ayından bu yana tekrar yönetim kurulunda yer alıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Bunun aynı zamanda yön anlaşmazlığını da belirlediği düşünülebilir; Altman sonuçta güç mücadelesinden galip çıktı. Ancak durum o kadar da net kalmadı. Şüpheci Sutskever, sektör uzmanlarını şaşırtacak şekilde, Altman'a rağmen şirkette aylarca daha kaldı ve hatta güvenlik ekibine liderlik etti. Geliştirici daha sonra Altman'a karşı çıkma kararından pişman olduğunu açıkladı. Leike'nin artık işi bırakıyor olması ve tüm güvenlik ekibinin dağıtılıyor olması sektörde büyük tartışmalara neden oluyor. Geliştiriciler, yön konusundaki iç anlaşmazlığın yeniden arttığını gördüklerinde hangi tehlikeleri gördüler?
Yapay zeka ne kadar tehlikeli olabilir?
Açık olan bir şey var: Yapay zeka gelişmelerinin tehlikeleri hakkındaki tartışma yalnızca OpenAI şirketini değil tüm sektörü bölüyor. Bazıları yapay zekanın insanlığın en büyük başarısı olduğuna ve yakın gelecekte hayatı önemli ölçüde iyileştireceğine inanırken, diğerleri yıllardır süper zeki bir yapay zekanın insanlığı bile yok edebileceğine dair korku senaryoları çiziyor.
Bu çatışma, önde gelen teknoloji beyinlerinin geçen yılın başında yapay zeka gelişiminin geçici olarak durdurulmasını talep eden açık bir mektubu imzalamasıyla kamuoyuna açık bir şekilde ortaya çıktı. İmzacılar arasında Elon Musk ve eski Apple mühendisi Steve Wozniak da vardı. Mevcut gelişmenin kontrolsüz devam etmesi halinde tüm insanlığı tehdit edecektir. Mektupta, yapay zeka sistemlerinin bizimkine benzer bir zeka düzeyi geliştirme yolunda ilerlediği ve “Dünyadaki yaşamın tarihinde derin bir değişime” yol açtığı belirtildi.
Karşı konuşma hemen ardından geldi: Örneğin Stokastik Papağanlar grubu, diğer şeylerin yanı sıra şunları söyleyen bir mektup yayınladı: “Müreffeh ya da potansiyel olarak felaket vaat eden, hayal ürünü yapay zeka destekli bir ütopya ya da kıyametle dikkatinizi dağıtmak tehlikelidir. gelecek.” Yapay zeka insana benzeyen bir yaratık değil. Sorumluluk teknolojiye değil, yaratıcılarına aittir. Seattle'daki Washington Üniversitesi'nde dil bilimi profesörü ve yapay zeka uzmanı olan Emily Bender, bir keresinde Die Zeit'e şunları söylemişti: “Bir yapay zeka sisteminin kötü niyetli planlar yapabileceğini ve ardından kendi iradesini uygulamaya çalışabileceğini öne süren her şey saçmalıktır.” .”
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Daha fazla araştırmacı şirketten ayrıldı
Yapay zeka güvenliğine ilişkin araştırma çalışmalarının bugün OpenAI'de hala hangi öncelikli araştırma konusu olduğu belli değil. Ancak gelişmeler, Altman'ın bir kez daha üstünlüğü ele geçireceğini ve şirket için fikirlerini zorlamaya devam edeceğini gösteriyor.
Wired'ın haberine göre, iki kıdemli bilim insanının ayrılmasından önce en az altı araştırmacının Kasım ayından bu yana güvenlik ekibinden ayrıldığı söyleniyor. Biri Vox dergisine şunları söyledi: “OpenAI'nin liderliğine ve onun yapay genel zekayı sorumlu bir şekilde ele alma becerisine olan güvenimi yavaş yavaş kaybettim, bu yüzden istifa ettim.”
Sam Altman, Sutskever'in ayrılışıyla ilgili olarak X hakkında şunları yazdı: “Bu beni çok üzüyor. İlya şüphesiz neslimizin en büyük beyinlerinden biri, alanımızın parlak bir örneği ve değerli bir dostumuzdur.” 2017'den beri OpenAI'de bulunan araştırma lideri Jakub Pachocki, kıdemli bilim insanı olarak Sutskever'in yerini alacak. Gelecekte risk araştırmalarına Jon Schulman liderlik edecek.
Süper bir yapay zeka hâlâ düzenlenebilir mi?
OpenAI'yi çevreleyen kargaşa, Avrupa Birliği'nin yapay zekayı düzenlemek için yeni bir yasa çıkarmasıyla ortaya çıkıyor. Salı günü AB ülkeleri teknolojiyle ilgili daha katı kurallar üzerinde anlaşmaya vardı. Yasanın AB'de yapay zeka kullanımını daha güvenli hale getirmesi amaçlanıyor. Yapay zeka sistemlerinin mümkün olduğunca şeffaf, anlaşılır, çevre dostu ve ayrımcı olmamasının sağlanması amaçlanıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Ancak yeni yasanın olası süper yapay zeka tehlikesine karşı çok az yanıtı var. Kanun, yüksek riskli sistemler için risk yönetimi ve siber güvenliği zorunlu kılmaktadır. Yapay Zeka Yasası olarak adlandırılan yasa aynı zamanda yapay zeka sistemlerinin yalnızca diğer teknolojiler tarafından değil, insanlar tarafından da izlenmesini sağlamayı amaçlıyor. Ancak şüphecilere inanıyorsanız, o zaman potansiyel olarak tehlikeli bir süper yapay zeka ile bu artık mümkün olmayacaktır.
OpenAir geçen yıl güvenlik ekibini kurduğunda şunu yazdı: “İnsanlar bizden çok daha akıllı olan yapay zeka sistemlerini güvenilir bir şekilde izleyemeyecek.” Amaç daha ziyade yapay zekayı izleyen yapay zeka sistemleri geliştirmektir. Mevcut gelişmelere bakıldığında, sorumluların bu projenin hakkını verip vermeyeceğinden en azından şüphe duyulabilir.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Leike, Cuma günü OpenAI yönetim ekibini suçlayan bir dizi tweet yayınladı. Leike, “Bizden çok daha akıllı olan yapay zeka sistemlerinin nasıl yönetileceğini ve kontrol edileceğini acilen çözme ihtiyacı nedeniyle bu işi bırakmak şimdiye kadar yaptığım en zor şeylerden biriydi” diye yazdı. OpenAI'ye katıldı çünkü buranın “bu araştırmayı yapmak için dünyadaki en iyi yer” olduğuna inanıyordu. Görünüşe göre, gönderiler olayın bu şekilde gerçekleşmediğini gösteriyor.
Leike, “Şirketin temel öncelikleri konusunda OpenAI'nin liderliğine bir süredir katılmıyorum” diye devam etti. Geliştirici, güvenlik, gözetim, hazırlık, koruma ve düşmanlara karşı sağlamlık konularında daha fazla çalışma yapılması gerektiğini söylüyor. Ancak son aylarda güvenlik ekibi “rüzgara karşı” yola çıktı. Ilya Sutskever'in açıklaması biraz daha uzlaşmacı gibi görünüyor – ancak altta yatan eleştiri burada da parlıyor: “OpenAI'nin hem güvenli hem de kullanışlı bir AGI (editörün notu: genel yapay zeka) oluşturacağından emin” veda yazısında şöyle yazıyor: X.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Risk ekibi yapay zekayı kontrol etmeli
Sutskever ve Leike liderliğindeki sözde süper hizalama ekibi 2023 yazında tanıtıldı. Yapay zeka şirketi o dönemde web sitesinde şöyle yazıyordu: “Süper zeka, insanlığın şimdiye kadar icat ettiği en etkili teknoloji olacak (… ). Ancak süper zekanın muazzam gücü aynı zamanda çok tehlikeli olabilir ve insanlığın güçsüzleşmesine, hatta insanlığın yok olmasına yol açabilir.”
Bu nedenle güvenlik ekibinin, en kötü senaryoda akıllı yapay zeka sistemlerinin insan niyetlerini takip etmemesini sağlayacak önlemler geliştirmesi gerekiyor. Şirket o dönemde şunu kabul etmişti: “Potansiyel olarak süper zeki bir yapay zekayı yönlendirecek veya kontrol edecek ve onun kötüye gitmesini engelleyecek bir çözümümüz şu anda yok.” Bu, yeni bilimsel ve teknik atılımlar gerektirir.
Önde gelen araştırmacı ve geliştiricilerden oluşan bir ekip bu konuda birlikte çalışmalıdır. OpenAI bu görev için bilgi işlem gücünün yüzde 20'sini sağlamak istiyor. Ancak buna açıkça uyulmadı; en azından mevcut istifalar bunu gösteriyor. Wired'a göre güvenlik ekibi şu anda dağıldı ve eski üyelerin şirketin diğer alanlarında çalıştığı bildiriliyor. OpenAI şirketi başlangıçta medyaya yorum yapmadı.
ChatGPT ve Co.'nun nasıl daha iyi yanıtlar sağladığına dair yedi ipucu
Chatbotlardan gelen yanıtlar, yalnızca kullanıcılarının verdiği komutlar kadar iyidir. Akıllı metinler üretmek istiyorsanız ChatGPT and Co.'ya mümkün olduğunca ayrıntılı ve anlaşılır talimatlar vermelisiniz. Bu yönlendirmelerle nelere dikkat etmeniz gerektiğini açıklıyoruz.
Yön konusundaki anlaşmazlık Altmann'ın ihraç edilmesine yol açtı
Ancak şirketteki mevcut gelişmeler pek de şaşırtıcı değil; şirkette güvenlik konusundaki anlaşmazlık bir süredir devam ediyor. Geçen sonbaharda bu durum OpenAI patronu Sam Altman'ın kısa süreliğine işten çıkarılmasına bile yol açtı.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
OpenAI, 2015 yılında Altman ve Elon Musk tarafından kuruldu ve başından beri belirli bir hedefi vardı. Uzun vadede hayatı kolaylaştıracak “insan pozitif yapay zeka” geliştirilmelidir. OpenAi, kar elde etmenin yalnızca ikincil bir rol oynaması gereken, kar amacı gütmeyen bir kuruluş olmalıdır. Altman o dönemde OpenAI'nin “dünyaya ait olacağını” açıklamıştı.
Ancak eleştirmenler bu odağın zamanla giderek gözden kaybolduğu görüşünde. Altmann, yapay zeka girişimini, kar amacı gütmeyen bir araştırma laboratuvarından, kar amacı güden bir teknoloji şirketine giderek daha fazla dönüştürmeye başladı. Yatırımcılar arandı ve Altman da dev Microsoft ile milyar dolarlık işbirliğine girdi. Medyanın sonbaharda bildirdiğine göre, bu durum grubun yönetim kurulu arasında artan memnuniyetsizliğe neden oldu. Bu döneme ait makaleler, yön meselesinde derin bir iç ayrılığı ortaya koyuyor.
Liderlik ekibinde bir ileri bir geri
Güvenlik meselesi de rol oynadı. Bazı yönetim kurulu üyelerinin yapay zeka gelişmelerinin yarattığı tehlikeler konusunda giderek daha fazla endişe duydukları ve Altman'ın bunlara yeterince dikkat etmediği söyleniyor. Şüphecilerden biri de şu anda kamuoyu önünde istifa eden OpenAI kurucu üyesi Ilya Sutskever'di.
Kasım ayında yön konusundaki anlaşmazlık o kadar arttı ki, Sam Altman yapay zeka şirketinin liderliğinden ayrılmak zorunda kaldı. Altman daha sonra OpenAI'ye büyük yatırım yapan şirket olan Microsoft'a geçecekti. Ancak OpenAI'nin 770 çalışanından 700'ü onu takip etmekle tehdit etti; bu da fiilen şirketin sonu anlamına gelirdi. Altman şirkete geri getirildi ve Mart ayından bu yana tekrar yönetim kurulunda yer alıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Bunun aynı zamanda yön anlaşmazlığını da belirlediği düşünülebilir; Altman sonuçta güç mücadelesinden galip çıktı. Ancak durum o kadar da net kalmadı. Şüpheci Sutskever, sektör uzmanlarını şaşırtacak şekilde, Altman'a rağmen şirkette aylarca daha kaldı ve hatta güvenlik ekibine liderlik etti. Geliştirici daha sonra Altman'a karşı çıkma kararından pişman olduğunu açıkladı. Leike'nin artık işi bırakıyor olması ve tüm güvenlik ekibinin dağıtılıyor olması sektörde büyük tartışmalara neden oluyor. Geliştiriciler, yön konusundaki iç anlaşmazlığın yeniden arttığını gördüklerinde hangi tehlikeleri gördüler?
Yapay zeka ne kadar tehlikeli olabilir?
Açık olan bir şey var: Yapay zeka gelişmelerinin tehlikeleri hakkındaki tartışma yalnızca OpenAI şirketini değil tüm sektörü bölüyor. Bazıları yapay zekanın insanlığın en büyük başarısı olduğuna ve yakın gelecekte hayatı önemli ölçüde iyileştireceğine inanırken, diğerleri yıllardır süper zeki bir yapay zekanın insanlığı bile yok edebileceğine dair korku senaryoları çiziyor.
Bu çatışma, önde gelen teknoloji beyinlerinin geçen yılın başında yapay zeka gelişiminin geçici olarak durdurulmasını talep eden açık bir mektubu imzalamasıyla kamuoyuna açık bir şekilde ortaya çıktı. İmzacılar arasında Elon Musk ve eski Apple mühendisi Steve Wozniak da vardı. Mevcut gelişmenin kontrolsüz devam etmesi halinde tüm insanlığı tehdit edecektir. Mektupta, yapay zeka sistemlerinin bizimkine benzer bir zeka düzeyi geliştirme yolunda ilerlediği ve “Dünyadaki yaşamın tarihinde derin bir değişime” yol açtığı belirtildi.
Karşı konuşma hemen ardından geldi: Örneğin Stokastik Papağanlar grubu, diğer şeylerin yanı sıra şunları söyleyen bir mektup yayınladı: “Müreffeh ya da potansiyel olarak felaket vaat eden, hayal ürünü yapay zeka destekli bir ütopya ya da kıyametle dikkatinizi dağıtmak tehlikelidir. gelecek.” Yapay zeka insana benzeyen bir yaratık değil. Sorumluluk teknolojiye değil, yaratıcılarına aittir. Seattle'daki Washington Üniversitesi'nde dil bilimi profesörü ve yapay zeka uzmanı olan Emily Bender, bir keresinde Die Zeit'e şunları söylemişti: “Bir yapay zeka sisteminin kötü niyetli planlar yapabileceğini ve ardından kendi iradesini uygulamaya çalışabileceğini öne süren her şey saçmalıktır.” .”
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Daha fazla araştırmacı şirketten ayrıldı
Yapay zeka güvenliğine ilişkin araştırma çalışmalarının bugün OpenAI'de hala hangi öncelikli araştırma konusu olduğu belli değil. Ancak gelişmeler, Altman'ın bir kez daha üstünlüğü ele geçireceğini ve şirket için fikirlerini zorlamaya devam edeceğini gösteriyor.
Wired'ın haberine göre, iki kıdemli bilim insanının ayrılmasından önce en az altı araştırmacının Kasım ayından bu yana güvenlik ekibinden ayrıldığı söyleniyor. Biri Vox dergisine şunları söyledi: “OpenAI'nin liderliğine ve onun yapay genel zekayı sorumlu bir şekilde ele alma becerisine olan güvenimi yavaş yavaş kaybettim, bu yüzden istifa ettim.”
Sam Altman, Sutskever'in ayrılışıyla ilgili olarak X hakkında şunları yazdı: “Bu beni çok üzüyor. İlya şüphesiz neslimizin en büyük beyinlerinden biri, alanımızın parlak bir örneği ve değerli bir dostumuzdur.” 2017'den beri OpenAI'de bulunan araştırma lideri Jakub Pachocki, kıdemli bilim insanı olarak Sutskever'in yerini alacak. Gelecekte risk araştırmalarına Jon Schulman liderlik edecek.
Süper bir yapay zeka hâlâ düzenlenebilir mi?
OpenAI'yi çevreleyen kargaşa, Avrupa Birliği'nin yapay zekayı düzenlemek için yeni bir yasa çıkarmasıyla ortaya çıkıyor. Salı günü AB ülkeleri teknolojiyle ilgili daha katı kurallar üzerinde anlaşmaya vardı. Yasanın AB'de yapay zeka kullanımını daha güvenli hale getirmesi amaçlanıyor. Yapay zeka sistemlerinin mümkün olduğunca şeffaf, anlaşılır, çevre dostu ve ayrımcı olmamasının sağlanması amaçlanıyor.
Devamını oku sonra Reklamcılık
Devamını oku sonra Reklamcılık
Ancak yeni yasanın olası süper yapay zeka tehlikesine karşı çok az yanıtı var. Kanun, yüksek riskli sistemler için risk yönetimi ve siber güvenliği zorunlu kılmaktadır. Yapay Zeka Yasası olarak adlandırılan yasa aynı zamanda yapay zeka sistemlerinin yalnızca diğer teknolojiler tarafından değil, insanlar tarafından da izlenmesini sağlamayı amaçlıyor. Ancak şüphecilere inanıyorsanız, o zaman potansiyel olarak tehlikeli bir süper yapay zeka ile bu artık mümkün olmayacaktır.
OpenAir geçen yıl güvenlik ekibini kurduğunda şunu yazdı: “İnsanlar bizden çok daha akıllı olan yapay zeka sistemlerini güvenilir bir şekilde izleyemeyecek.” Amaç daha ziyade yapay zekayı izleyen yapay zeka sistemleri geliştirmektir. Mevcut gelişmelere bakıldığında, sorumluların bu projenin hakkını verip vermeyeceğinden en azından şüphe duyulabilir.