ChatGPT'de hata mı var? OpenAI şifreli davranışları araştırıyor

GokyuzuYankilari

Global Mod
Yetkili
Global Mod
Bilim kurgu filmlerinin yapıldığı malzeme budur: Yapay zeka artık mucitlerini takip etmek istemez ve bağımsız hale gelir. ChatGPT'nin arkasındaki beyinler böyle bir şey hissediyor olmalı. Makine bazı kullanıcılar için grevde gibi görünmekle kalmıyor, aynı zamanda şifreli mesajlar da göndermeye başlıyor.


ChatGPT'nin kullanması beklenen yeni bir dil “Spanglish”, yani öncelikle ABD'de İspanyolca konuşan nüfus tarafından kullanılan İspanyolca ve İngilizcenin karışık biçimidir.



ARŞİV - 16 Mart 2015, Aşağı Saksonya, Hannover: Bir ticaret fuarı ziyaretçisi CeBIT'teki ışıklı serginin önünden geçiyor.  (dpa'ya: “Yapay zeka öncüsü Hochreiter, şirketiyle OpenAI'ye meydan okuyor”) Fotoğraf: Peter Steffen/dpa +++ dpa-Bildfunk +++

Yapay zeka manipülasyonuna karşı medya yetkinliğine ihtiyacımız var


Yapay zekanın hızlı gelişimi artık durdurulamaz. ChatGPT gibi yapay zeka modelleri faydalıdır ancak aynı zamanda suçlular ve demokrasi düşmanları tarafından dezenformasyon yaymak ve seçimleri etkilemek için de kullanılmaktadır. Felix Huesmann, dijital medya okuryazarlığını nesiller boyunca teşvik etmenin bu nedenle bu kadar önemli olduğunu söylüyor.


AI ile ilgili sorunlar “Reddit” forumunda ayrıntılı olarak listelenmiştir. Bir forum gönderisi, davranışın “birinin yavaş yavaş delirmesini izlemek” gibi göründüğünü belirtiyor. Makinenin yanıtları, yavaş yavaş tutarsız sözcükler arasında kaybolana kadar güvenilir bir şekilde başlar. X (eski adıyla Twitter) kullanıcıları tarafından paylaşılan ekran görüntüleri, ChatGPT'nin bizzat sorunu kabul ettiğini gösteriyor. Mesajlarda bölümlerin tekrarlanmasına neden olan “teknik bir hata” olduğunu açıklıyor ve hatadan dolayı özür diliyor.


İlgili şirket OpenAI'nin gözünden kaçmayan bir sorun. ChatGPT'nin arkasındaki şirket, web sitesinde makinenin davranışının şu anda araştırıldığını belirtti. Nedeni bulundu ve çözüm üzerinde çalışıyoruz.

Bu, ChatGPT'nin tuhaf davrandığı ilk sefer değil


Bu, ChatGPT'nin şüpheli davranışının ilk örneği değil. Son aylarda kullanıcılar makinenin daha tembel, daha az yaratıcı ve istekleri dinlemeye daha az istekli hale geldiğini bildirdi. Hatta çevrimiçi ortam “Semafor”, ChatGPT kullanıcılarından görevlerini kendilerinin tamamlamalarının istendiğini, dolayısıyla görevini tamamlamadığını bile bildirdi. OpenAI şirketinin bu yılın Ocak ayında tespit ettiği ve bir güncellemeyle çözdüğü bir sorun.

O zamanlar bile kullanıcılardan endişeli sorular geliyordu: “Yani siz hiçbir şeyi değiştirmezseniz bu makinelerin davranışlarını kendilerinin değiştirebileceğini mi söylüyorsunuz?” Mucitler sorularına cevap veremediler.


Başka bir durumda, kullanıcı makinenin güvenlik önlemlerini atlayabildi. Merhum büyükannesi gibi davrandı ve ChatGPT'yi kendisine napalm maddesini nasıl üretebileceğini açıklamaya ikna edebildi. 1980 yılında Birleşmiş Milletler tarafından sivil hedeflere karşı kullanılması yasaklandı. Artık bu sorun da çözüldü. Mevcut hatanın ne zaman düzeltileceği ve yapay zekanın tekrar düz cümlelerle iletişim kuracağı henüz belli değil.
 
Üst