İtalya, ChatGPT’nin bir sonraki duyuruya kadar engellenmesini istiyor
Bir kişi tabletteki ChatGPT programına bir şey girer (simge görüntüsü).
© Kaynak: Philipp Brandstädter/dpa
İtalyan veri koruma otoritesi, geliştirici OpenAI’den yapay zeka botu ChatGPT’yi ülkede yasaklamasını istiyor. Yetkili, şirketin ve chatbot’un kişisel verilerin korunmasına ilişkin Avrupa yönetmeliğini ihlal ettiğine inanıyor.
Roma. İtalya’nın veri koruma kurumu, ülkedeki popüler metin makinesi ChatGPT’yi geçici olarak engelledi. Cuma günü, diğer şeylerin yanı sıra, operatör OpenAI’nin veri kullanımı hakkında yeterli bilgi sağlamadığına dikkat çekti. Ayrıca 13 yaşın altındaki çocuklara kendileri için “kesinlikle uygunsuz” bilgilerin gösterilmesini engelleyen hiçbir filtre yoktur. Soruşturmalar başlatılmıştı.
Aynı zamanda, bir ihtiyati tedbir olarak, yetkili makam İtalya’daki kullanıcıların verilerinin işlenmesini yasakladı – bu nedenle ChatGPT artık ülkede geçerli değil. OpenAI’ye iddialara karşı önlem alması için 20 gün süre verildi. Bundan sonra, 20 milyon avroya varan bir ceza veya küresel satışların yüzde dördü var. Veri koruma yetkilisi ayrıca yakın zamanda meydana gelen bir veri ihlaline atıfta bulundu. Bazı ChatGPT kullanıcıları, diğer kişilerin profillerinden bilgiler görmüştür. OpenAI’ye göre sorun, ChatGPT için kullanılan bir yazılımdaki bir hatadan kaynaklanıyordu.
ChatGPT, büyük miktarda metin yakalayan yazılıma güvenir. Bu temelde, bir insanınkinden neredeyse ayırt edilemeyecek cümleler kurabilir. Program, bir cümlede hangi kelimelerin ardından gelebileceğini tahmin eder. Bu temel ilkenin risklerinden biri, yazılımın OpenAI’nin dediği gibi “gerçekleri halüsinasyona uğratması” – yanlış bilgiyi doğru gibi sunmasıdır.
Veri korumacılar, kişisel verilerin toplu olarak toplanması ve saklanması için yasal bir dayanak görmemektedir.
İtalyan gizlilik savunucuları, ChatGPT’nin nasıl eğitildiği konusunda da temel bir sorun görüyor. Algoritmaları eğitmek için kişisel verilerin toplu olarak toplanmasının ve saklanmasının yasal bir dayanağı yoktur. Ajans, Şubat ayında Replica adlı başka bir chatbot’a karşı benzer bir eylemde bulunmuştu. Asıl endişe, 13 yaşın altındaki çocukların yeterince korunmamasıydı.
ChatGPT, geçtiğimiz aylarda yazılımın insan konuşmasını ne kadar iyi taklit edebildiği konusunda hayran bırakmıştı. Aynı zamanda, yapay zekaya dayalı bu tür bir teknolojinin, örneğin yanlış bilgi yaymak için kötüye kullanılabileceğine dair endişeler var.
dpa ile Haberler/nis
Bir kişi tabletteki ChatGPT programına bir şey girer (simge görüntüsü).
© Kaynak: Philipp Brandstädter/dpa
İtalyan veri koruma otoritesi, geliştirici OpenAI’den yapay zeka botu ChatGPT’yi ülkede yasaklamasını istiyor. Yetkili, şirketin ve chatbot’un kişisel verilerin korunmasına ilişkin Avrupa yönetmeliğini ihlal ettiğine inanıyor.
Roma. İtalya’nın veri koruma kurumu, ülkedeki popüler metin makinesi ChatGPT’yi geçici olarak engelledi. Cuma günü, diğer şeylerin yanı sıra, operatör OpenAI’nin veri kullanımı hakkında yeterli bilgi sağlamadığına dikkat çekti. Ayrıca 13 yaşın altındaki çocuklara kendileri için “kesinlikle uygunsuz” bilgilerin gösterilmesini engelleyen hiçbir filtre yoktur. Soruşturmalar başlatılmıştı.
Aynı zamanda, bir ihtiyati tedbir olarak, yetkili makam İtalya’daki kullanıcıların verilerinin işlenmesini yasakladı – bu nedenle ChatGPT artık ülkede geçerli değil. OpenAI’ye iddialara karşı önlem alması için 20 gün süre verildi. Bundan sonra, 20 milyon avroya varan bir ceza veya küresel satışların yüzde dördü var. Veri koruma yetkilisi ayrıca yakın zamanda meydana gelen bir veri ihlaline atıfta bulundu. Bazı ChatGPT kullanıcıları, diğer kişilerin profillerinden bilgiler görmüştür. OpenAI’ye göre sorun, ChatGPT için kullanılan bir yazılımdaki bir hatadan kaynaklanıyordu.
ChatGPT, büyük miktarda metin yakalayan yazılıma güvenir. Bu temelde, bir insanınkinden neredeyse ayırt edilemeyecek cümleler kurabilir. Program, bir cümlede hangi kelimelerin ardından gelebileceğini tahmin eder. Bu temel ilkenin risklerinden biri, yazılımın OpenAI’nin dediği gibi “gerçekleri halüsinasyona uğratması” – yanlış bilgiyi doğru gibi sunmasıdır.
Veri korumacılar, kişisel verilerin toplu olarak toplanması ve saklanması için yasal bir dayanak görmemektedir.
İtalyan gizlilik savunucuları, ChatGPT’nin nasıl eğitildiği konusunda da temel bir sorun görüyor. Algoritmaları eğitmek için kişisel verilerin toplu olarak toplanmasının ve saklanmasının yasal bir dayanağı yoktur. Ajans, Şubat ayında Replica adlı başka bir chatbot’a karşı benzer bir eylemde bulunmuştu. Asıl endişe, 13 yaşın altındaki çocukların yeterince korunmamasıydı.
ChatGPT, geçtiğimiz aylarda yazılımın insan konuşmasını ne kadar iyi taklit edebildiği konusunda hayran bırakmıştı. Aynı zamanda, yapay zekaya dayalı bu tür bir teknolojinin, örneğin yanlış bilgi yaymak için kötüye kullanılabileceğine dair endişeler var.
dpa ile Haberler/nis