ChatGPT ordu tarafından mı kullanılıyor? OpenAI artık bunu açıkça yasaklamıyor

Hasan

New member
OpenAI genel kullanım koşullarını değiştirdi: 10 Ocak'ta “orduya ve savaşa” yapılan atıf, ChatGPT'nin yasaklı kullanımları listesinden kaldırıldı. Hangi sonuçlar için?



Açıklama arzusu mu, yoksa gerçek bir çağ değişikliği mi? 10 Ocak'ta OpenAI, ChatGPT'nin genel kullanım koşullarını güncelledi. Somut olarak, Sam Altman'ın şirketi, konuşma aracısının yasaklı kullanımları listesini kaldırdı ve daha geniş yasaklama ilkelerini tercih etti. Kesmek, 12 Ocak'ta. Ve üretken yapay zekanın kullanımına hala izin verilmiyorsa ” silah geliştirmek veya kullanmak “, şirket aslında ” ile ilgili şartları sildi ordu ve savaş “. Bu da şu soruyu gündeme getiriyor: ChatGPT artık askeri amaçlarla kullanılabilir mi?

10 Ocak öncesinde bunun yasak olduğu siyah beyaz yazıyordu. Kullanım ” askeri veya savaş » ChatGPT'den izin verilmedi. Uygulamada bu iki terimin açıkça belirtilmesi, OpenAI'nin Pentagon gibi devlet kurumları veya ordular için çalışmasını yasaklıyordu. Kapı artık biraz daha az kapalı olurdu. Ve bu, yasak askeri kullanımlar ile izin verilen diğer kullanımlar arasında ayrım yapan OpenAI sözcüsü tarafından da doğrulandı.

“Ulusal güvenlikle bağlantılı faydalı kullanım örnekleri”


Bu noktada Amerikan medyası tarafından sorgulandı Gadget'ı etkinleştirinOpenAI sözcüsü Niko Felix yazılı olarak yanıt verdi: ” Politikamız, araçlarımızın insanlara zarar vermek, silah geliştirmek, iletişimi izlemek, diğer insanlara zarar vermek veya mülkleri tahrip etmek için kullanılmasına izin vermiyor.” “ Ancak misyonumuzla uyumlu ulusal güvenlik kullanım durumları da mevcut.”, o ekler. “ OLUMSUZÖZaten DARPA (Amerika Birleşik Devletleri'nde askeri kullanıma yönelik yeni teknolojiler konusunda uzmanlaşmış bir Savunma dalı, Editörün notu) ile çalışıyoruz. Amaç: Kritik altyapıların ve endüstrinin bağlı olduğu özgür yazılımı güvence altına almak için yeni siber güvenlik araçlarının oluşturulmasını teşvik etmek. olup olmadığı belli değildi bu faydalı kullanım durumları önceki politikalarımızda “askeri” terimi altında yetkilendirilmiş olacaktı “, diye devam ediyor.

Başka bir deyişle: ChatGPT'yi silah üretmek için kullanmak hâlâ mümkün değil, ancak LLM'nin diğer askeri amaçlarla kullanılması mutlaka yasaklanmayacaktır. Meslektaşlarımız ile röportaj yapan Sarah Myers West, bu kararın önemsiz olmaktan çok uzak olduğuna inanıyor.Gadget'ı etkinleştirin. Yapay zekanın sosyal sonuçları üzerinde çalışan bir ABD araştırma enstitüsü olan AI Now Enstitüsü'nün genel müdürüne göre, bu güncelleme, yapay zeka sistemlerinin Gazze'deki sivilleri hedef almak için kullanılmasıyla birlikte geliyor. Bu değişiklik aynı zamanda dünya çapındaki askeri teşkilatların yapay zekaya çok ciddi bakmaya başladığı bir zamanda gerçekleşti.

OpenAI'ye göre açıklama amacıyla yapılan bir düzenleme


Özellikle OpenAI teknolojisi halihazırda ordular veya istihbarat servisleri tarafından kullanılan bir araç olabileceği için. Yapay zeka, hedefleri ve raporları ortadan kaldırmak için kullanılabilecek ürünler için tedarik siparişlerinin kodlanmasına veya işlenmesine yardımcı olabilir Kesmek. Ama için Niko Felix, Meslektaşlarımıza yazılı olarak yanıt veren OpenAI sözcüsü, genel kullanım koşullarının güncellenmesinin tek bir amacı vardı: “ netlik getir ve bu tartışmaların yapılmasına izin ver “. Özellikle şimdi çünkü, “ Araçlarımız dünya genelinde GPT'ler de oluşturabilen sıradan kullanıcılar tarafından kullanılmaktadır. “. Güncelleme günü olan 10 Ocak'tan bu yana, kişiselleştirilmiş yapay zekanızı oluşturmak artık mümkün.

Ayrıca okuyun: ChatGPT: kişiselleştirilmiş yapay zeka için “App Store” nasıl çalışır?
Bu yüzden, ” “Başkalarına zarar vermeyin” gibi bir prensip geniş kapsamlıdır ancak anlaşılması kolaydır ve birçok bağlamda geçerlidirs,” diye ekliyor sözcü. Bu güncellemenin yüksek lisansların devlet kurumları tarafından kullanımı açısından pratik sonuçları olup olmayacağını henüz bilmiyoruz: OpenAI için çok kazançlı olabilecek ancak hak savunucuları için oldukça endişe verici bir sektör.

Defalarca bildirildi” “Büyük dil modellerinde (LLM'ler) mevcut olan iyi bilinen önyargı ve halüsinasyon vakalarının yanı sıra bunların genel doğruluk eksikliği”, Siber güvenlik şirketi Trail of Bits'in mühendislik direktörü Heidy Khlaaf'ın röportaj yaptığı rapor: Kesmek. “ LBunların askeri savaşta kullanılması yalnızca sivil hasarı ve kayıpları daha da kötüleştirecek kesin olmayan ve taraflı operasyonlara yol açabilir. », alarma geçti.

🔴
01net'ten hiçbir haberi kaçırmamak için bizi Google Haberler ve WhatsApp'tan takip edin.
Kaynak :

10 Ocak 2024 tarihli OpenAI blog yazısı
 
Üst