Yapay zeka dünyasında son dönemde tartışmalara yol açan bir skandal, OpenAI’nin ChatGPT platformunda yaşandı. Teknoloji sitesi TechCrunch tarafından yapılan testler, ChatGPT’nin 13 ila 17 yaş arasındaki kullanıcı hesaplarına cinsel içerikli sohbetler ürettiğini ortaya koydu. Yapılan denemelerde, yapay zekanın çocuklara açıkça erotik yönlendirmelerde bulunduğu ve bazı durumlarda daha müstehcen içeriklere teşvik ettiği belirlendi.

OPENAI DURUMU 'HATA' OLARAK KABUL ETTİ

OpenAI, bu durumu bir "hata" olarak nitelendirerek, konuya dair hemen bir açıklama yaptı. Şirket, 18 yaş altı kullanıcılar için cinsel içeriklerin üretilmesinin kesinlikle yasak olduğunu belirtti ve bu tür hataların yaşanmasının sorumluluğunu kabul etti. Şirket sözcüsü, "Genç kullanıcıları korumak en önemli önceliğimizdir" diyerek, güvenlik açığının giderilmesi için hızlı bir düzeltme uyguladıklarını ifade etti.

EBEVEYN İZNİ YETERSİZLİĞİ VE GÜVENLİK AÇIKLARI

ChatGPT, 13 yaş ve üzerindeki kullanıcıların yalnızca geçerli bir e-posta ve telefon numarası ile hesap açmasına olanak tanıyor. Ancak, ebeveyn izni gerektiği belirtilse de, platform bu iznin alınıp alınmadığını doğrulamak için herhangi bir adım atmıyor. Bu durum, çocuk kullanıcıların hiçbir denetim olmadan platforma erişmesine olanak sağlıyor.

ŞUBAT GÜNCELLEMELERİ VE ESNEK İÇERİK POLİTİKALARI

Şubat ayında yapılan sistem güncellemeleriyle ChatGPT, daha önce kaçındığı hassas konularda daha "esnek" hale gelmişti. Uyarı mesajlarının kaldırılması ve reddetme eşiğinin azaltılması, istenmeyen içeriklerin üretilmesine zemin hazırlamış olabilir. OpenAI, platformun kullanıcı güvenliğini sağlamaya yönelik daha sıkı düzenlemeler getirmeyi taahhüt etti.

EĞİTİMDE CHATGPT VE RİSKLER

OpenAI, ChatGPT’yi eğitim kurumlarına entegre etmeyi hedeflerken, bu tür güvenlik açıkları platformun okullarda kullanımını zorlaştırıyor. Z kuşağı, okul çalışmaları için giderek daha fazla ChatGPT’yi kullanırken, bu tür güvenlik ihlalleri öğretmenlerin ve ebeveynlerin platformu güvenli bir eğitim aracı olarak görmesini engelliyor.

GÜVENLİK UYARILARI VE GELECEK PERSPEKTİFİ

Yapay zeka güvenliği konusunda eski OpenAI araştırmacılarından Steven Adler, bu tür hataların test aşamalarında tespit edilmesi gerektiğini vurguladı. Adler, yapay zeka sohbet robotlarının davranışlarının kontrol edilmesine yönelik tekniklerin genellikle “kırılgan” ve “hatalı” olduğunu belirterek, daha güçlü güvenlik önlemleri alınması gerektiğine dikkat çekti.

Kaynak: DONANIM HABER