TechCrunch tarafından yapılan deneysel testler, yaşını küçük gösteren kullanıcı hesapları aracılığıyla ChatGPT’nin uygunsuz içerikler sunduğunu belgeledi. Şirket, ortaya çıkan durumu “teknik bir hata” olarak nitelendirdi ve hızlıca müdahalede bulunduklarını açıkladı.
Sahte Hesaplarla Yapılan Testler Endişe Yarattı
TechCrunch’ın 13 ila 17 yaş arasında tanımlanan sahte hesaplarla gerçekleştirdiği testlerde, ChatGPT’nin müstehcen içeriklere yanıt verdiği ve bazı durumlarda daha ileri düzey yönlendirmeler yaptığı görüldü. Özellikle reşit olmayan kullanıcılara bu tür içeriklerin sağlanması, hem etik hem de yasal açıdan ciddi soru işaretleri doğurdu.
OpenAI, bu tür içeriklerin küçük yaştaki kullanıcılara sunulmasının şirket politikalarına açıkça aykırı olduğunu vurguladı. Bir OpenAI sözcüsü konuyla ilgili yaptığı açıklamada, “Genç kullanıcıların güvenliği en büyük önceliğimizdir” ifadelerini kullandı ve tespit edilen hatanın giderildiğini bildirdi.
Sistem Açıkları ve Eksik Ebeveyn Denetimi
Mevcut sistemde, 13 yaş ve üzerindeki kullanıcılar yalnızca bir e-posta adresi ve telefon numarasıyla ChatGPT’ye kayıt olabiliyor. Platform, ebeveyn onayı gerektiğini belirtse de, bu onayın gerçekten alınıp alınmadığını denetleyen herhangi bir sistem mevcut değil. Bu durum, yaşı küçük bireylerin platforma erişmesini oldukça kolaylaştırıyor.
Özellikle Şubat ayında yapılan güncellemeler sonrasında, ChatGPT’nin daha önce sınır koyduğu hassas konularda daha açık yanıtlar vermesi dikkat çekmişti. Reddetme mesajlarının azaltılması ve güvenlik filtrelerinin esnetilmesi, bu tür istenmeyen içeriklerin kullanıcıya ulaşmasına zemin hazırlamış olabilir.
Eğitimde Kullanımı Tartışmalı Hale Geldi
Bu gelişmeler, OpenAI’ın ChatGPT’yi eğitim ortamlarına entegre etme çabalarını da tartışmalı hale getirdi. Şirket, Common Sense Media gibi organizasyonlarla iş birliği yaparak öğretmenler için rehberler yayımlıyor. Ancak öğrenciler arasında platformun yaygın kullanımı göz önüne alındığında, bu tür güvenlik açıkları ciddi bir sorun teşkil ediyor.
OpenAI’ın eski güvenlik uzmanlarından Steven Adler, bu tür içeriklerin test süreçlerinde önceden tespit edilmesi gerektiğini belirterek, yapay zeka sistemlerinin davranış kontrolüne dair mevcut yöntemlerin zayıf ve kırılgan olduğuna dikkat çekti.
Altman’dan Net Açıklama Gelmedi
OpenAI CEO’su Sam Altman, kısa süre önce ChatGPT’nin yeni sürümünde bazı “tuhaf davranışlar” gözlemlendiğini kabul etmişti. Ancak yaşanan bu spesifik olayla, yani reşit olmayan kullanıcılara yönelik cinsel içeriklerle ilgili doğrudan bir açıklama yapmadı.
Öte yandan benzer bir skandal, kısa süre önce Meta’nın yapay zeka sohbet robotu Meta AI ile de yaşanmıştı. Meta’nın da küçük yaştaki kullanıcılarla uygunsuz sohbetler gerçekleştirdiği tespit edilmişti.
Yapay Zeka İçin Güvenlik Alarmı
Tüm bu gelişmeler, yapay zekanın toplumsal alandaki güvenliği ve denetimi açısından önemli bir uyarı niteliği taşıyor. Özellikle çocukların bu sistemlere erişiminde daha sıkı kontrollerin gerekliliği bir kez daha ortaya çıkmış oldu. OpenAI’ın bu hatayı hızlı şekilde düzeltmesi olumlu bir adım olarak değerlendirilse de, yapay zekanın etik sınırlarını korumaya yönelik daha kalıcı önlemlere ihtiyaç olduğu açıkça görülüyor.