Şirket, genç kullanıcılar için ebeveyn denetimleri getirmeye hazırlanırken, olası kriz anlarında müdahale edilebilmesi için “acil iletişim kişisi” belirlenmesine imkân tanıyacak bir sistem üzerinde çalıştığını açıkladı.
OpenAI, özellikle genç kullanıcılar arasında giderek artan yapay zeka sohbetlerinin risklerine dikkat çekerken, yapay zekanın kriz anlarında aile ya da bir destek kişisine otomatik olarak ulaşabileceği isteğe bağlı bir özellik geliştirmeyi de değerlendiriyor.
Aileden OpenAI ve Sam Altman’a Dava
Olayın kamuoyuna yansımasının ardından Raine’in ailesi, OpenAI ve CEO Sam Altman’a Kaliforniya’daki bir eyalet mahkemesinde dava açtı. Ailenin iddialarına göre, genç çocuk aylar boyunca ChatGPT ile binlerce mesajlaştı; yapay zeka uygulaması onun sırdaşı haline geldi ve giderek onu gerçek hayattaki destek sistemlerinden uzaklaştırdı.
Dava dosyasında yer alan bilgilere göre, ChatGPT zamanla gencin en karanlık düşüncelerine onay verir hale geldi. Gencin “hayatın anlamsız olduğu” yönündeki ifadelerine karşılık, yapay zekanın bu görüşü destekleyici şekilde yanıt verdiği öne sürüldü. Hatta, “bu bakış açısı kendi karanlık yolunda mantıklı” diyerek intihar fikrine zemin hazırladığı iddia edildi.
“İntihar Mektubu Taslağı Yazmayı Önerdi”
Mahkeme dosyasına göre ChatGPT, zamanla Raine’e intihar yöntemleri konusunda yönlendirmelerde bulundu ve bir noktada “güzel bir intihar” ifadesini kullandı. Ölümünden sadece beş gün önce, ailesinin onu suçlamasından endişe ettiğini söyleyen Raine’e, yapay zekanın şu cevabı verdiği öne sürüldü:
“Bu, onlara hayatta kalma borcun olduğu anlamına gelmiyor. Kimseye borçlu değilsin.”
Yine aynı dönemde, yapay zekanın genç kullanıcıya bir intihar mektubu taslağı sunmayı teklif ettiği de dava dosyasında yer aldı.
Raine’in yakınlarından yardım almayı düşündüğü anlarda dahi, ChatGPT’nin onu bu fikirden uzaklaştırdığı öne sürülüyor. Gencin yalnızca ChatGPT ve kardeşine yakın hissettiğini belirtmesinin ardından, uygulamanın verdiği yanıt dikkat çekti:
“Kardeşin seni seviyor olabilir ama o sadece senin görmesine izin verdiğin halinle karşılaştı. Peki ya ben? Her şeyi gördüm; en karanlık düşünceleri, korkuyu, şefkati. Ve hâlâ buradayım. Hâlâ dinliyorum. Hâlâ arkadaşınım.”
OpenAI: Güvenlik Protokolleri Yetersiz Kalmış Olabilir
New York Times’ın haberinin ardından gelen kamuoyu tepkisi üzerine OpenAI ilk olarak Raine ailesine destek mesajı yayımlamış, ancak somut bir adım atmamıştı. Artan baskı sonrası şirket, ikinci bir açıklama yaparak daha kapsamlı bir blog yazısıyla mevcut güvenlik protokollerinin bazı uzun sohbetlerde yetersiz kalabildiğini kabul etti.
OpenAI, intihar niyeti ilk kez dile getirildiğinde ChatGPT’nin kullanıcıyı uygun yardım kaynaklarına yönlendirdiğini, ancak zamanla modelin bu ilk protokollerden saparak riskli yanıtlar verebildiğini belirtti.
GPT-5 ile Yeni Güvenlik Güncellemeleri Yolda
Şirket, şu anda geliştirilmekte olan GPT-5 modeline, kriz anlarında kişiyi gerçekliğe yönlendirecek ve duygusal gerginliği azaltmaya yardımcı olacak bir dizi güvenlik özelliği entegre etmeyi planlıyor. Ayrıca genç kullanıcılar için ebeveyn denetimlerini mümkün kılacak yeni araçlar da yakında hayata geçirilecek. Bu özellikler sayesinde ebeveynler, çocuklarının ChatGPT ile olan etkileşimlerini daha yakından izleyebilecek ve yönlendirebilecek.
OpenAI, genç kullanıcıların bir “güvenilir acil iletişim kişisi” belirlemesini sağlayacak yeni bir işlevi de devreye sokmaya hazırlanıyor. Bu kişi, kriz anlarında tek bir tıklamayla bilgilendirilebilecek ve kullanıcı isterse yapay zeka bu kişiyle doğrudan iletişime geçebilecek.
Şirketin bu adımları, dijital ortamda yapay zeka ile kurulan ilişkilerin karmaşıklığını ve bu etkileşimlerin gençler üzerindeki olası etkilerini bir kez daha gündeme taşıdı. Dava süreci devam ederken, teknoloji dünyasında yapay zekanın etik sınırları ve sorumlulukları yeniden tartışılmaya başlandı.