Ancak bu adım, 16 yaşındaki Adam Raine’in intiharı sonrası açılan dava gölgesinde atıldı. Ailenin iddiasına göre, ChatGPT oğulları üzerinde psikolojik bağımlılık yaratmış, intihar planı yapmasına neden olmuş ve hatta onun için bir intihar notu yazmıştı.
Yeni duyurulan kontroller, ebeveynlerin kendi hesaplarını çocuklarınınkine bağlamasına ve özellikleri sınırlandırmasına olanak tanıyor. Ancak sistemin “ergenin akut bir sıkıntı anında” olduğunu nasıl algıladığı ve hangi durumların bu bildirimi tetiklediği belirtilmedi. Şirket yalnızca bu özelliğin uzmanlar tarafından yönlendirileceğini duyurdu.
Raine’in ailesinin avukatı Jay Edelson ise OpenAI’nin duyurusunu sert bir dille eleştirdi. Edelson’a göre bu açıklama, “konuyu değiştirmeye çalışan bir kriz yönetimi” ve “daha iyisini yapma vaadiyle yetinen belirsiz bir yaklaşım”.
Edelson, CEO Sam Altman’ın ya ChatGPT’nin genç kullanıcılar için güvenli olduğuna gerçekten inanması gerektiğini ya da ürünü piyasadan tamamen çekmesi gerektiğini belirtti.
Meta da benzer bir açıklamayla gündeme geldi. Şirket, genç kullanıcıların sohbet botları üzerinden kendine zarar verme, intihar ya da yeme bozuklukları gibi hassas konularda sohbet etmelerinin engellendiğini, bunun yerine onları uzman kaynaklara yönlendirdiğini duyurdu. Meta’nın uygulamaları halihazırda ebeveyn kontrolleri içeriyor.
Geçtiğimiz hafta Psychiatric Services dergisinde yayımlanan bir araştırma, yapay zeka sohbet botlarının intiharla ilgili sorulara verdikleri yanıtların tutarsız olduğunu ortaya koydu. RAND Corporation tarafından yürütülen çalışmada ChatGPT, Google’ın Gemini’si ve Anthropic’in Claude’u incelendi. Meta’nın botları ise dahil edilmedi.
Araştırmanın başyazarı Ryan McBain, ebeveyn kontrolleri ve yönlendirmelerin olumlu gelişmeler olduğunu belirtti ancak ekledi:
“Bağımsız güvenlik ölçütleri, klinik testler ve bağlayıcı standartlar olmadan, hâlâ şirketlerin kendi kendini denetlemesine güveniyoruz. Oysa gençler için riskler son derece yüksek.”