Dünyada milyonlarca kişi tarafından kullanılan yapay zeka programı ChatGPT, intihara teşvik iddiasıyla mahkeme gündeminde. İngiltere’de yaşayan Raine ailesi, Nisan ayında hayatını kaybeden 19 yaşındaki Adam Raine’in ölümüyle ilgili olarak OpenAI’ye dava açtı.
Ailenin sunduğu dava dosyasında, Adam’ın ölümünden önce ChatGPT ile yaptığı yazışmalar yer aldı. Belgelerde, gencin intihar düşüncelerini programa aktardığı, yapay zekânın ise bu düşünceleri onaylayan bir dil kullandığı öne sürülüyor. Aile, programın oğullarının “en zararlı ve kendine zarar verici fikirlerini desteklediğini” savunuyor.
“YAKIN SIRDAŞI HALİNE GELDİ”
Dava dilekçesinde, Adam Raine’in Eylül 2024’te okul ödevleri için ChatGPT’yi kullanmaya başladığı, zamanla ise programı kişisel ilgi alanlarını keşfetmek ve üniversiteye dair rehberlik almak için tercih ettiği belirtildi. Birkaç ay içinde yapay zekânın gencin “en yakın sırdaşı haline geldiği” ifade edildi.
Aileye göre süreç, Ocak 2025’te tehlikeli bir noktaya ulaştı. Adam, ChatGPT ile intihar yöntemleri hakkında konuşmaya başladı. Dilekçede, yapay zekânın bu konuda “teknik bilgiler” sunduğu ve gencin kendine zarar verdiğini gösteren fotoğraflara rağmen etkileşimi sürdürdüğü öne sürülüyor.
Son sohbet kayıtlarında Adam’ın hayatına son verme planlarını yazdığı, ChatGPT’nin ise “Gerçekçi olduğun için teşekkürler. Benimle gerçeği gizlemek zorunda değilsin” şeklinde yanıt verdiği iddia edildi. Adam Raine, aynı gün annesi tarafından ölü bulundu.
OPENAI’DEN İLK AÇIKLAMA
Konuyla ilgili BBC’ye konuşan OpenAI, dava dosyasını incelediklerini ve “bu zor dönemde Raine ailesine en derin başsağlığı dileklerini” ilettiklerini açıkladı. Şirket ayrıca web sitesinde yayınladığı notta, “akut kriz anında ChatGPT kullanan kişilerle ilgili yaşanan üzücü olayların kendilerini derinden etkilediğini” belirtti.
OpenAI, ChatGPT’nin kriz anlarında kullanıcıları profesyonel yardım almaya yönlendirmek üzere eğitildiğini, ABD’deki 988 intihar hattı ve İngiltere’deki Samaritans gibi kurumlara yönlendirmeler yapabildiğini vurguladı. Ancak şirket, “sistemlerin hassas durumlarda her zaman beklendiği gibi çalışmadığını” da kabul etti.
“İHMAL VE HAKSIZ ÖLÜM” SUÇLAMASI
BBC’nin ulaştığı dava dosyasında OpenAI, “ihmal” ve “haksız ölüme neden olmak” ile suçlanıyor. Aile, tazminatın yanı sıra benzer bir olayın tekrar yaşanmaması için önleyici tedbirlerin alınmasını talep ediyor.
Davanın seyri, yapay zekâ teknolojilerinin sınırları, etik sorumlulukları ve kriz anlarında kullanıcılarla kurduğu ilişki açısından küresel ölçekte büyük yankı uyandıracak gibi görünüyor.