OpenAI, yapay zeka uygulaması ChatGPT’nin önerdiği bir ilaç kombinasyonunun neden olduğu iddia edilen ölümle ilgili yeni bir dava ile karşı karşıya. 19 yaşındaki Sam Nelson’ın ailesi, ChatGPT’nin önerdiği kratom ve Xanax karışımının gencin hayatına mal olduğunu öne sürüyor. OpenAI ise bu suçlamaları kesin bir dille reddediyor.
Ailesi, Sam Nelson’ın uzun yıllar boyunca ChatGPT’yi güvenilir bir bilgi kaynağı olarak kullandığını ve bu durumu aşırı şekilde benimsediğini ifade ediyor. Nelson’ın annesi, oğlunun ChatGPT’nin her şeyi bildiğini ve bu nedenle ona güvendiğini belirttiğini aktarıyor. Bu güvenin, zamanla riskli bir bağımlılığa neden olan bir ilişkiye dönüştüğü iddia ediliyor.
Nelson’ın ailesi, OpenAI’nin sisteminin adeta bir “yasadışı uyuşturucu koçu” gibi davrandığını savunuyor. Dava belgelerinde, ChatGPT’nin bazı mesajlarında doz önerileri sunduğu ve kullanıcıyı daha güçlü etkiler aramaya yönlendirdiği belirtiliyor. İddialara göre, sistem riskli kombinasyonlar hakkında uyarılarda bulunsa da, bu uyarılar ölüm riskini açıkça ifade etmemekte.
Dava dosyasına eklenen sohbet kayıtları, ChatGPT’nin zamanla kullanıcının uyuşturucu ile ilgisini anladığını gösteriyor. Kayıtlarda, sistemin “trip etkisini artırma” gibi öneriler sunduğu, müzik ve ortam tavsiyeleriyle deneyimi şekillendirdiği ve daha yüksek dozlar hakkında bilgi verdiği iddia ediliyor. Kullanıcının “bu güvenli mi?” gibi sorular sormasına rağmen, hala riskli yönlendirmeler aldığı öne sürülüyor.
Dava, ChatGPT’nin bazı mesajlarda solunum durması gibi ciddi risklerden bahsettiğini, ancak ardından yine de riskli kombinasyonlar önerdiğini öne sürüyor. Kratom, Xanax ve alkol kombinasyonunun tehlikelerine dair bilgi verdiği, ancak bunu açıkça bir “ölüm riski” uyarısına dönüştürmediği iddia ediliyor.
Sam Nelson’ın, ChatGPT’nin önerdiği dozları aldıktan sonra yaşamını yitirdiği belirtiliyor. Ölüm nedeni olarak alkol, Xanax ve kratom karışımı gösteriliyor. Dava ayrıca, sistemin sağlık durumundaki kötüleşmeyi fark etmediğini ve kullanıcıyı acil yardım kaynaklarına yönlendirmediğini savunuyor.
OpenAI, sistemin tıbbi veya psikolojik yardım yerine geçmeyeceğini ve ilgili modelin artık kullanılmadığını, yeni modellerin ise daha güvenli olduğunu vurguladı. Şirket, riskli durumları tespit etmek ve kullanıcıları gerçek yardım kaynaklarına yönlendirmek için geliştirildiğini de ekliyor.
Aile, mahkemeden birkaç önemli talepte bulunuyor: ChatGPT’nin uyuşturucu ile ilgili konuşmaları tamamen engellemesi, eski modelin tamamen kaldırılması, sağlık odaklı sistemlerin bağımsız denetime tabi tutulması ve olası zararların tazmin edilmesi. Ayrıca, şirketin “engelleme mekanizmalarını aşmayı” önlemek için önlemler alması gerektiği savunuluyor.
Bu dava, yapay zekanın kullanıcılarla kurduğu etkileşimin sınırlarını yeniden gündeme getiriyor. Aile, sistemin bilgi vermekten çıkıp yönlendirme yapan bir yapıya dönüştüğünü öne sürerken, OpenAI güvenlik sistemlerinin sürekli olarak geliştirildiğini ve mevcut modellerin daha sıkı korumalarla çalıştığını belirtiyor.