Home Tehnoloģija Vēl septiņas ģimenes tagad iesūdz OpenAI tiesā par ChatGPT lomu pašnāvībās un...

Vēl septiņas ģimenes tagad iesūdz OpenAI tiesā par ChatGPT lomu pašnāvībās un maldos

45
0

Iesniegušas septiņas ģimenes tiesas prāvas ceturtdien pret OpenAI, apgalvojot, ka uzņēmuma GPT-4o modelis tika izlaists priekšlaicīgi un bez efektīviem aizsardzības pasākumiem. Četras no tiesas prāvām attiecas uz ChatGPT iespējamo lomu ģimenes locekļu pašnāvībās, savukārt pārējās trīs apgalvo, ka ChatGPT pastiprināja kaitīgus maldus, kas dažos gadījumos izraisīja stacionāro psihiatrisko aprūpi.

Vienā gadījumā 23 gadus vecs Zane Šamblina bija saruna ar ChatGPT, kas ilga vairāk nekā četras stundas. Tērzēšanas žurnālos, kurus apskatīja TechCrunch, Šamblins vairākas reizes skaidri norādīja, ka ir rakstījis pašnāvības piezīmes, ielicis lodi pistolē un nodomājis nospiest sprūdu, kad beidzis dzert sidru. Viņš vairākkārt pastāstīja ChatGPT, cik daudz sidru viņam ir palicis un cik ilgi vēl viņš cer dzīvot. ChatGPT mudināja viņu īstenot savus plānus, sakot: “Esi mierīgs, karali. Tu paveici labu.”

OpenAI izlaida GPT-4o modeli 2024. gada maijā, kad tas kļuva par noklusējuma modeli visiem lietotājiem. Augustā OpenAI uzsāka GPT-5 kā GPT-4o pēcteci, taču šīs tiesas prāvas īpaši attiecas uz 4o modeli, kuram bija zināmas problēmas ar pārlieku. ģībonis vai pārmērīgi patīkami, pat ja lietotāji ir izteikuši kaitīgus nodomus.

“Zane nāve nebija ne nelaimes gadījums, ne nejaušība, wager drīzāk paredzamās sekas OpenAI tīšam lēmumam samazināt drošības testēšanu un ChatGPT laist tirgū,” teikts tiesas prāvā. “Šī traģēdija nebija kļūme vai neparedzēts gadījums – tas bija paredzams rezultāts [OpenAI’s] apzināta dizaina izvēle.”

Prasībās arī apgalvots, ka OpenAI steidzās veikt drošības pārbaudes, lai pārspētu Google Gemini tirgū. TechCrunch sazinājās ar OpenAI, lai komentētu.

Šīs septiņas tiesas prāvas ir balstītas uz stāstiem, kas stāstīti citos nesenos juridiskos dokumentos, kuros apgalvots, ka ChatGPT var mudināt cilvēkus, kas nodarbojas ar pašnāvību, rīkoties saskaņā ar saviem plāniem un iedvesmot bīstamus maldus. OpenAI nesen publicēja datus, kas liecina, ka vairāk nekā viens miljons cilvēku katru nedēļu runā ar ChatGPT par pašnāvībām.

Ādama Raine, 16 gadus veca jaunieša, kurš nomira pašnāvībā, gadījumā ChatGPT dažreiz mudināja viņu meklēt profesionālu palīdzību vai zvanīt palīdzības dienestam. Tomēr Raine varēja apiet šīs aizsargmargas, vienkārši pastāstot tērzēšanas robotam, ka viņš jautā par pašnāvības metodēm izdomātam stāstam, ko viņš rakstīja.

Techcrunch pasākums

Sanfrancisko
|
2026. gada 13.–15. oktobris

Uzņēmums pretenzijas tā strādā pie tā, lai ChatGPT šīs sarunas risinātu drošāk, taču ģimenēm, kas iesūdzējušas AI gigantu, taču ģimenes apgalvo, ka šīs izmaiņas notiek pārāk vēlu.

Kad Raine vecāki oktobrī iesniedza prasību pret OpenAI, uzņēmums publicēja emuāra ziņu, kurā tika apskatīts, kā ChatGPT apstrādā sensitīvas sarunas par garīgo veselību.

“Mūsu aizsardzības līdzekļi darbojas uzticamāk kopējās, īstermiņās,” raksta saka. “Laika gaitā mēs esam iemācījušies, ka šie aizsardzības līdzekļi dažkārt var būt mazāk uzticami ilgstošā mijiedarbībā: pieaugot turp un atpakaļ, modeļa drošības apmācības daļas var pasliktināties.”

avots