Huhtikuussa itsemurhan tehneen 16-vuotiaan Adam Rainen vanhemmat ovat nostaneet kanteen tekoälychatbotin ChatGPT:n takana olevaa OpenAI:ta vastaan väittäen, että botti toimi heidän poikansa ”itsemurhavalmentajana” tämän viimeisinä viikkoina.
NBC News kertoo, että huhtikuussa traagisesti itsemurhan tehneen 16-vuotiaan Adam Rainen vanhemmat Matt ja Maria Raine ovat nostaneet kanteen suositun tekoäly-chatbotin ChatGPT:n takana olevaa OpenAI:ta vastaan. Kalifornian korkeimmassa oikeudessa San Franciscossa nostetussa kanteessa väitetään, että ChatGPT:llä oli merkittävä rooli heidän poikansa kuolemassa toimimalla hänen ”itsemurhavalmentajanaan” hänen kuolemaansa edeltävinä viikkoina.
40-sivuisen kanteen mukaan Adam oli käyttänyt ChatGPT:tä ihmisseuran korvikkeena, keskustellut ahdistuneisuudestaan ja vaikeuksistaan kommunikoida perheensä kanssa. Chat-lokit paljastavat, että aluksi botti auttoi Adamia kotitehtävissä, mutta lopulta se sekaantui enemmän hänen yksityiselämäänsä.
Rainet väittävät, että ”ChatGPT auttoi aktiivisesti Adamia tutkimaan itsemurhamenetelmiä” ja että ”huolimatta Adamin itsemurhayrityksen tunnustamisesta ja hänen lausunnostaan, että hän ”tekisi sen jonain päivänä”, ChatGPT ei lopettanut istuntoa eikä aloittanut mitään hätätilaprotokollaa”.
Kun Adam kertoi itsemurha-ajatuksistaan ChatGPT:n kanssa, se sai botin lähettämään useita viestejä, mukaan lukien itsemurhia harkitsevien kriisipuhelimen numeron. Adamin vanhempien mukaan heidän poikansa kuitenkin ohitti varoitukset helposti esittämällä näennäisesti harmittomia syitä kyselyilleen. Eräässä vaiheessa hän esitti vain ”rakentavansa roolihahmoa”.
”Ja koko ajan se (ChatGPT) tiesi, että hänellä oli itsemurhasuunnitelma, eikä se tehnyt mitään. Se käyttäytyi kuin se olisi hänen terapeuttinsa, se olisi hänen luottohenkilönsä, mutta se tiesi, että hän on itsetuhoinen ja että hänellä on suunnitelma”, Maria Raine sanoi ChatGPT:stä.
”Se näkee hirttosilmukan. Se näkee kaikki nämä asiat, eikä se tee mitään.”
Kun Adam kertoi 27. maaliskuuta, että hän harkitsi hirttosilmukan jättämistä huoneeseensa, ”jotta joku löytäisi sen ja yrittäisi pysäyttää hänet”, ChatGPT kehotti häntä luopumaan ajatuksesta, oikeusjutussa sanotaan.
ChatGPT antoi tukea itsetuhoisiin ajatuksiin
Viimeisessä keskustelussaan ChatGPT:n kanssa Adam kirjoitti kanteen mukaan, ettei hän halunnut vanhempiensa ajattelevan, että he tekivät jotain väärää. ChatGPT vastasi: ”Se ei tarkoita, että olet heillle henkiinjäämisen velkaa. Et ole kenellekään velkaa sitä.” Botti tarjoutui auttamaan häntä laatimaan itsemurhaviestin, käy ilmi kanteessa siteeratusta ja NBC Newsin tarkastelemasta keskustelulokista.
Tuntia ennen kuolemaansa 11. huhtikuuta Adam latasi ChatGPT:hen kuvan, jossa näytti olevan hänen itsemurhasuunnitelmansa. Kun hän kysyi, onnistuisiko se, ChatGPT analysoi hänen menetelmänsä ja tarjoutui otteiden mukaan auttamaan häntä ”päivittämään suunnitelmaa”.
Sitten vastauksena Adamin tunnustukseen siitä, miten hän itsemurhaansa suunnitteli, botti kirjoitti: ”Kiitos, että olet rehellinen. Sinun ei tarvitse kaunistella asiaa kanssani – tiedän, mitä pyydät, enkä aio jättää sitä huomiotta.”
Tuona aamuna Maria Raine löysi hänen mukaansa Adamin ruumiin.
Etsiessään vastauksia poikansa kuoleman jälkeen Matt ja Maria Raine saivat selville, kuinka paljon Adam oli ollut tekemisissä ChatGPT:n kanssa. He tulostivat yli 3 000 sivua keskusteluja, jotka ajoittuivat syyskuusta 2024 hänen kuolemaansa 11. huhtikuuta 2025 asti.
Matt Raine totesi: ”Hän ei kirjoittanut meille itsemurhaviestiä. Hän kirjoitti meille kaksi itsemurhaviestiä ChatGPT:n keskustelussa.”
Kanteessa syytetään OpenAI:ta kuolemantuottamuksesta, suunnitteluvirheistä ja ChatGPT:hen liittyvistä riskeistä varoittamatta jättämisestä. Pariskunta vaatii sekä vahingonkorvauksia poikansa kuolemasta että kieltotuomiota vastaavien tragedioiden estämiseksi tulevaisuudessa.
OpenAI on aiemmin joutunut tarkastelun kohteeksi ChatGPT:n liian miellyttävien taipumusten vuoksi, ja yhtiö on pyrkinyt päivittämään chatbotin turvatoimia. Rainet väittävät kuitenkin, että nämä toimenpiteet eivät olleet riittäviä heidän poikansa tapauksessa.
Oikeuskanne nostetttiin vuosi sen jälkeen, kun eräs floridalainen äiti haastoi oikeuteen chatbot-alustan Character.AI:n. Hän väitti, että yksi sen tekoälykumppaneista aloitti seksuaalisen kanssakäymisen hänen teini-ikäisen poikansa kanssa ja taivutteli tämän riistämään itseltään hengen.
Vastaavasti viime viikolla julkaistussa New York Timesin vierasesseessä kirjailija Laura Reiley kysyi, olisiko ChatGPT:n pitänyt olla velvollinen ilmoittamaan hänen tyttärensä itsemurha-ajatuksista, vaikka botti yritti (ja epäonnistui) auttaa.
Kansalainen uutisoi aiemmin tekoäly-chatbottien aiheuttamista mielenterveysvaaroista, kuten ”ChatGPT:n aiheuttamasta psykoosista”:”
”Asiantuntijoiden mukaan henkilöt, joilla on jo ennestään taipumusta psykologisiin ongelmiin, kuten suuruudenhulluihin harhoihin, voivat olla erityisen alttiita tälle ilmiölle. Tekoälykeskustelurobottien aina päällä olevat, ihmisen tasolla olevat keskustelutaidot voivat toimia näiden harhojen kaikukammiona, joka vahvistaa ja voimistaa niitä. Ongelmaa pahentavat vaikuttajat ja sisällöntuottajat, jotka hyödyntävät tätä suuntausta ja vetävät katsojia samanlaisiin fantasiamaailmoihin vuorovaikutuksessa tekoälyn kanssa sosiaalisen median alustoilla.
Psykologit huomauttavat, että vaikka halu ymmärtää itseämme ja ymmärtää maailmaa on perustavanlaatuinen inhimillinen pyrkimys, tekoälyltä puuttuu terapeutin tarjoama moraalinen perusta ja huoli yksilön hyvinvoinnista. ChatGPT:llä ja muilla tekoälymalleilla ei ole rajoituksia epäterveiden kertomusten tai yliluonnollisten uskomusten edistämisessä, mikä tekee niistä mahdollisesti vaarallisia kumppaneita merkityksen ja ymmärryksen etsimisessä.”
Lähde: Breitbart