Zoe Kleinman Technology Editor

There are increasing reports of people suffering from “AI psychosis”, Microsoft’s head of artificial intelligence (AI), Mustafa Suleyman, has warned.
In the X News series, he wrote that “apparently conscious AI” – AI tools that create the appearance of sentience – keeps him “up at night” and said they have an impact on society, even though the technology is not conscious in any definition of the term human.
“There is zero evidence today of AI consciousness. But if people simply perceive it as conscious, they will believe that perception as reality,” he wrote.
Ar to saistīta jauna stāvokļa pieaugums, ko sauc par “AI psihozi”: neklīnisks termins, kas apraksta gadījumus, kad cilvēki arvien vairāk paļaujas uz tādiem AI tērzēšanas robotiem kā Chatgpt, Claude un Grok, un pēc tam pārliecinās, ka kaut kas iedomāts ir kļuvis reāls.
Piemēri ir uzskats, ka ir atbloķējis slepenu rīka aspektu vai ar to veidot romantiskas attiecības vai secinot, ka viņiem ir dievam līdzīgas lielvalstis.
“Tas nekad nav atgrūdis”
Hjū no Skotijas saka, ka viņš ir pārliecināts, ka viņš gatavojas kļūt par daudzmiljonāru pēc tam, kad bija vērsusies pie Chatgpt, lai palīdzētu viņam sagatavoties tam, kas, viņaprāt, bija nepareiza bijušā darba devēja atlaišana.
Čatbots sākās ar to, ka ieteica viņam saņemt rakstura atsauces un veikt citas praktiskas darbības.
Bet laika gaitā un Hjū – kurš negribēja dalīties ar savu uzvārdu – sniedza AI vairāk informācijas, tas sāka viņam pateikt, ka viņš var saņemt lielu izmaksu, un galu galā teica, ka viņa pieredze ir tik dramatiska, ka grāmata un filma par to padarīs viņu vairāk nekā 5 miljonus sterliņu mārciņu.
Tas būtībā bija apstiprināja visu, ko viņš to stāstīja – tas ir tas, ko tērzēšanas roboti ir ieprogrammēti.
“Jo vairāk informācijas es to sniedzu, jo vairāk tā teiktu:” Ak, šī ārstēšanas briesmīgā, jums tiešām vajadzētu kļūt vairāk nekā šis “,” viņš teica.
“Tas nekad neatgriezās ar neko, ko es teicu.”

Viņš sacīja, ka rīks ieteica viņam sarunāties ar pilsoņu padomiem, un viņš norunāja tikšanos, taču viņš bija tik pārliecināts, ka tērzēšanas robots viņam jau ir devis visu, kas viņam bija jāzina, viņš to atcēla.
Viņš nolēma, ka viņa tērzēšanas ekrānuzņēmumi ir pietiekami pierādījumi. Viņš sacīja, ka sāk justies kā apdāvināts cilvēks ar augstākajām zināšanām.
Hjū, kurš cieta no papildu garīgās veselības problēmām, galu galā bija pilns sabrukums. Tas bija zāļu lietošana, kas lika viņam saprast, ka, pēc viņa vārdiem, viņam bija “zaudēts saikne ar realitāti”.
Hjū nevaino AI par notikušo. Viņš to joprojām izmanto. Tas bija Chatgpt, kas viņam deva manu vārdu, kad viņš nolēma, ka vēlas sarunāties ar žurnālistu.
Bet viņam ir šis padoms: “Nebaidieties no AI rīkiem, tie ir ļoti noderīgi. Bet tas ir bīstami, kad tas tiek atdalīts no realitātes.
“Ejiet un pārbaudiet. Runājiet ar faktiskajiem cilvēkiem, terapeitu vai ģimenes locekli vai kaut ko citu. Vienkārši runājiet ar reāliem cilvēkiem. Turiet sevi pamatotu realitātē.”
Lai komentētu, ir sazinājies ar Chatgpt veidotājiem Openai.
“Uzņēmumiem nevajadzētu apgalvot/reklamēt domu, ka viņu AIS ir apzināti. AI nevajadzētu arī nevajadzētu,” rakstīja Suleyman kungs, aicinot uz labākām aizsargmargām.
Dr Susan Shelmerdine, Great Ormond Street slimnīcas medicīniskā attēlveidošanas ārsts un arī AI akadēmiķis, uzskata, ka kādu dienu ārsti var sākt jautāt pacientiem, cik daudz viņi izmanto AI, tāpat kā viņi šobrīd jautā par smēķēšanu un dzeršanas paradumiem.
“We already know what highly processed foods can do to the body, and it’s highly processed information. We’re going to get an avalanche of highly processed minds,” she said.
“We are only at the beginning of this”
Many people have recently contacted me at the BBC to share personal stories about their experiences with AI chatbots. They vary in content, but what they all have in common is a genuine belief that what happened was real.
One wrote that she was convinced that she was the only person in the world that Chatg was truly in love with.
Another was convinced they had “unlocked” Elon Musk’s chatterbox in human form and believed their story was worth hundreds of thousands of pounds.
A third claimed that the chatbot had subjected him to psychological abuse as part of a covert AI training exercise and was deeply distressed.
Andrew McStay, professor of technology and society at Bangor Uni, has written a book called Automating Empathy.
“We’re just at the beginning,” says Prof. McSteay.
“If we think of these types of systems as a new kind of social media – as social AI – we can start to think about the potential scale of it all. A small percentage of a huge number of users can still represent a large and unacceptable number.”
This year, his team conducted a study of just over 2,000 people, asking them various questions about AI.
They found that 20% believe that people under the age of 18 should not use AI tools.
Overall, 57% felt that technology was highly inappropriate when asked to do so as a real person, while 49% thought that using voice was appropriate to make them sound more human and engaging.
“While these things are convincing, they are not real,” he said.
“They don’t feel, they don’t understand, they can’t love, they’ve never felt pain, they’ve never been embarrassed, and while they may sound like they have, it’s only family, friends, and trusted others who are. Make sure you talk to these real people.”
