Kalifornijas gubernators Gavins Newsoms parakstīts Pirmdien orientārais likumprojekts, kas regulē AI pavadoņus tērzēšanas robotus, padarot to par pirmo valsts valsti, kas pieprasa AI Chatbot operatoriem, lai ieviestu drošības protokolus AI kompanjoniem.
Likums, SB 243, ir paredzēts, lai aizsargātu bērnus un neaizsargātus lietotājus no dažiem no kaitējumiem, kas saistīti ar AI kompanjona tērzēšanas robotu izmantošanu. Tajā ir uzņēmumi – sākot no lielajām laboratorijām, piemēram, Meta un Openai, līdz koncentrētākiem kompanjoniem, piemēram, rakstzīmēm AI un Replika, ir juridiski atbildīgi, ja viņu tērzēšanas roboti neatbilst likuma standartiem.
SB 243 janvārī ieviesa štata senatori Stīvs Padilla un Džošs Bekers, un pēc pusaudža Ādama Raiņa nāves, kurš nomira pašnāvībā pēc sarunām ar Openai’s Chatgpt, ieguva impulsu, kas ietvēra viņa nāves un paškaitējuma apspriešanu un plānošanu. Tiesību akti arī reaģē uz noplūdinātiem iekšējiem dokumentiem, par kuriem, kā ziņots, Meta tērzēšanas robotiem bija atļauts iesaistīties “romantiskā” un “jutekliskā” tērzēšanā ar bērniem. Pavisam nesen, Kolorādo ģimene ir iesniegusi uzvalku Pret lomu spēlējošam starta varonim AI pēc tam, kad viņu 13 gadus vecā meita paņēma savu dzīvi pēc virknes problemātiskas un seksualizētas sarunas ar uzņēmuma tērzēšanas robotiem.
“Tādas jaunās tehnoloģijas kā tērzēšanas roboti un sociālie mediji var iedvesmot, izglītot un savienoties, taču bez reālām aizsargmargām tehnoloģija var arī izmantot, maldināt un apdraudēt mūsu bērnus,” teikts Newsom paziņojumā. “Mēs esam redzējuši dažus patiesi šausminošus un traģiskus jauniešu piemērus, kuriem kaitējis neregulētām tehnoloģijām, un mēs nestāvēsimies, kamēr uzņēmumi turpinās bez nepieciešamajiem ierobežojumiem un atbildības. Mēs varam turpināt vadīt AI un tehnoloģijas, wager mums tas jādara atbildīgi – aizsargājot mūsu bērnus ik uz soļa. Mūsu bērnu drošība nav pārdošanā.”
SB 243 stāsies spēkā 2026. gada 1. janvārī, un tas prasa uzņēmumiem ieviest noteiktas funkcijas, piemēram, vecuma verifikāciju, brīdinājumus par sociālajiem medijiem un pavadošajiem tērzēšanas robotiem, kā arī spēcīgākus sodus – līdz USD 250 000 par darbību – tiem, kas gūst labumu no nelikumīgām dziļu kātiņiem. Uzņēmumiem arī jāizveido protokoli, lai risinātu pašnāvību un paškaitējumu, un dalīties ar šiem protokoliem, kā arī statistiku par to, cik bieži viņi lietotājiem sniedza paziņojumus par krīzes centra profilaksi Sabiedrības veselības departamentam.
Saskaņā ar rēķina valodu platformām ir arī jānoskaidro, ka jebkura mijiedarbība ir mākslīgi ģenerēta, un tērzēšanas roboti nedrīkst sevi attēlot kā veselības aprūpes speciālistus. Uzņēmumiem ir jāpiedāvā nepilngadīgajiem atgādinājumi par pārtraukumu un neļauj viņiem skatīties seksuāli skaidrus attēlus, ko rada tērzēšanas robots.
Daži uzņēmumi jau ir sākuši īstenot dažus aizsardzības pasākumus, kas vērsti uz bērniem. Piemēram, Openai nesen sāka ieviest vecāku kontroli, satura aizsardzību un paškaitēšanas atklāšanas sistēmu bērniem, kuri izmanto Chatgpt. Raksturs AI ir teicis, ka tās tērzēšanas robotā ir atruna, ka visas tērzēšanas iespējas ir AI ģenerētas un izdomātas.
TechCrunch pasākums
Sanfrancisko
|
2025. gada 27.-29. Oktobris
Newsom parakstot šo likumu, notiek pēc tam, kad gubernators pieņēma arī SB 53-vēl vienu pirmo reizi valstī, kas lieliem AI uzņēmumiem nosaka jaunas pārredzamības prasības. Likumprojekts nosaka, ka lielas AI laboratorijas, piemēram, Openai, Antropic, Meta un Google Deepmind, būtu caurspīdīgas attiecībā uz drošības protokoliem. Tas arī nodrošina ziņotāju aizsardzību pret šo uzņēmumu darbiniekiem.
Citas valstis, piemēram, Ilinoisa, Nevada un Jūta, ir pieņēmušas likumus, lai ierobežotu vai tieši aizliegtu AI tērzēšanas robotu izmantošanu kā licencētas garīgās veselības aprūpes aizstājēju.
TechCrunch ir sazinājies ar raksturu AI, Meta, Openai un Replika komentāriem.