Home Tehnoloģija Kalifornijas likumprojekts, kas regulētu AI pavadoņus tērzēšanas robotus, ir tuvu tam, lai...

Kalifornijas likumprojekts, kas regulētu AI pavadoņus tērzēšanas robotus, ir tuvu tam, lai kļūtu par likumu

19
0

 

Kalifornijas štata asambleja spēra lielu soli pretī AI regulēšanai trešdienas vakarā, dodoties garām SB 243 – Likumprojekts, kas regulē AI pavadoņus tērzēšanas robotus, lai aizsargātu nepilngadīgos un neaizsargātos lietotājus. Tiesību akti tika pieņemti ar divpusēju atbalstu un tagad dodas uz valsts Senātu piektdien galīgajā balsojumā.

Ja gubernators Gavins Newsoms paraksta likumprojektu likumā, tas stāsies spēkā 2026. gada 1. janvārī, padarot Kaliforniju par pirmo štatu, kas pieprasa AI tērzēšanas robotu operatoriem ieviest drošības protokolus AI pavadoņiem un sauktu uzņēmumus likumīgi atbildīgus, ja viņu tērzēšanas roboti neatbilst šiem standartiem.

Likumprojekta mērķis ir novērst pavadoņus tērzēšanas robotus, kurus tiesību akti definē kā AI sistēmas, kas nodrošina adaptīvas, cilvēka līdzīgas atbildes un spēj apmierināt lietotāja sociālās vajadzības-iesaistīties sarunās par pašnāvības idejām, paškaitējumu vai seksuālu skaidru saturu. Likumprojektam būs nepieciešami platformas, lai lietotājiem – ik pēc trim stundām nepilngadīgajiem sniegtu atkārtotus brīdinājumus, atgādinot viņiem, ka viņi runā ar AI tērzēšanas robotu, nevis īstu cilvēku un ka tām vajadzētu atpūsties. Tas arī nosaka gada pārskatu un pārredzamības prasības AI uzņēmumiem, kas piedāvā pavadoņus, ieskaitot galvenos spēlētājus Openai, Rakstzīmi.ai un Replika.

Kalifornijas likumprojekts arī ļautu personām, kuras uzskata, ka viņi ir ievainoti ar pārkāpumiem, lai iesniegtu tiesas prāvas pret AI uzņēmumiem, kas meklē izpildrakstu, zaudējumus (līdz USD 1000 par pārkāpumu) un advokāta atlīdzību.

SB 243, kuru janvārī ieviesa štata senatori Stīvs Padilla un Džošs Bekers, piektdien dosies uz Valsts Senātu. Ja tas tiks apstiprināts, tas tiks parakstīts gubernatoram Gavin Newsom, kas tiks parakstīts likumā, un jaunie noteikumi stāsies spēkā 2026. gada 1. janvārī un ziņošanas prasības, kas sākas 2027. gada 1. jūlijā.

Likumprojekts ieguva impulsu Kalifornijas likumdevējā iestādē pēc pusaudža Adam Raine nāves, kurš izdarīja pašnāvību pēc ilgstošas ​​tērzēšanas ar Openai’s Chatgpt, kas ietvēra viņa nāves un paškaitējuma apspriešanu un plānošanu. Tiesību akti arī reaģē uz noplūdinātiem iekšējiem dokumentiem, par kuriem, kā ziņots, Meta tērzēšanas robotiem bija atļauts iesaistīties “romantiskā” un “jutekliskā” tērzēšanā ar bērniem.

Pēdējo nedēļu laikā ASV likumdevēji un regulatori ir reaģējuši ar pastiprinātu AI platformu aizsardzības pasākumu pārbaudi, lai aizsargātu nepilngadīgos. Līdz Federālā tirdzniecības komisija gatavojas izpētīt, kā AI tērzēšanas roboti ietekmē bērnu garīgo veselību. Teksasas ģenerālprokurors Kens Paxtons ir uzsācis izmeklēšanu par meta un raksturu.ai, apsūdzot viņus par maldinošiem bērniem ar garīgās veselības prasībām. Tikmēr gan vecākais Džošs Havlijs (R-MO), gan Senais Eds Markejs (D-MA) ir palaistas atsevišķas zondes meta.

TechCrunch pasākums

Sanfrancisko
|
2025. gada 27.-29. Oktobris

“Es domāju, ka kaitējums ir potenciāli liels, kas nozīmē, ka mums ātri jāpārvietojas,” Padilla stāstīja TechCrunch. “Mēs varam ieviest saprātīgus aizsardzības pasākumus, lai pārliecinātos, ka īpaši nepilngadīgie zina, ka viņi nerunā ar īstu cilvēku, ka šīs platformas saista cilvēkus ar atbilstošiem resursiem, kad cilvēki saka tādas lietas kā viņi domā par sevi sāpināt vai ir nonākuši nelaimē. [and] Lai pārliecinātos, ka nav neatbilstoša nepiemērota materiāla iedarbība. ”

Padilla arī uzsvēra AI uzņēmumu nozīmi, kas dalās ar datiem par to, cik reizes viņi katru gadu atsaucas uz lietotājiem uz krīzes pakalpojumiem, “tātad mums ir labāka izpratne par šīs problēmas biežumu, nevis tikai par to apzinoties, kad kādam nodarīts kaitējums vai vēl ļaunāk”.

Iepriekš SB 243 bija spēcīgākas prasības, taču daudzi tika samazināti ar grozījumiem. Piemēram, sākotnēji likumprojektam būtu nepieciešami operatori, lai AI tērzēšanas roboti izmantotu “mainīgas atlīdzības” taktiku vai citas funkcijas, kas veicina pārmērīgu iesaistīšanos. Šīs taktikas, ko izmanto AI pavadoņu uzņēmumi, piemēram, replika un raksturs, piedāvā lietotājiem īpašus ziņojumus, atmiņas, sižetus vai iespēju atbloķēt retas atbildes vai jaunas personības, izveidojot to, ko kritiķi sauc par potenciāli atkarību izraisošu atlīdzības cilpu.

Pašreizējais likumprojekts arī noņem noteikumus, kas būtu prasījuši operatoriem izsekot un ziņot, cik bieži tērzēšanas roboti uzsāka diskusijas par pašnāvības idejām vai darbībām ar lietotājiem.

“Es domāju, ka tas rada pareizo līdzsvaru, lai nonāktu pie kaitējuma, neizpildot kaut ko tādu, kas uzņēmumiem nav iespējams ievērot, vai nu tāpēc, ka tas tehniski nav iespējams, vai vienkārši daudz dokumentu par velti,” Bekers sacīja Techcrunch.

SB 243 cenšas kļūt par likumu laikā, kad Silīcija ielejas uzņēmumi ielej miljoniem dolāru politiskās darbības komitejās (PAC), lai atbalstītu kandidātus gaidāmajās vidējā termiņa vēlēšanās, kas atbalsta vieglu pieskārienu AI regulējumam.

Likumprojekts nāk arī tad, kad Kalifornija sver vēl vienu AI drošības rēķinu SB 53, kas prasītu visaptverošas pārredzamības ziņošanas prasības. Openai ir uzrakstījis atklātu vēstuli gubernatoram Newsom, lūdzot viņu atteikties no šī likumprojekta par labu mazāk stingriem federālajiem un starptautiskajiem ietvariem. Lielākie tehnoloģiju uzņēmumi, piemēram, Meta, Google un Amazon, ir iebilduši arī pret SB 53. Turpretī tikai Antropic ir teicis, ka tas atbalsta SB 53.

“Es noraidu pieņēmumu, ka šī ir nulles summas situācija, ka jauninājumi un regulējums ir savstarpēji izslēdzoši,” sacīja Padilla. “Nesakiet man, ka mēs nevaram staigāt un košļāt gumiju. Mēs varam atbalstīt jauninājumus un attīstību, kas, mūsuprāt, ir veselīga un tai ir ieguvumi – un skaidri ir ieguvumi šai tehnoloģijai – un tajā pašā laikā mēs varam nodrošināt saprātīgus aizsardzības pasākumus visneaizsargātākajiem cilvēkiem.”

TechCrunch ir sazinājies ar Openai, Anthropic, Meta, Rakstzīmi AI un Replika komentāriem.

avots