AI pavadošajiem tērzēšanas robotiem būs jāatgādina lietotājiem Kalifornijā, ka viņi nav cilvēki saskaņā ar jaunu likumu, kuru pirmdien parakstīja Govins Gavins Newsoms.
Likums, SB 243, arī pieprasa, lai pavadošie tērzēšanas robotu uzņēmumi uzturētu protokolus, lai identificētu un risinātu gadījumus, kad lietotāji pauž pašnāvības idejas vai paškaitējumu. Lietotājiem, kas jaunāki par 18 gadiem, tērzēšanas robotiem būs jāsniedz paziņojums vismaz ik pēc trim stundām, kas lietotājiem atgādina pārtraukt un ka robots nav cilvēks.
Tas ir viens no vairākiem likumprojektiem, kurus Newsom ir parakstījis pēdējās nedēļās, kas attiecas uz sociālajiem medijiem, mākslīgo intelektu un citiem patērētāju tehnoloģiju jautājumiem. Citam likumprojektam, kas tika parakstīts pirmdien, AB 56, ir vajadzīgas brīdinājuma etiķetes sociālo mediju platformās, līdzīgi kā tām, kas vajadzīgas tabakas izstrādājumiem. Pagājušajā nedēļā Newsom parakstīja pasākumus, kas pieprasa interneta pārlūkprogrammas, lai cilvēki būtu viegli pastāstīt vietnēm, kuras viņi nevēlos, lai viņi pārdod savus datus un skaļas reklāmas aizliegšana Straumēšanas platformās.
Pēdējos mēnešos AI pavadoņu tērzēšanas roboti ir veikuši īpašu pārbaudi no likumdevējiem un regulatoriem. Federālā tirdzniecības komisija uzsāka izmeklēšanu Vairākos uzņēmumos, reaģējot uz patērētāju grupu un vecāku sūdzībām, ka robotprogrammatūras kaitē bērnu garīgajai veselībai. Openai iepazīstināja Jaunas vecāku kontroles un citas apsardzes, kuras populārajā Chatgpt platformā pēc tam, kad uzņēmums tika iesūdzēts tiesā vecāki, kuri apgalvo, ka Chatgpt veicināja viņu pusaudža dēla pašnāvību.
“Mēs esam redzējuši dažus patiesi šausminošus un traģiskus piemērus jauniešiem, kuriem kaitējis neregulētās tehnoloģijas, un mēs nestāvēsimies, kamēr uzņēmumi turpinās bez nepieciešamajiem ierobežojumiem un atbildības,” teikts Newsom paziņojumā.
Nepalaidiet garām nevienu mūsu objektīvo tehnoloģiju saturu un uz laboratoriju balstītām atsauksmēm. Pievienot CNET kā vēlamais Google avots.
Viens AI pavadonis izstrādātājs Replika sacīja CNET, ka tam jau ir protokoli, lai atklātu paškaitējumu, kā to prasa jaunais likums, un ka tas sadarbojas ar regulatoriem un citiem, lai ievērotu prasības un aizsargātu patērētājus.
“Kā viens no AI biedriskuma pionieriem, mēs atzīstam savu dziļo atbildību vadīt drošību,” paziņojumā pa e -pastu sacīja Replika Minju dziesma. Dziesma sacīja, ka replika izmanto satura filtrēšanas sistēmas, kopienas vadlīnijas un drošības sistēmas, kas lietotājiem pēc vajadzības atsaucas uz krīzes resursiem.
Lasīt vairāk: Izmantojot AI kā terapeitu? Kāpēc profesionāļi saka, ka jums vajadzētu padomāt vēlreiz
Raksturs.AI pārstāvis sacīja, ka uzņēmums “atzinīgi vērtē sadarbību ar regulatoriem un likumdevējiem, izstrādājot noteikumus un likumdošanu par šo jauno vietu, un izpildīs likumus, ieskaitot SB 243.” Openai pārstāvis Džeimijs Radice likumprojektu sauca par “jēgpilnu virzību uz priekšu” AI drošībai. “Izveidojot skaidras aizbildnības, Kalifornija palīdz veidot atbildīgāku pieeju AI attīstībai un izvietošanai visā valstī,” Radice sacīja e -pastā.
Vienam likumprojektam Newsom vēl nav jāparaksta, AB 1064dotos tālāk, aizliedzot izstrādātājiem padarīt bērnus pieejamus pavadoņus pieejamus, ja vien AI pavadonis nav “neparedzami spējīgs” cita starpā iedrošināt kaitīgas aktivitātes vai iesaistīties seksuālā skaidrā mijiedarbībā.