Home Tehnoloģija Pat puisis, kurš veido chatgpt saka, ka, iespējams, nevajadzētu izmantot tērzēšanas robotus...

Pat puisis, kurš veido chatgpt saka, ka, iespējams, nevajadzētu izmantot tērzēšanas robotus kā terapeitus

13
0

Varbūt nestāstiet savus visdziļākos, tumšākos noslēpumus AI tērzētavai, piemēram, Chatgpt. Jums nav jāņem mans vārds par to. Paņemiet to no puiša aiz populārākā ģeneratīvā AI modeļa tirgū.

Sems Altmans, Chatgpt Maker Openai izpilddirektors, izvirzīja šo jautājumu šonedēļ intervija Ar saimnieku Teo Von šajā pagājušās nedēļas nogales apraidē. Viņš ierosināja, ka jūsu sarunām ar AI vajadzētu būt līdzīgai aizsardzībai kā tām, kuras jums ir ar ārstu vai advokātu. Vienā brīdī Von teica, ka viens iemesls, kāpēc viņš vilcinās izmantot dažus AI rīkus, ir tāpēc, ka viņš “nezināja, kam būs” viņa personiskā informācija.

Ai atlants

“Es domāju, ka tam ir jēga,” sacīja Altmans, “lai patiešām gribētu privātuma skaidrību, pirms jūs to daudz izmantojat, juridisko skaidrību.”

Arvien vairāk AI lietotāju ārstē tērzēšanas robotus tāpat kā viņu terapeitus, ārstus vai advokātus, un tas viņiem ir radījis nopietnu privātuma problēmu. Nav konfidencialitātes noteikumu, un faktiskā mehānika, kas notiek ar šīm sarunām, ir satriecoši neskaidra. Protams, ir arī citas problēmas ar AI kā terapeita vai uzticības personāla izmantošanu, piemēram, kā robotprogrammatūras var sniegt briesmīgus padomus vai kā viņi var pastiprināt stereotipus vai aizspriedumusApvidū (Mans kolēģis Nelsons Aguilars ir sastādījis sarakstu ar 11 lietām, kuras jums nekad nevajadzētu darīt ar Chatgpt un kāpēc.)

Altmans skaidri apzinās šeit jautājumus, un šķiet, ka vismaz tas ir mazliet satraukts. “Cilvēki to izmanto, it īpaši jaunieši, to izmanto kā terapeitu, dzīves treneri, man ir šīs attiecību problēmas, kas man jādara?” Viņš teica. “Pašlaik, ja jūs runājat ar terapeitu vai juristu vai ārstu par šīm problēmām, par to ir likumīgas privilēģijas.”

Jautājums radās sarunas daļā par to, vai ap AI vajadzētu būt vairāk noteikumu vai noteikumu. Noteikumi, kas apslāpē AI uzņēmumus un tehnoloģiju attīstību, šajās dienās Vašingtonā iegūs labvēlību, jo prezidenta Donalda Trumpa AI rīcības plāns šonedēļ publiskoja vēlmi mazāk, nevis vairāk regulēt šo tehnoloģiju. Wager noteikumi to aizsardzībai varētu atrast labvēlību.

Lasīt vairāk: AI Necessities: 29 veidi, kā jūs varat likt Gen AI strādāt jūsu labā, pēc mūsu ekspertu domām

Altmans visvairāk uztraucas par likumīgas aizsardzības trūkumu tādiem uzņēmumiem kā viņa, lai viņi netiktu spiesti nodot privātas sarunas tiesas prāvās. Openai ir iebilst pieprasījumos saglabāt lietotāju sarunas tiesas prāvā ar New York Occasions par autortiesību pārkāpumiem un intelektuālā īpašuma jautājumiem. (Informācijas atklāšana: CNET mātesuzņēmums Zifs Deiviss aprīlī iesniedza tiesas procesu pret Openai, apgalvojot, ka tas pārkāpj Ziff Davis autortiesības apmācībā un darbībā tās AI sistēmās.)

“Ja jūs ejat sarunāties ar Chatgpt par visjutīgākajiem priekšmetiem un tad tur ir tiesas prāva vai kas cits, mums tas varētu prasīt,” sacīja Altmans. “Es domāju, ka tas ir ļoti ieskrūvēts. Es domāju, ka mums vajadzētu būt vienādam privātuma koncepcijai jūsu sarunām ar AI, ko jūs darāt ar savu terapeitu vai ko citu.”

Skatieties šo: Openai debitē “studiju režīms” studentiem, tējas lietotnes datu pārkāpumu un vai robots suns varētu piegādāt jūsu nākamo picu? | Tech šodien

Esiet piesardzīgs, ko jūs sakāt AI par sevi

Jums jautājums nav tik daudz, ka Openai, iespējams, nāksies apgrozīt jūsu sarunas tiesas prāvā. Tas ir jautājums, kam jūs uzticaties saviem noslēpumiem.

Kārnegija Melona universitātes pētnieks Viljams Agņevs, kurš bija daļa no komandas, kas Novērtētie tērzēšanas roboti Viņu sniegumā, kas attiecas uz terapijai līdzīgiem jautājumiem, nesen man teica, ka privātums ir ārkārtīgi svarīgs jautājums, uzticoties AI rīkiem. Neskaidrība par to, kā darbojas modeļi – un kā jūsu sarunas tiek turpinātas parādīties citu cilvēku tērzēšanā – ir pietiekams iemesls, lai vilcinātos.

“Pat ja šie uzņēmumi mēģina būt uzmanīgi ar jūsu datiem, ir labi zināmi šie modeļi, lai reaģētu uz informāciju,” sacīja Agnew.

Ja Chatgpt vai cits rīks rediģē informāciju no jūsu terapijas sesijas vai no jūsu uzdotajiem medicīniskajiem jautājumiem, tas varētu parādīties, ja jūsu apdrošināšanas kompānija vai kāds cits, kam ir interese par jūsu personīgo dzīvi, prasa to pašu rīku par jums.

“Cilvēkiem patiešām vajadzētu vairāk padomāt par privātumu vairāk un tikai zināt, ka gandrīz viss, ko viņi saka šiem tērzēšanas robotiem, nav privāts,” sacīja Agnew. “Tas tiks izmantots visdažādākajos veidos.”



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here