Home Tehnoloģija Antropiskie lietotāji saskaras ar jaunu izvēli – atteikties vai kopīgot savus datus...

Antropiskie lietotāji saskaras ar jaunu izvēli – atteikties vai kopīgot savus datus AI apmācībai

7
0

Anthropic veic dažas lielas izmaiņas, kā tas apstrādā lietotāju datus, pieprasot, lai visi Claude lietotāji līdz 28. septembrim izlemtu, vai viņi vēlas, lai viņu sarunas tiek izmantotas AI modeļu apmācībai. Kamēr uzņēmums mūs vadīja uz tā emuāra ieraksts Par politikas izmaiņām, kad jautāja par to, kas izraisīja pārcelšanos, mēs esam izveidojuši dažas savas teorijas.

Guess vispirms tas, kas mainās: iepriekš Antropic modeļa apmācībai neizmantoja patērētāju tērzēšanas datus. Tagad uzņēmums vēlas apmācīt savas AI sistēmas lietotāju sarunās un kodēšanas sesijās, un tā sacīja, ka tā paplašina datu saglabāšanu līdz pieciem gadiem tiem, kuri neatteiksies.

Tas ir masīvs atjauninājums. Iepriekš Anthropic patēriņa produktu lietotājiem tika teikts, ka viņu uzvednes un sarunu rezultāti tiks automātiski izdzēsti no Anthropic aizmugures beigām 30 dienu laikā “ja vien likumīgi vai politika ir jānoraida, lai saglabātu tos ilgāk”, vai arī viņu ieguldījums tika atzīmēts kā tā politikas pārkāpšana, tādā gadījumā lietotāja ieguldījums un iznākumi var tikt saglabāti divus gadus.

Patērētājs mēs domājam, ka jaunā politika attiecas uz Claude Free, Professional un Max lietotājiem, ieskaitot tos, kuri izmanto Claude Code. Biznesa klienti, kas izmanto Claude Gov, Claude for Work, Claude for Training vai API piekļuvei, netiks ietekmēti, kā Openai līdzīgi aizsargā uzņēmuma klientus no datu apmācības politikas.

Tad kāpēc tas notiek? Šajā ziņojumā par atjauninājumu antropiskais mainās izmaiņas, kas saistītas ar lietotāja izvēli, sakot, ka, neatsakoties, lietotāji “palīdzēs mums uzlabot modeļa drošību, padarot mūsu sistēmas kaitīgā satura noteikšanai precīzākai un mazāka iespējamai nekaitīgu sarunu atzīmēšanai”. Lietotāji “palīdzēs arī turpmākajiem Claude modeļiem uzlabot tādas prasmes kā kodēšana, analīze un spriešana, galu galā novedot pie labākiem modeļiem visiem lietotājiem”.

Īsāk sakot, palīdziet mums jums palīdzēt. Guess pilna patiesība, iespējams, ir nedaudz mazāk nesavtīga.

Tāpat kā katrs cits lielās valodas modeļa uzņēmums, antropiskie dati ir nepieciešami vairāk, nekā cilvēkiem ir nepieciešami cilvēki, lai izjuktu sajūtu par tā zīmolu. AI modeļu apmācībai ir nepieciešams milzīgs daudzums augstas kvalitātes sarunvalodas datu, un piekļuvei miljoniem Kloda mijiedarbības būtu jānodrošina tieši tāda veida reālās pasaules saturs, kas var uzlabot Antropic konkurences pozīciju pret konkurentiem, piemēram, Openai un Google.

TechCrunch pasākums

Sanfrancisko
|
2025. gada 27.-29. Oktobris

Papildus AI attīstības konkurences spiedienam, šķiet, ka izmaiņas atspoguļo arī plašākas nozares izmaiņas datu politikā, jo tādi uzņēmumi kā antropic un Openai saskaras ar pieaugošu pārbaudi par viņu datu saglabāšanas praksi. Piemēram, Openai pašlaik cīnās ar tiesas rīkojumu, kas liek uzņēmumam saglabāt visas patērētāju Chatgpt sarunas uz nenoteiktu laiku, ieskaitot izdzēstās tērzēšanas, tāpēc, ka ir iesniegta New York Instances un citu izdevēju iesniegtā tiesas prāva.

Jūnijā Openai Coo Bred Lightcap to sauca par “a plašs un nevajadzīgs pieprasījums”Tas“ fundamentāli ir pretrunā ar privātuma saistībām, kuras mēs esam uzņēmušies saviem lietotājiem ”. Tiesas rīkojums ietekmē Chatgpt Free, Plus, Professional un komandas lietotājus, lai gan uzņēmuma klienti un tie, kuriem ir nulles datu saglabāšanas līgumi, joprojām ir aizsargāti.

Satraucoši ir tas, cik daudz apjukumu visas šīs mainīgās lietošanas politikas rada lietotājiem, no kuriem daudzi viņiem paliek aizmirst.

Godīgi sakot, tagad viss ātri virzās, tāpēc, mainoties tehnoloģijai, privātuma politika noteikti mainās. Guess daudzas no šīm izmaiņām ir diezgan plašas un pieminētas tikai īslaicīgi, ņemot vērā citu uzņēmumu ziņu. (Jūs nedomājat, ka otrdienas politikas izmaiņas antropiskajiem lietotājiem bija ļoti lielas ziņas, pamatojoties uz to, kur uzņēmums ievietoja šo atjauninājumu savā preses lapā.)

Guess daudzi lietotāji neapzinās vadlīnijas, par kurām viņi ir vienojušies, ir mainījušās, jo dizains to praktiski garantē. Lielākā daļa ChatGpt lietotāju turpina noklikšķināt uz “Dzēst” pārslēgšanas, kas neko tehniski neizdzēš. Tikmēr Antropic ieviešana tās jaunajā politikā seko pazīstamam modelim.

Kā tā? Jaunie lietotāji pierakstīšanās laikā izvēlēsies savu izvēli, guess esošie lietotāji lielā tekstā saskaras ar uznirstošo logu ar “atjauninājumiem patērētāju terminiem un politikām” un ievērojamu melno pogu “Pieņemt” ar daudz smalkāku pārslēgšanas slēdzi apmācības atļaujām zemākā drukāšanā-un automātiski iestatītu uz “ieslēgtu”.
Kā novērots agrāk Mūsdienās The Verge dizains rada bažas, ka lietotāji varētu ātri noklikšķināt uz “pieņemt”, nepamanot, ka viņi piekrīt datu apmaiņai.

Tikmēr lietotāju izpratnes likmes nevarētu būt augstākas. Privātuma eksperti jau sen ir brīdinājuši, ka sarežģītība, kas saistīta ar AI, padara jēgpilnu lietotāju piekrišanu gandrīz nesasniedzamu. Bidenes administrācijas vadībā Federālā tirdzniecības komisija pat iekļuva, brīdinājums ka AI uzņēmumi riskē ar izpildes darbību, ja viņi iesaistās “slepenībā mainot savus pakalpojumu vai privātuma politikas noteikumus vai apglabāt izpaušanu aiz hipersaitēm, legāles vai smalkā drukāšanā”.

Vai komisija – tagad darbojas ar taisnīgu trīs No pieciem komisāriem – joprojām ir acis uz šo praksi šodien ir atklāts jautājums, kuru mēs esam ievietojuši tieši FTC.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here