Vai vēlaties gudrāku ieskatu iesūtnē? Reģistrējieties mūsu iknedēļas biļeteniem, lai iegūtu tikai to, kas ir svarīgi uzņēmuma AI, datu un drošības vadītājiem. Abonēt tūlīt
Openai Par reti sastopamu ceturtdienu, pēkšņi pārtraucot funkciju, kas ļāva Čokot lietotāji uz Padariet viņu sarunas atklājamas caur Google un citas meklētājprogrammas. Lēmums tika pieņemts dažu stundu laikā pēc plaši izplatītās sociālo mediju kritikas un ir pārsteidzošs piemērs tam, cik ātri bažas par privātumu var nobraukt pat no sliedēm pat labi nodomu AI eksperimentos.
Funkcija, kuru Openai raksturoja kā “īslaicīgs eksperiments“Nepieciešams lietotājiem aktīvi izvēlēties, daloties tērzēšanā un pēc tam pārbaudot lodziņu, lai padarītu to meklējamu. Tomēr straujā apgrieziena pasvītrojums uzsver būtisku izaicinājumu, ar kuru saskaras AI uzņēmumi: dalīto zināšanu potenciālo ieguvumu līdzsvarošana ar ļoti reāliem riskiem, kas saistīti ar neparedzētu datu ekspozīciju.
Mēs tikko noņēmām funkciju no @Chatgptapp Tas ļāva lietotājiem padarīt savas sarunas, kuras var atklāt meklētājprogrammas, piemēram, Google. Šis bija īslaicīgs eksperiments, lai palīdzētu cilvēkiem atklāt noderīgas sarunas. Šai funkcijai lietotājiem bija jāizvēlas, vispirms izvēloties tērzēšanu … pic.twitter.com/mgi3lf05ua
– Danξ (@cryps1s) 2025. gada 31. jūlijs
Kā tūkstošiem privātu chatgpt sarunu kļuva par Google meklēšanas rezultātiem
Pretrunas izcēlās, kad lietotāji atklāja, ka viņi var meklēt Google, izmantojot vaicājumu ”Vietne: chatgpt.com/share“Lai atrastu tūkstošiem svešinieku sarunas ar AI palīgu. Tas, kas parādījās, gleznoja intīmu portretu par to, kā cilvēki mijiedarbojas ar mākslīgo intelektu – sākot no ikdienišķiem pieprasījumiem pēc vannas istabas atjaunošanas padomiem līdz dziļi personiskas veselības jautājumiem un profesionāli jutīgām atsākšanas pārrakstīšanai (ņemot vērā šo sarunu personīgo raksturu, kas bieži satur lietotāju vārdus, un privātie apstākļi, venturācija ir saistīta ar Lietotājiem, kas ir saistīti ar noteikumiem.
“Galu galā mēs domājam, ka šī funkcija ļāva ļaudīm nejauši dalīties ar lietām, kuras viņi neplānoja,” Openai drošības komanda paskaidroja X, atzīstot, ka aizsargmargas nebija pietiekamas, lai novērstu nepareizu izmantošanu.
AI trieciena sērija atgriežas Sanfrancisko – 5. augusts
Nākamais AI posms ir šeit – vai esat gatavs? Pievienojieties līderiem no Block, GSK un SAP, lai apskatītu, kā autonomi aģenti pārveido uzņēmumu darbplūsmas-no reālā laika lēmumu pieņemšanas līdz automatizācijai galīgai līdz galam.
Nostipriniet savu vietu tūlīt – telpa ir ierobežota:
Incidents atklāj kritisku neredzīgo vietu, kā AI uzņēmumi tuvojas lietotāju pieredzes dizainam. Kamēr pastāvēja tehniskās aizsardzības pasākumi-šī funkcija tika izvēlēta un, lai aktivizētu, bija nepieciešami vairāki klikšķi-cilvēka parts izrādījās problemātisks. Lietotāji vai nu pilnībā nesaprata to, cik sekas, lai viņu tērzēšana būtu meklējama, vai vienkārši aizmirsa privātuma sekas, entuziasmā daloties ar noderīgām apmaiņām.
Kā viens drošības eksperts atzīmēts uz x: “Berzei par potenciālās privātās informācijas apmaiņu jābūt lielākai par izvēles rūtiņu vai vispār nepastāv.”
Labs aicinājums to ātri noņemt un gaidīt. Ja mēs vēlamies, lai AI būtu pieejama, mums ir jānovērš, ka vairums lietotāju nekad nelasa, ko viņi noklikšķina.
Berzei par potenciālās privātās informācijas apmaiņu vajadzētu būt lielākai nekā izvēles rūtiņai vai vispār nepastāv. https://t.co/remhd1aaxy
– Wavefnx (@wavefnx) 2025. gada 31. jūlijs
Openai kļūda seko satraucošam modelim AI nozarē. 2023. gada septembrī Google saskārās ar līdzīgu kritiku, kad tās Bard AI sarunas sāka parādīties meklēšanas rezultātos, pamudinot uzņēmumu īstenot bloķēšanas pasākumus. Meta saskārās ar salīdzināmām problēmām, kad daži Meta AI lietotāji netīšām Ievietoja privātas tērzēšanas ar publiskām plūsmāmneskatoties uz brīdinājumiem par privātuma statusa izmaiņām.
Šie incidenti apgaismo plašāku izaicinājumu: AI uzņēmumi strauji virzās uz priekšu un atšķirt savus produktus, dažreiz uz spēcīgas privātuma aizsardzības rēķina. Spiediens uz jaunām funkcijām un konkurences priekšrocību uzturēšanu var aizēnot rūpīgi apsvērt iespējamos ļaunprātīgas lietošanas scenārijus.
Uzņēmējdarbības lēmumu pieņēmējiem šim modelim vajadzētu radīt nopietnus jautājumus par pārdevēja uzticamības pārbaudi. Ja uz patērētājiem vērstie AI produkti cīnās ar pamata privātuma kontroli, ko tas nozīmē biznesa lietojumprogrammām, kas apstrādā sensitīvus korporatīvos datus?
Kas uzņēmumiem jāzina par AI Chatbot privātuma riskiem
Līdz meklējamas chatgpt strīdi Īpaša nozīme biznesa lietotājiem, kuri arvien vairāk paļaujas uz AI palīgiem visam, sākot no stratēģiskās plānošanas līdz konkurences analīzei. Kaut arī Openai apgalvo, ka uzņēmuma un komandas kontiem ir atšķirīga aizsardzība pret privātumu, patēriņa produkts fumble uzsver, cik svarīgi ir precīzi saprast, kā AI pārdevēji rīkojas ar datu apmaiņu un saglabāšanu.
Viediem uzņēmumiem vajadzētu pieprasīt skaidras atbildes par datu pārvaldību no viņu AI pakalpojumu sniedzējiem. Galvenie jautājumi ir: kādos apstākļos sarunas varētu būt pieejamas trešajām personām? Kādas kontroles pastāv, lai novērstu nejaušu iedarbību? Cik ātri uzņēmumi var reaģēt uz privātuma gadījumiem?
Incidents arī parāda privātuma pārkāpumu vīrusu raksturu sociālo mediju laikmetā. Dažu stundu laikā pēc sākotnējā atklāšanas stāsts bija izplatījies pāri X.com (agrāk Twitter)Verdzība Redditun galvenās tehnoloģiju publikācijas, pastiprinot reputācijas bojājumus un piespiežot Openai roku.
Inovācijas dilemma: noderīgu AI funkciju veidošana, neapdraudot lietotāju privātumu
Openai redzējums par meklējamo tērzēšanas funkciju pēc būtības nebija kļūdains. Spēja atklāt noderīgas AI sarunas varētu patiesi palīdzēt lietotājiem atrast risinājumus kopīgām problēmām, līdzīgi kā tas, kā Kaudzes pārplūde ir kļuvis par nenovērtējamu resursu programmētājiem. Meklējamo zināšanu bāzes veidošanas jēdziens no AI mijiedarbības ir nopelns.
Tomēr izpilde atklāja būtisku spriedzi AI attīstībā. Uzņēmumi vēlas izmantot kolektīvo intelektu, ko rada lietotāju mijiedarbība, vienlaikus aizsargājot individuālo privātumu. Pareiza līdzsvara atrašanai ir nepieciešama sarežģītāka pieeja nekā vienkāršām izvēles rūtiņām opt-in.
Viens lietotājs uz x sagūstīja sarežģītību: “Samaziniet funkcionalitāti, jo cilvēki nevar lasīt. Noklusējums ir labs un drošs, jums vajadzēja stāvēt zemē.” Wager citi nepiekrita, ar vienu atzīmējot, ka “Chatgpt saturs bieži ir jutīgāks nekā bankas konts”.
Kā produktu izstrādes eksperts Džefrijs Emanuels ieteica X: “Noteikti vajadzētu veikt pēcnāves par to un jāmaina pieeja, kas turpinās, lai pajautātu:“ Cik slikti būtu, ja dumjākais 20% iedzīvotāju būtu pārprast un nepareizi izmantot šo funkciju? ” un attiecīgi plānojiet. ”
Noteikti būtu jāveic pēcnāves un jāmaina pieeja, kas turpināsies, lai pajautātu: “Cik slikti būtu, ja dumjākie 20% iedzīvotāju būtu pārprot un nepareizi izmantot šo funkciju?” un attiecīgi plānojiet.
– Džefrijs Emanuels (@doodlestein) 2025. gada 31. jūlijs
Būtiska privātuma kontrole Katram AI uzņēmumam vajadzētu ieviest
Līdz Chatgpt meklēšanas iespējamība Piedāvā vairākas svarīgas mācības gan AI uzņēmumiem, gan viņu uzņēmuma klientiem. Pirmkārt, noklusējuma privātuma iestatījumi ir ārkārtīgi svarīgi. Funkcijām, kas varētu atklāt sensitīvu informāciju, būtu nepieciešama skaidra, informēta piekrišana skaidriem brīdinājumiem par iespējamām sekām.
Otrkārt, lietotāja interfeisa dizainam ir izšķiroša loma privātuma aizsardzībā. Sarežģīti daudzpakāpju procesi, pat ja tie ir tehniski droši, var izraisīt lietotāju kļūdas ar nopietnām sekām. AI uzņēmumiem ir jāiegulda lieli ieguldījumi privātuma kontroles veikšanā gan stabilā, gan intuitīvā.
Treškārt, ātras reakcijas iespējas ir būtiskas. Openai spēja mainīt kursu dažu stundu laikā, iespējams, novērsa nopietnāku reputācijas bojājumus, taču negadījums joprojām radīja jautājumus par viņu funkciju pārskatīšanas procesu.
Kā uzņēmumi var pasargāt sevi no AI privātuma kļūmēm
Tā kā AI arvien vairāk integrējas uzņēmējdarbības operācijās, tādi privātuma gadījumi kā šis, iespējams, kļūs nozīmīgāks. Likmes dramatiski palielinās, ja atklātās sarunās ir saistīta ar korporatīvo stratēģiju, klientu datiem vai patentētu informāciju, nevis personiskus jautājumus par mājas uzlabošanu.
Uz nākotni domājošiem uzņēmumiem šis incidents būtu jāuzskata par modināšanas zvanu, lai stiprinātu viņu AI pārvaldības ietvarus. Tas ietver rūpīgu privātuma ietekmes novērtējumu veikšanu pirms jaunu AI rīku izvietošanas, skaidras politikas par to, kādu informāciju var kopīgot ar AI sistēmām, un saglabājot detalizētus AI lietojumprogrammu krājumus visā organizācijā.
Plašākai AI nozarei jāiemācās arī no Openai paklupšanas. Tā kā šie rīki kļūst jaudīgāki un visuresošāki, kļūdu robeža privātuma aizsardzībā turpina sarukt. Uzņēmumi, kas jau pašā sākumā izvirza prioritāti pārdomātai privātuma dizainam, iespējams, baudīs ievērojamas konkurences priekšrocības salīdzinājumā ar tiem, kas privātumu uzskata par pārdomām.
Augstās izmaksas, kas saistītas ar uzticēšanos mākslīgajam intelektam
Līdz Meklējama Chatgpt epizode Ilustrē būtisku patiesību par AI adopciju: Uzticību, kas ir salauzta, ir ārkārtīgi grūti atjaunot. Kaut arī Openai ātrajai reakcijai, iespējams, bija tūlītējs kaitējums, negadījums kalpo kā atgādinājums, ka privātuma kļūmes var ātri aizēnot tehniskos sasniegumus.
Nozarei, kas balstīta uz solījumu pārveidot, kā mēs strādājam un dzīvojam, lietotāju uzticības saglabāšana nav tikai jauka līdz pat tad, tā ir eksistenciāla prasība. Tā kā AI iespējas turpina paplašināties, uzņēmumi, kas gūst panākumus, būs tie, kas pierādīs, ka viņi var ieviest jauninājumus atbildīgi, izvirzot lietotāju privātumu un drošību sava produktu izstrādes procesa centrā.
Tagad jautājums ir par to, vai AI nozare mācīsies no šī jaunākā privātuma modināšanas zvana vai turpinās klupt cauri līdzīgiem skandāliem. Tā kā sacensībās, lai izveidotu visnoderīgāko AI, uzņēmumi, kas aizmirst aizsargāt savus lietotājus, var nonākt vieni.
avots