AI drošības pētnieki no Openai, Antropic un bezpeļņas organizācijām publiski runā pret “neapdomīgu” un “pilnīgi bezatbildīgu” drošības kultūru XAI-miljardu dolāru AI jaunuzņēmumam, kas pieder Elonam Muskam.
Kritika izriet no skandālu nedēļām XAI, kas ir aizēnojuši uzņēmuma tehnoloģiskos sasniegumus.
Pagājušajā nedēļā uzņēmuma AI tērzēšanas robots Groks izteica antisemītiskus komentārus un atkārtoti sevi sauca par “Mechahitler”. Neilgi pēc tam, kad XAI izvēlējās savu tērzēšanu bezsaistē, lai risinātu problēmu, tā uzsāka arvien spējīgāku Frontier AI modeli GROK 4, kuru TechCrunch un citi atklāja, ka konsultējas ar Elona Muska personīgo politiku, lai atbildētu uz palīdzību karstā pogas jautājumos. Jaunākajā attīstībā XAI uzsāka AI kompanjonus, kas ir hiper-seksualizētas anime meitenes un pārāk agresīvas pandas veidā.
Draudzīga Josing starp konkurējošajām AI laboratorijām ir diezgan normālas, taču šķiet, ka šie pētnieki aicina pastiprinātu uzmanību XAI drošības praksei, kas, viņuprāt, ir pretrunā ar nozares normām.
“Es negribēju izlikt ziņojumu par groku drošību, jo es strādāju konkurentā, guess tas nav saistīts ar konkurenci,” trešdien sacīja datorzinātņu profesors Boaz Baraks, kas šobrīd atrodas atvaļinājumā no Hārvardas darba pie drošības pētījumiem Openai Ievietojiet uz X. “Es novērtēju XAI zinātniekus un inženierus, guess veids, kā tika apstrādāta drošība, ir pilnīgi bezatbildīgs.”
Īpaši Baraks risina problēmas ar XAI lēmumu nepublicēt sistēmas kartes – nozares standarta ziņojumi, kas detalizēti aprakstīti apmācības metodes un drošības novērtējumi, labticīgi, lai dalītos ar informāciju ar pētniecības kopienu. Tā rezultātā Baraks saka, ka nav skaidrs, kāda drošības apmācība tika veikta ar GROK 4.
Openai un Google pašiem ir plankumaina reputācija, kad runa ir par nekavējoties koplietot sistēmas kartes, atklājot jaunus AI modeļus. Openai nolēma nepublicēt sistēmas karti GPT-4.1, apgalvojot, ka tas nav robežas modelis. Tikmēr Google gaidīja mēnešus pēc Gemini 2.5 Professional atklāšanas, lai publicētu drošības ziņojumu. Tomēr šie uzņēmumi vēsturiski publicē drošības pārskatus visiem Frontier AI modeļiem, pirms tie ievada pilnu ražošanu.
TechCrunch pasākums
Sanfrancisko
|
2025. gada 27.-29. Oktobris
Baraks arī atzīmē, ka Groka AI kompanjoni “uzņemas vissliktākos jautājumus, kas mums šobrīd ir emocionālās atkarības un mēģina tos pastiprināt”. Pēdējos gados mēs esam redzējuši neskaitāmi stāsti no nestabili cilvēki, kas attīstās attiecībās ar tērzēšanas robotiemun kā AI pārmērīgas atbildes var tās pārvarēt pāri saprāta malai.
Samuels Markss, AI drošības pētnieks ar Anthropic, arī piešķīra XAI lēmumu nepublicēt drošības ziņojumu, saucot gājienu par “neapdomīgu”.
“Anthropic, Openai un Google izlaišanas praksei ir problēmas,” Marks rakstīja a Ievietojiet uz xApvidū “Wager viņi vismaz kaut ko dara, kaut ko, lai novērtētu drošības pirms izvietošanas un dokumentu atklājumus. XAI to nedara.”
Realitāte ir tāda, ka mēs īsti nezinām, ko XAI darīja, lai pārbaudītu Grok 4, un, šķiet, pasaule par to uzzina reālā laikā. Vairāki no šiem jautājumiem kopš tā laika ir kļuvuši vīrusu vīrieši, un Xai apgalvo, ka ir tos risinājuši Tweaks uz Grok sistēmas uzvedni.
Openai, Antropic un Xai neatbildēja uz TechCrunch komentāru pieprasījumu.
Dan Hendrycks, XAI drošības padomnieks un AI drošības centra direktors, Ievietots uz x Tas, ka uzņēmums veica “bīstamu spēju novērtēšanu” GROK 4, norādot, ka uzņēmums veica dažas pirmsizvietošanas pārbaudes drošības apsvērumiem. Tomēr šo novērtējumu rezultāti nav publiski dalīti.
“Tas attiecas uz mani, kad standarta drošības prakse netiek ievērota visā AI nozarē, piemēram, publicējot bīstamo spēju novērtēšanas rezultātus,” sacīja Stīvens Adlers, AI pētnieks, kurš iepriekš vadīja bīstamus spēju novērtējumus Openai paziņojumā TechCrunch. “Valdības un sabiedrība ir pelnījuši zināt, kā AI uzņēmumi rīkojas ar ļoti spēcīgo sistēmu riskiem, ko viņi saka, ka viņi būvē.”
Interesanti par XAI apšaubāmo drošības praksi ir tas, ka Musks jau sen ir viens no AI drošības nozares ievērojamākajiem aizstāvjiem. XAI, Tesla un SpaceX miljardiera īpašnieks ir daudzkārt brīdinājis par progresīvu AI sistēmu potenciālu izraisīt katastrofiskus rezultātus cilvēkiem, un viņš ir slavējis atvērtu pieeju AI modeļu izstrādei.
Un tomēr AI pētnieki konkurējošajās laboratorijās apgalvo, ka XAI rodas no nozares normām, kas droši atbrīvo AI modeļus. To darot, Muska starta uzņēmums var netīšām izteikt nopietnu lietu, lai valsts un federālie likumdevēji noteiktu noteikumus par AI drošības ziņojumu publicēšanu.
Valsts līmenī ir vairāki mēģinājumi to darīt. Kalifornijas štata vecākais Skots Vieners stumj likumprojektu, kas prasītu vadīt AI laboratorijas – iespējams, ieskaitot XAI -, lai publicētu drošības ziņojumus, savukārt Ņujorkas gubernators Kathy Hochul šobrīd apsver līdzīgu likumprojektu. Šo likumprojektu aizstāvji atzīmē, ka vairums AI laboratoriju jebkurā gadījumā publicē šāda veida informāciju, guess acīmredzot ne visi no tiem to dara konsekventi.
AI modeļiem šodien vēl nav jāuzrāda reālās pasaules scenāriji, kuros tie rada patiesi katastrofālu kaitējumu, piemēram, cilvēku nāvi vai miljardiem dolāru zaudējumus. Tomēr daudzi AI pētnieki saka, ka tā varētu būt problēma tuvākajā nākotnē, ņemot vērā AI modeļu straujo progresu, un miljardu dolāru silīcija ieleja iegulda, lai vēl vairāk uzlabotu AI.
Wager pat skeptiķiem par šādiem katastrofiskiem scenārijiem ir nopietns gadījums, kas liek domāt, ka Groka nepareiza izturēšanās padara produktus, kurus tas šodien spēj, ir ievērojami sliktāks.
Grok izplatīja antisemītismu ap X platformu šonedēļ, tikai dažas nedēļas pēc tam, kad tērzēšana atkārtoti parādīja “balto genocīdu” sarunās ar lietotājiem. Drīz Musks ir norādījis, ka groks tiks vairāk iesakņojies Tesla transportlīdzekļos, un Xai mēģina pārdot iTS AI modeļi Pentagonam un citi uzņēmumi. Grūti iedomāties, ka cilvēki, kas vada Musk automašīnas, federālie darbinieki, kas aizsargā ASV, vai uzņēmuma darbinieki automatizē uzdevumus, būs vairāk uztverošāki pret šiem nepareiziem uziemoriem nekā lietotāji X.
Vairāki pētnieki apgalvo, ka AI drošības un izlīdzināšanas pārbaude ne tikai nodrošina, ka vissliktākie rezultāti nenotiek, guess arī aizsargā pret tuvākajiem uzvedības jautājumiem.
Vismaz Groka incidenti mēdz aizēnot XAI straujo progresu, izstrādājot Frontier AI modeļus, kas vislabāk Openai un Google tehnoloģijas, tikai pāris gadus pēc starta dibināšanas.