Home Tehnoloģija Samita iekšpusē, kur Ķīna savu AI darba kārtību izveidoja pasaulei

Samita iekšpusē, kur Ķīna savu AI darba kārtību izveidoja pasaulei

17
0

Trīs dienas pēc Trumpa administrācija publicēja savu tik ļoti gaidīto AI rīcības plānu, Ķīnas valdība izlika savu AI politikas plānu. Vai laiks bija nejaušība? Es par to šaubos.

Ķīnas “Globālās AI pārvaldības rīcības plāns” tika izlaists 26. jūlijā, pasaules mākslīgā intelekta konferences pirmajā dienā (WAIC), kas ir lielākais ikgadējais AI pasākums Ķīnā. Geoffrey Hinton un Ēriks Šmits bija vieni no daudzajiem Rietumu tehnoloģiju nozares pārstāvjiem, kuri piedalījās svētkos Šanhajā. Uz skatuves bija arī mūsu vadu kolēģis Vils Knitors.

Vibe Vibe bija polārais pretstats Trumpa Amerikas pirmajam, Regulas-Mild vīzijai AI, man to stāsta. Ķīnas premjerministrs Li Qiang savā atklāšanas runā izteicās par globālās sadarbības nozīmi AI. Viņam sekoja virkne ievērojamu ķīniešu AI pētnieku, kuri sniedza tehniskas sarunas, izceļot steidzamus jautājumus, ko Trumpa administrācija, šķiet, lielākoties notīrās.

Zhou Bowen, Shanhai AI laboratorijas vadītājs, kas ir viena no Ķīnas labākajām AI pētniecības iestādēm, norādīja savas komandas darbu AI drošībā WAIC. Viņš arī ierosināja, ka valdībai varētu būt nozīme komerciālo AI modeļu uzraudzībā.

Intervijā ar Wired Yi Zeng, Ķīnas Zinātņu akadēmijas profesors un viena no valsts vadošajām balsīm AI, sacīja, ka viņš cer, ka AI drošības organizācijas no visas pasaules atrod veidus, kā sadarboties. “Vislabāk būtu, ja apvienotos Lielbritānija, ASV, Ķīna, Singapūra un citi institūti,” viņš teica.

Konferencē tika iekļautas arī slēgtas durvju sanāksmes par AI drošības politikas jautājumiem. Runājot pēc tam, kad viņš apmeklēja vienu šādu satraukumu, padomdevēju firmas DGA-Albright Stonebridge Group partneris Pols Triolo sacīja Wired, ka diskusijas ir bijušas produktīvas, neskatoties uz ievērojamo Amerikas vadības neesamību. Tā kā ASV ir ārpus attēla, “Majoru AI drošības spēlētāju koalīcija, kuru vada Ķīna, Singapūra, Lielbritānija un ES, tagad centīsies izveidot apsardzes, kas veido aizsarņus ap Frontier AI modeļa izstrādi,” Triolo stāstīja Wired. Viņš piebilda, ka trūkst ne tikai ASV valdība: no visām galvenajām ASV AI laboratorijām tikai Elona Muska Xai nosūtīja darbiniekus apmeklēt Waic forumu.

Daudzi rietumu apmeklētāji bija pārsteigti, uzzinot, cik liela daļa sarunas par AI Ķīnā ir saistīta ar drošības noteikumiem. “Pēdējo septiņu dienu laikā burtiski varētu apmeklēt AI drošības pasākumus nepārtraukti. Un tas tā nebija ar dažiem citiem globālajiem AI samitiem,” man pastāstīja Braiens Tse, Pekinā bāzētā AI drošības pētījumu institūta Concordia AI dibinātājs. Šīs nedēļas sākumā Concordia AI rīkoja dienas garu drošības forumu Šanhajā ar tādiem slaveniem AI pētniekiem kā Stjuarts Rasels un Joshua Bengio.

Pozīciju maiņa

Salīdzinot Ķīnas AI projektu ar Trumpa rīcības plānu, šķiet, ka abas valstis ir mainījušas pozīcijas. Kad Ķīnas uzņēmumi pirmo reizi sāka izstrādāt uzlabotus AI modeļus, daudzi novērotāji domāja, ka viņus kavēs valdības noteiktās cenzūras prasības. Tagad ASV vadītāji saka, ka viņi vēlas nodrošināt pašmāju AI modeļus “īstenot objektīvu patiesību”, lai mēģinātu, ka, kā mans kolēģis Stīvens Levijs rakstīja pagājušās nedēļas laikā Backkrāns Biļetens ir “klajš vingrinājums no augšas uz leju ideoloģisko novirzi”. Tikmēr Ķīnas AI rīcības plāns ir lasāms kā globālistu manifests: tas iesaka Apvienoto Nāciju Organizācijas palīdzēt vadīt starptautiskos AI centienus un ierosina valdībām būt svarīgai lomai, kas spēlē tehnoloģijas regulēšanu.

Lai arī viņu valdības ir ļoti atšķirīgas, runājot par AI drošību, cilvēki Ķīnā un ASV uztraucas par daudzām tām pašām lietām: halucināciju, diskriminācijas, eksistenciālu risku, kiberdrošības ievainojamību utt., Jo ASV un Ķīna izstrādā robežas AI modeļus, kas ir “apmācīti ar to pašu arhitektūru, un tās pašas metodes, kas ir līdzīgas, ir līdzīgas. Tas nozīmē arī akadēmiskos pētījumus par AI drošību abās valstīs saplūst, tostarp tādās jomās kā mērogojama uzraudzība (kā cilvēki var uzraudzīt AI modeļus ar citiem AI modeļiem) un savietojamu drošības pārbaudes standartu izstrādi.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here