AI radīti videoklipi ir visur, sākot no slavenību viltojumiem un viltus katastrofu pārraidēm līdz vīrusu video ar zaķiem uz batuta. Sora, AI video ģenerators no ChatGPT mātesuzņēmuma OpenAI, ir tikai padarījis grūtāk nošķirt patiesību no daiļliteratūras. Un Sora 2 modelis, a pavisam jauna sociālo mediju lietotnear katru dienu kļūst arvien izsmalcinātāka.
Pēdējo dažu mēnešu laikā TikTok līdzīgā lietotne ir kļuvis par vīrusuar AI entuziastiem apņēmību meklēt ielūguma kodus. Wager Sora nelīdzinās jebkurai citai sociālo mediju platformai. Viss, ko redzat vietnē Sora, ir viltots, un visi videoklipi ir AI ģenerēti. Es to aprakstīju kā AI dziļa viltus drudža sapnisno pirmā acu uzmetiena nekaitīgs, ar bīstamiem riskiem, kas slēpjas tieši zem virsmas.
Nepalaidiet garām nevienu no mūsu objektīva tehniskā satura un laboratorijas pārskatiem. Pievienojiet CNET kā vēlamo Google avotu.
No tehniskā viedokļa Sora video ir iespaidīgi salīdzinājumā ar tādiem konkurentiem kā Pusceļa V1 un Google Veo 3. Viņiem ir augsta izšķirtspēja, sinhronizēts audio un pārsteidzošs radošums. Sora populārākā funkcija, kas nodēvēta par “kameju”, ļauj izmantot citu cilvēku līdzības un ievietot tos gandrīz jebkurā AI radītā ainā. Tas ir iespaidīgs rīks, kas rada šausmīgi reālistiskus videoklipus.
Tāpēc tik daudzi eksperti ir noraizējušies par Soru. Lietojumprogramma ikvienam atvieglo bīstamu dziļu viltojumu izveidi, dezinformācijas izplatīšanu un robežu izplūšanu starp to, kas ir īsts un kas nav. Publiskas personas un slavenības ir īpaši neaizsargātas pret šiem dziļajiem viltojumiem, un arodbiedrībām, piemēram, SAG-AFTRA ir mudinājuši OpenAI nostiprināt savas aizsargmargas.
AI satura identificēšana ir pastāvīgs izaicinājums tehnoloģiju uzņēmumiem, sociālo mediju platformām un visiem pārējiem. Wager tas nav pilnīgi bezcerīgi. Šeit ir dažas lietas, kurām jāpievērš uzmanība, lai noteiktu, vai videoklips tika uzņemts, izmantojot Sora.
Meklējiet Sora ūdenszīmi
Katrā Sora iOS lietotnē uzņemtajā videoklipā ir ūdenszīme, kad to lejupielādējat. Tas ir baltais Sora logotips — mākoņa ikona —, kas atrodas ap videoklipa malām. Tas ir līdzīgs tam, kā TikTok videoklipi tiek marķēti ar ūdenszīmi.
Ūdenszīmju saturs ir viens no lielākajiem veidiem, kā AI uzņēmumi var vizuāli palīdzēt mums pamanīt mākslīgā intelekta radīto saturu. Piemēram, Google Gemini “nano banānu” modelis automātiski atzīmē savus attēlus ar ūdenszīmēm. Ūdenszīmes ir lieliskas, jo tās kalpo kā skaidra zīme, ka saturs ir izveidots ar AI palīdzību.
Wager ūdenszīmes nav ideālas. Pirmkārt, ja ūdenszīme ir statiska (nekustas), to var viegli apgriezt. Pat ūdenszīmju pārvietošanai, piemēram, Sora, ir īpaši izstrādātas lietotnes, lai tās noņemtu, tāpēc ūdenszīmēm vien nevar pilnībā uzticēties. Kad OpenAI izpilddirektoram Semam Altmanam par to jautāja, viņš teica sabiedrībai būs jāpielāgojas pasaulei, kurā ikviens var izveidot viltus video par jebkuru. Protams, pirms OpenAI Sora nebija populāra, viegli pieejama un bez prasmēm nepieciešama veida šo videoklipu veidošanai. Wager viņa arguments izvirza pamatotu viedokli par nepieciešamību paļauties uz citām metodēm, lai pārbaudītu autentiskumu.
Pārbaudiet metadatus
Es zinu, jūs droši vien domājat, ka nevarat pārbaudīt videoklipa metadatus, lai noteiktu, vai tas ir īsts. Es saprotu, no kurienes tu nāc; tas ir papildu solis, un jūs, iespējams, nezināt, ar ko sākt. Taču tas ir lielisks veids, kā noteikt, vai videoklips ir uzņemts, izmantojot Sora, un to izdarīt ir vieglāk, nekā jūs domājat.
Metadati ir informācijas kopums, kas tiek automātiski pievienots satura fragmentam, kad tas tiek izveidots. Tas sniedz plašāku ieskatu par to, kā attēls vai video tika izveidots. Tas var ietvert fotoattēla uzņemšanai izmantotās kameras veidu, video uzņemšanas vietu, datumu un laiku, kā arī faila nosaukumu. Katram fotoattēlam un videoklipam ir metadati neatkarīgi no tā, vai tos ir radījis cilvēks vai AI. Lielai daļai AI radītā satura būs arī satura akreditācijas dati, kas norāda arī tā AI izcelsmi.
OpenAI ir daļa no satura izcelsmes un autentiskuma koalīcijas, kas jums nozīmē, ka Sora videoklipi ietver C2PA metadati. Jūs varat izmantot Satura autentiskuma iniciatīvas verifikācijas rīks lai pārbaudītu video, attēla vai dokumenta metadatus. Lūk, kā. (Satura autentiskuma iniciatīva ir daļa no C2PA.)
Kā pārbaudīt fotoattēla, videoklipa vai dokumenta metadatus:
1. Pārejiet uz šo URL: https://verify.contentauthenticity.org/
2. Augšupielādējiet failu, kuru vēlaties pārbaudīt.
3. Noklikšķiniet uz Atvērt.
4. Pārbaudiet informāciju labās puses panelī. Ja tas ir AI ģenerēts, tas ir jāiekļauj satura kopsavilkuma sadaļā.
Kad palaižat Sora videoklipu, izmantojot šo rīku, tiks norādīts, ka videoklipu ir “izdevis OpenAI”, un tajā tiks norādīts, ka tas ir AI ģenerēts. Visos Sora videoklipos ir jābūt šiem akreditācijas datiem, kas ļauj apstiprināt, ka tie ir izveidoti, izmantojot Sora.
Šis rīks, tāpat kā visi AI detektori, nav ideāls. Ir daudz veidu, kā AI video var izvairīties no atklāšanas. Ja jums ir citi videoklipi, kas nav Sora videoklipi, to metadatos var nebūt nepieciešamo signālu, lai rīks noteiktu, vai tie ir vai nav radīti ar mākslīgo intelektu. Piemēram, AI videoklipi, kas izveidoti ar Midjourney, netiek atzīmēti, kā es apstiprināju savā testēšanā. Pat ja videoklipu ir izveidojis Sora, wager pēc tam tas tiek palaists trešās puses lietotnē (piemēram, ūdenszīmju noņemšanas programma) un atkārtoti lejupielādēts, tāpēc ir mazāka iespēja, ka rīks to atzīmēs kā AI.
Satura autentiskuma iniciatīvas verifikācijas rīks pareizi atzīmēja, ka videoklips, ko izveidoju, izmantojot Sora, ir ģenerēts mākslīgais intelekts, kā arī tā izveides datums un laiks.
Meklējiet citas AI etiķetes un iekļaujiet savu
Ja izmantojat kādu no Meta sociālo mediju platformām, piemēram, Instagram vai Fb, varat saņemt nelielu palīdzību, lai noteiktu, vai kaut kas ir AI. Metai ir iekšējās sistēmas lai palīdzētu atzīmēt AI saturu un marķēt to kā tādu. Šīs sistēmas nav ideālas, taču jūs varat skaidri redzēt etiķeti ziņojumiem, kas ir atzīmēti. TikTok un YouTube ir līdzīgas AI satura marķēšanas politikas.
Vienīgais patiesi uzticamais veids, kā uzzināt, vai kaut kas ir AI ģenerēts, ir, ja satura veidotājs to atklāj. Daudzas sociālo mediju platformas tagad piedāvā iestatījumus, kas ļauj lietotājiem atzīmēt savus ierakstus kā AI radītus. Pat vienkāršs kredīts vai informācijas atklāšana parakstā var palīdzēt ikvienam saprast, kā kaut kas tika izveidots.
Ritinot Sora, jūs zināt, ka nekas nav īsts. Taču, kad pametat lietotni un kopīgojat AI ģenerētus videoklipus, mūsu kolektīvā atbildība ir atklāt, kā videoklips tika izveidots. Tā kā AI modeļi, piemēram, Sora, turpina izjaukt robežu starp realitāti un AI, mums visiem ir jāpaskaidro pēc iespējas skaidrāk, kad kaut kas ir īsts vai AI.
Pats galvenais, esiet modrs
Nav nevienas drošas metodes, kā no viena acu uzmetiena precīzi noteikt, vai videoklips ir īsts vai AI. Labākais, ko varat darīt, lai nepieļautu sevi apmānīšanu, ir automātiski un neapšaubāmi neticēt visam, ko redzat tiešsaistē. Sekojiet savam instinktam — ja kaut kas šķiet nereāls, tas droši vien tā arī ir. Šajos bezprecedenta, mākslīgā intelekta pārpilnajos laikos labākā aizsardzība ir rūpīgāk pārbaudīt skatītos videoklipus. Nelietojiet tikai ātri skatienu un ritiniet promenade bez domāšanas. Pārbaudiet, vai teksts ir izjaukts, vai nav pazūdošu objektu un kustību, kas pārkāpj fiziku. Un nevajag sevi piekaut, ja laiku pa laikam tiekat apmānīts; pat eksperti to saprot nepareizi.
(Informācijas atklāšana: Ziff Davis, CNET mātes uzņēmums, aprīlī iesniedza prasību pret OpenAI, apgalvojot, ka tas ir pārkāpis Ziff Davis autortiesības apmācībā un AI sistēmu darbībā.)













