Home Tehnoloģija Sora mainīja Deepfake spēli. Vai varat pateikt, vai video ir īsts vai...

Sora mainīja Deepfake spēli. Vai varat pateikt, vai video ir īsts vai AI?

14
0

Ja pat nedaudz atrodaties tiešsaistē, pastāv iespēja, ka esat redzējis attēlu vai video, kas bija AI radīts. Es zinu, ka agrāk esmu bijis apmānīts, tāpat kā tas vīrusu video ar zaķiem uz batuta. Taču Sora paceļ AI videoklipus pilnīgi jaunā līmenī, padarot to vēl svarīgāku nekā jebkad agrāk zināt, kā pamanīt AI.

Sora ir ChatGPT māsas lietotne, ko izstrādājis tas pats mātes uzņēmums OpenAI. Tas ir nosaukts pēc tā AI video ģeneratora, kas tika laists klajā 2024. gadā. Taču nesen tika veikts pamatīgs remonts ar jaunu Sora 2 modeli, kā arī pavisam jauna sociālo mediju lietotne ar tādu pašu nosaukumu. TikTok līdzīga lietotne kļuva par vīrusuar AI entuziastiem apņēmību meklēt ielūguma kodus. Guess tā nav līdzīga nevienai citai sociālo mediju platformai. Viss, ko redzat uz Sora, ir viltots; visi videoklipi ir AI ģenerēti. Sora izmantošana ir AI dziļa viltus drudža sapnis: no pirmā acu uzmetiena nekaitīgs, ar bīstamiem riskiem, kas slēpjas tieši zem virsmas.


Nepalaidiet garām nevienu no mūsu objektīva tehniskā satura un laboratorijas pārskatiem. Pievienojiet CNET kā vēlamo Google avotu.


No tehniskā viedokļa Sora video ir iespaidīgi salīdzinājumā ar tādiem konkurentiem kā Pusceļa V1 un Google Veo 3. Sora videoklipiem ir augsta izšķirtspēja, sinhronizēts audio un pārsteidzošs radošums. Sora populārākā funkcija, kas nodēvēta par “kameju”, ļauj izmantot citu cilvēku līdzības un ievietot tos gandrīz jebkurā AI radītā ainā. Tas ir iespaidīgs rīks, kas rada šausmīgi reālistiskus videoklipus.

Tāpēc tik daudz ekspertu ir nobažījušies par Sora, kas varētu atvieglot nekā jebkad agrāk ikvienam radīt viltojumus, izplatīt dezinformāciju un izjaukt robežu starp to, kas ir īsts un kas nav. Publiskas personas un slavenības ir īpaši neaizsargātas pret šiem potenciāli bīstamajiem viltojumiem, tāpēc arodbiedrības, piemēram, SAG-AFTRA spieda OpenAI, lai nostiprinātu tās aizsargmargas.

AI satura identificēšana ir pastāvīgs izaicinājums tehnoloģiju uzņēmumiem, sociālo mediju platformām un mums visiem, kas tos lietojam. Guess tas nav pilnīgi bezcerīgi. Šeit ir dažas lietas, kurām jāpievērš uzmanība, lai noteiktu, vai videoklips tika uzņemts, izmantojot Sora.

Meklējiet Sora ūdenszīmi

Katrā Sora iOS lietotnē uzņemtajā videoklipā ir ūdenszīme, kad to lejupielādējat. Tas ir baltais Sora logotips — mākoņa ikona —, kas atrodas ap videoklipa malām. Tas ir līdzīgs tam, kā TikTok videoklipi tiek marķēti ar ūdenszīmi.

Ūdenszīmju saturs ir viens no lielākajiem veidiem, kā AI uzņēmumi var vizuāli palīdzēt mums pamanīt mākslīgā intelekta radīto saturu. Piemēram, Google Gemini “nano banānu” modelis automātiski atzīmē savus attēlus ar ūdenszīmēm. Ūdenszīmes ir lieliskas, jo tās kalpo kā skaidra zīme, ka saturs ir izveidots ar AI palīdzību.

AI atlants

Guess ūdenszīmes nav ideālas. Pirmkārt, ja ūdenszīme ir statiska (nekustas), to var viegli apgriezt. Pat ūdenszīmju pārvietošanai, piemēram, Sora, ir īpaši izstrādātas lietotnes, lai tās noņemtu, tāpēc ūdenszīmēm vien nevar pilnībā uzticēties. Kad OpenAI izpilddirektoram Semam Altmanam par to jautāja, viņš teica sabiedrībai būs jāpielāgojas pasaulei, kurā ikviens var izveidot viltus video par jebkuru. Protams, pirms OpenAI Sora nebija populāra, viegli pieejama un bez prasmēm nepieciešama veida šo videoklipu veidošanai. Guess viņa arguments izvirza pamatotu viedokli par nepieciešamību paļauties uz citām metodēm, lai pārbaudītu autentiskumu.

Pārbaudiet metadatus

Es zinu, jūs droši vien domājat, ka nevarat pārbaudīt videoklipa metadatus, lai noteiktu, vai tas ir īsts. Es saprotu, no kurienes tu nāc; tas ir papildu solis, un jūs, iespējams, nezināt, ar ko sākt. Taču tas ir lielisks veids, kā noteikt, vai videoklips ir uzņemts, izmantojot Sora, un to izdarīt ir vieglāk, nekā jūs domājat.

Metadati ir informācijas kopums, kas tiek automātiski pievienots satura fragmentam, kad tas tiek izveidots. Tas sniedz plašāku ieskatu par to, kā attēls vai video tika izveidots. Tas var ietvert fotoattēla uzņemšanai izmantotās kameras veidu, video uzņemšanas vietu, datumu un laiku, kā arī faila nosaukumu. Katram fotoattēlam un videoklipam ir metadati neatkarīgi no tā, vai tos ir radījis cilvēks vai AI. Lielai daļai AI radītā satura būs arī satura akreditācijas dati, kas norāda arī tā AI izcelsmi.

OpenAI ir daļa no satura izcelsmes un autentiskuma koalīcijas, kas jums nozīmē, ka Sora videoklipi ietver C2PA metadati. Jūs varat izmantot Satura autentiskuma iniciatīvas verifikācijas rīks lai pārbaudītu video, attēla vai dokumenta metadatus. Lūk, kā. (Satura autentiskuma iniciatīva ir daļa no C2PA.)

Kā pārbaudīt fotoattēla, videoklipa vai dokumenta metadatus:

1. Pārejiet uz šo URL: https://verify.contentauthenticity.org/
2. Augšupielādējiet failu, kuru vēlaties pārbaudīt.
3. Noklikšķiniet uz Atvērt.
4. Pārbaudiet informāciju labās puses panelī. Ja tas ir AI ģenerēts, tas ir jāiekļauj satura kopsavilkuma sadaļā.

Kad palaižat Sora videoklipu, izmantojot šo rīku, tiks norādīts, ka videoklipu ir “izdevis OpenAI”, un tajā tiks norādīts, ka tas ir AI ģenerēts. Visos Sora videoklipos ir jābūt šiem akreditācijas datiem, kas ļauj apstiprināt, ka tie ir izveidoti, izmantojot Sora.

Šis rīks, tāpat kā visi AI detektori, nav ideāls. Ir daudz veidu, kā AI video var izvairīties no atklāšanas. Ja jums ir citi videoklipi, kas nav Sora videoklipi, to metadatos var nebūt nepieciešamo signālu, lai rīks noteiktu, vai tie ir vai nav radīti ar mākslīgo intelektu. Piemēram, AI videoklipi, kas izveidoti ar Midjourney, netiek atzīmēti, kā es apstiprināju savā testēšanā. Pat ja videoklipu ir izveidojis Sora, wager pēc tam tas tiek palaists trešās puses lietotnē (piemēram, ūdenszīmju noņemšanas programma) un atkārtoti lejupielādēts, tāpēc ir mazāka iespēja, ka rīks to atzīmēs kā AI.

Sora videoklipa ekrānuzņēmums, kas tiek palaists, izmantojot satura autentiskuma iniciatīvas rīku

Satura autentiskuma iniciatīvas verifikācijas rīks pareizi atzīmēja, ka videoklips, ko izveidoju, izmantojot Sora, ir ģenerēts mākslīgais intelekts, kā arī tā izveides datums un laiks.

Katelyn Chedraoui/CNET ekrānuzņēmums

Meklējiet citas AI etiķetes un iekļaujiet savu

Ja izmantojat kādu no Meta sociālo mediju platformām, piemēram, Instagram vai Fb, varat saņemt nelielu palīdzību, lai noteiktu, vai kaut kas ir AI. Metai ir iekšējās sistēmas lai palīdzētu atzīmēt AI saturu un marķēt to kā tādu. Šīs sistēmas nav ideālas, taču jūs varat skaidri redzēt etiķeti ziņojumiem, kas ir atzīmēti. TikTok un YouTube ir līdzīgas AI satura marķēšanas politikas.

Vienīgais patiesi uzticamais veids, kā uzzināt, vai kaut kas ir AI ģenerēts, ir, ja satura veidotājs to atklāj. Daudzas sociālo mediju platformas tagad piedāvā iestatījumus, kas ļauj lietotājiem atzīmēt savus ierakstus kā AI radītus. Pat vienkāršs kredīts vai informācijas atklāšana parakstā var palīdzēt ikvienam saprast, kā kaut kas tika izveidots.

Ritinot Sora, jūs zināt, ka nekas nav īsts. Taču, kad pametat lietotni un kopīgojat AI ģenerētus videoklipus, mūsu kolektīvā atbildība ir atklāt, kā videoklips tika izveidots. Tā kā AI modeļi, piemēram, Sora, turpina izjaukt robežu starp realitāti un AI, mums visiem ir jāpaskaidro pēc iespējas skaidrāk, kad kaut kas ir īsts vai AI.

Pats galvenais, esiet modrs

Nav nevienas drošas metodes, kā no viena acu uzmetiena precīzi noteikt, vai videoklips ir īsts vai AI. Labākais, ko varat darīt, lai nepieļautu sevi apmānīšanu, ir automātiski un neapšaubāmi neticēt visam, ko redzat tiešsaistē. Sekojiet savam instinktam — ja kaut kas šķiet nereāls, tas droši vien tā arī ir. Šajos bezprecedenta, mākslīgā intelekta pārpilnajos laikos labākā aizsardzība ir rūpīgāk pārbaudīt skatītos videoklipus. Nelietojiet tikai ātri skatienu un ritiniet promenade bez domāšanas. Pārbaudiet, vai teksts ir izjaukts, vai nav pazūdošu objektu un kustību, kas pārkāpj fiziku. Un nevajag sevi piekaut, ja laiku pa laikam tiekat apmānīts; pat eksperti to saprot nepareizi.

(Informācijas atklāšana: Ziff Davis, CNET mātes uzņēmums, aprīlī iesniedza prasību pret OpenAI, apgalvojot, ka tas ir pārkāpis Ziff Davis autortiesības apmācībā un AI sistēmu darbībā.)



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here