Līva MakmahonaTehnoloģiju reportieris

OpenAI ir apstājies tās mākslīgā intelekta (AI) lietotne Sora pēc viņa īpašuma pieprasījuma izveido dziļi viltotus videoklipus, kuros attēlots Dr Martins Luters Kings jaunākais.
Uzņēmums atzina, ka video ģenerators ir radījis “necieņas pilnu” saturu par civiltiesību kampaņas dalībnieku.
Sorai ir kļuvis par vīrusu ASV pateicoties spējai uzņemt hiperreālistiskus videoklipus, kā rezultātā cilvēki dalās ar viltotām ainām ar mirušām slavenībām un vēsturiskām personībām dīvainos un bieži vien aizskarošos scenārijos.
OpenAI paziņoja, ka tā apturēs doktora Kinga attēlu uzņemšanu, “jo tas nostiprina aizsargmargas vēsturiskām personām”, taču tas joprojām ļauj cilvēkiem veidot klipus ar citām augsta līmeņa personām.
Šī pieeja ir izrādījusies pretrunīga, jo videoklipi, kuros redzamas tādas personas kā prezidents Džons Kenedijs, karaliene Elizabete II un profesors Stīvens Hokings, ir plaši izplatīti tiešsaistē.
Tā rezultātā Zelda Viljamsa, Robina Viljamsa meita, lūgt cilvēkus pārtraukt sūtīt viņai mākslīgā intelekta ģenerētus viņas tēva videoklipusslavenais ASV aktieris un komiķis, kurš nomira 2014. gadā.
Bernisa A. Kinga, mirušā doktora Kinga meita, vēlāk izteica līdzīgu publisku lūgumu, rakstot tiešsaistē: “Es piekrītu par savu tēvu. Lūdzu, pārtrauciet.”
Starp mākslīgā intelekta veidotajiem videoklipiem, kuros attēlots pilsonisko tiesību aizstāvis, bija daži viņa bēdīgi slavenā runa “Man ir sapnis” rediģēti dažādos veidos. Washington Post ziņojumi vienā klipā bija redzams, ka viņš rada rasistiskas skaņas.
Tikmēr citi, kas kopīgoja Sora lietotnē un sociālajos medijos, rādīja skaitļus, kas līdzinās Dr King un citam pilsoņu tiesību aizstāvim Malkolmam X, kuri cīnās viens ar otru.
Atļaut X saturs?
AI ētiķe un autore Olīvija Gambelina sacīja BBC OpenAI, ka doktora Kinga attēla turpmākas izmantošanas ierobežošana ir “labs solis uz priekšu”.
Taču viņa teica, ka uzņēmumam jau no paša sākuma vajadzēja ieviest pasākumus, nevis izmantot “izmēģinājumu un kļūdu, izmantojot ugunsdzēsības šļūtenes” pieeju, lai ieviestu šādu tehnoloģiju.
Viņa sacīja, ka spēja radīt viltojumus par mirušām vēsturiskām personām ne tikai liecina par “cieņas trūkumu” pret viņiem, guess arī rada papildu briesmas cilvēku izpratnei par īstu un viltotu saturu.
“Tas pārāk cieši spēlē mēģinājumu pārrakstīt vēstures aspektus,” viņa teica.
“Vārda brīvības intereses”
Dziļās viltojumu parādīšanās — videoklipi, kas ir pārveidoti, izmantojot AI rīkus vai citas tehnoloģijas, lai parādītu, ka kāds runā vai uzvedas tā, kā viņš nav darījis, ir radījis bažas, ka tos var izmantot dezinformācijas, diskriminācijas vai ļaunprātīgas izmantošanas izplatīšanai.
OpenAI piektdien paziņoja, ka, lai gan tā uzskata, ka pastāv “spēcīgas runas brīvības intereses, attēlojot vēsturiskas personas”, viņiem un viņu ģimenēm vajadzētu kontrolēt savas līdzības.
“Pilnvarotie pārstāvji vai īpašumu īpašnieki var pieprasīt, lai viņu līdzība netiktu izmantota Sora kamejas,” teikts tajā.
Ģeneratīvais mākslīgā intelekta eksperts Henrijs Adžders sacīja, ka šī pieeja, kaut arī pozitīva, “raisa jautājumus par to, kurš saņem aizsardzību pret sintētisku augšāmcelšanos un kurš nē”.
“Karaļa īpašums to pamatoti izvirzīja kopā ar OpenAI, taču daudzām mirušām personām nav labi zināmu un labi resursiem bagātu īpašumu, kas viņus pārstāvētu,” viņš teica.
“Galu galā es domāju, ka mēs vēlamies izvairīties no situācijas, kad sabiedrība pieņem, ka pēc mūsu nāves mums ir brīva izvēle, kā mēs joprojām esam pārstāvēti.”
OpenAI oktobra sākumā BBC paziņoja, ka ir izveidojusi “vairākus aizsardzības slāņus, lai novērstu ļaunprātīgu izmantošanu”.
Un tajā teikts, ka notiek “tiešs dialogs ar publiskām personām un satura īpašniekiem, lai apkopotu atsauksmes par to, kādas kontroles viņi vēlas”, lai to atspoguļotu turpmākajās izmaiņās.
