Home Tehnoloģija OpenAI aptur “necieņas pilnos” Mārtina Lutera Kinga juniora viltojumus

OpenAI aptur “necieņas pilnos” Mārtina Lutera Kinga juniora viltojumus

9
0

Līva MakmahonaTehnoloģiju reportieris

Bettmann Archive/Getty Images Melnbalta fotogrāfija, kurā redzams nelaiķis Dr. Martins Luters Kings jaunākais. Viņš stāv pie tribīnes, mikrofonu ieskauts, runājot un skatās pa labi no skatuves.Bettmann arhīvs/Getty Photographs

OpenAI ir apstājies tās mākslīgā intelekta (AI) lietotne Sora pēc viņa īpašuma pieprasījuma izveido dziļi viltotus videoklipus, kuros attēlots Dr Martins Luters Kings jaunākais.

Uzņēmums atzina, ka video ģenerators ir radījis “necieņas pilnu” saturu par civiltiesību kampaņas dalībnieku.

Sorai ir kļuvis par vīrusu ASV pateicoties spējai uzņemt hiperreālistiskus videoklipus, kā rezultātā cilvēki dalās ar viltotām ainām ar mirušām slavenībām un vēsturiskām personībām dīvainos un bieži vien aizskarošos scenārijos.

OpenAI paziņoja, ka tā apturēs doktora Kinga attēlu uzņemšanu, “jo tas nostiprina aizsargmargas vēsturiskām personām”, taču tas joprojām ļauj cilvēkiem veidot klipus ar citām augsta līmeņa personām.

Šī pieeja ir izrādījusies pretrunīga, jo videoklipi, kuros redzamas tādas personas kā prezidents Džons Kenedijs, karaliene Elizabete II un profesors Stīvens Hokings, ir plaši izplatīti tiešsaistē.

Tā rezultātā Zelda Viljamsa, Robina Viljamsa meita, lūgt cilvēkus pārtraukt sūtīt viņai mākslīgā intelekta ģenerētus viņas tēva videoklipusslavenais ASV aktieris un komiķis, kurš nomira 2014. gadā.

Bernisa A. Kinga, mirušā doktora Kinga meita, vēlāk izteica līdzīgu publisku lūgumu, rakstot tiešsaistē: “Es piekrītu par savu tēvu. Lūdzu, pārtrauciet.”

Starp mākslīgā intelekta veidotajiem videoklipiem, kuros attēlots pilsonisko tiesību aizstāvis, bija daži viņa bēdīgi slavenā runa “Man ir sapnis” rediģēti dažādos veidos. Washington Post ziņojumi vienā klipā bija redzams, ka viņš rada rasistiskas skaņas.

Tikmēr citi, kas kopīgoja Sora lietotnē un sociālajos medijos, rādīja skaitļus, kas līdzinās Dr King un citam pilsoņu tiesību aizstāvim Malkolmam X, kuri cīnās viens ar otru.

Atļaut X saturs?

Šajā rakstā ir saturs, ko nodrošina X. Pirms kaut kas tiek ielādēts, mēs lūdzam jūsu atļauju, jo viņi var izmantot sīkfailus un citas tehnoloģijas. Iespējams, vēlēsities izlasīt un pirms pieņemšanas. Lai skatītu šo saturu, izvēlieties ‘pieņemt un turpināt’.

AI ētiķe un autore Olīvija Gambelina sacīja BBC OpenAI, ka doktora Kinga attēla turpmākas izmantošanas ierobežošana ir “labs solis uz priekšu”.

Taču viņa teica, ka uzņēmumam jau no paša sākuma vajadzēja ieviest pasākumus, nevis izmantot “izmēģinājumu un kļūdu, izmantojot ugunsdzēsības šļūtenes” pieeju, lai ieviestu šādu tehnoloģiju.

Viņa sacīja, ka spēja radīt viltojumus par mirušām vēsturiskām personām ne tikai liecina par “cieņas trūkumu” pret viņiem, guess arī rada papildu briesmas cilvēku izpratnei par īstu un viltotu saturu.

“Tas pārāk cieši spēlē mēģinājumu pārrakstīt vēstures aspektus,” viņa teica.

“Vārda brīvības intereses”

Dziļās viltojumu parādīšanās — videoklipi, kas ir pārveidoti, izmantojot AI rīkus vai citas tehnoloģijas, lai parādītu, ka kāds runā vai uzvedas tā, kā viņš nav darījis, ir radījis bažas, ka tos var izmantot dezinformācijas, diskriminācijas vai ļaunprātīgas izmantošanas izplatīšanai.

OpenAI piektdien paziņoja, ka, lai gan tā uzskata, ka pastāv “spēcīgas runas brīvības intereses, attēlojot vēsturiskas personas”, viņiem un viņu ģimenēm vajadzētu kontrolēt savas līdzības.

“Pilnvarotie pārstāvji vai īpašumu īpašnieki var pieprasīt, lai viņu līdzība netiktu izmantota Sora kamejas,” teikts tajā.

Ģeneratīvais mākslīgā intelekta eksperts Henrijs Adžders sacīja, ka šī pieeja, kaut arī pozitīva, “raisa jautājumus par to, kurš saņem aizsardzību pret sintētisku augšāmcelšanos un kurš nē”.

“Karaļa īpašums to pamatoti izvirzīja kopā ar OpenAI, taču daudzām mirušām personām nav labi zināmu un labi resursiem bagātu īpašumu, kas viņus pārstāvētu,” viņš teica.

“Galu galā es domāju, ka mēs vēlamies izvairīties no situācijas, kad sabiedrība pieņem, ka pēc mūsu nāves mums ir brīva izvēle, kā mēs joprojām esam pārstāvēti.”

OpenAI oktobra sākumā BBC paziņoja, ka ir izveidojusi “vairākus aizsardzības slāņus, lai novērstu ļaunprātīgu izmantošanu”.

Un tajā teikts, ka notiek “tiešs dialogs ar publiskām personām un satura īpašniekiem, lai apkopotu atsauksmes par to, kādas kontroles viņi vēlas”, lai to atspoguļotu turpmākajās izmaiņās.

Zaļš reklāmas reklāmkarogs ar melniem kvadrātiem un taisnstūriem, kas veido pikseļus, virzās no labās puses. Tekstā teikts:



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here