Home Jaunumi Vai AI attēla-video funkcija var apdraudēt bērnus?

Vai AI attēla-video funkcija var apdraudēt bērnus?

17
0

22. jūnijā Reddit līdzdibinātājs Alexis Ohanian ievietoja savas mātes un pašas bērnības fotoattēlu. Attēlā abi valkā sarkanus džemperus, vienlaikus apskaujot viens otru uz kalnu fona.

Līdztekus attēlam Ohanian kungs ievietoja AI ģenerētu video, kas atdzīvināja attēlu: māte un bērns samīļojas viens ar otru, kad vējš sabojā matus.

“Sasodīts, es nebiju gatavs tam, kā tas justos. Mums nebija videokamera, tāpēc ar manu mammu nav video,” ievietoja Ohanian X (iepriekš Twitter). “Es nometu vienu no maniem iecienītākajiem fotoattēliem Midjournijā kā” starta rāmis AI video “un wow … tas ir tas, kā viņa mani apskāva. Esmu to noskatījusi 50 reizes.”

Amats ātri kļuva vīrusu vīruss un ieguva krietni vairāk nekā 20 miljonus skatījumu. Kamēr daudzi līdzjūtīgi ar Ohanian kunga aktu lolotās ģimenes fotoattēla pārvēršanu video, viņš arī tika smagi kritizēts. Daudzi X lietotāji apsūdzēja viņu par “nepatiesu” atmiņu radīšanu, kaitēt viņa spējai veselīgi apbēdināt māti vai meklēt komfortu viņa ražotajā mijiedarbībā.

Iespēja pārvērst attēlus par videoklipiem neaprobežojas tikai ar tādiem rīkiem kā Midjourney. Pēdējo nedēļu laikā daudznodrošinātais Elons Musks paziņoja par “grok Think about”, lai lietotāji ģenerētu īsus videoklipus no teksta/attēlu uzvednēm. Google jūlijā savā fotoattēlu lietotnē ieviesa režīmu “Izveidot”, lai pārveidotu fotoattēlus par īsiem videoklipiem ASV lietotājiem. Ir arī citas, mazākas platformas, kas piedāvā lietotāju fotoattēlus pārvērst AI videoklipos.

AI rīki gadiem ilgi tiek izmantoti, lai uzlabotu vecos materiālus, izmantojot procesu, ko sauc par AI UPScaling: izplūdušo detaļu, pikseļa un graudu noņemšana, lai nodrošinātu labāku izvadi. Kaut arī Genai ir padarījis šo procesu ātrāku un vieglāku, tas arī ļauj lietotājiem morfēt un manipulēt ar attēliem ar uzlabotiem rīkiem, kas var noņemt objektus un aizpildīt trūkstošās vietas.

Tehnoloģiju lēciens ir saistīts ar juridiskiem jautājumiem, kas jāņem vērā, jo parasti ir nepieciešama atļauja pirms jebkādu nozīmīgu rediģēšanas ar autortiesībām aizsargāta radīšanai. Turklāt ētiskie mīklas rodas arī tad, kad cilvēks manipulē ar fotoattēlu, kurā redzams kāds, kurš vairs nav dzīvs. Zīmīgi, ka vairāk lietotāju ir jāapsver ietekme uz fotoattēla visneaizsargātākajiem priekšmetiem – bērniem.

Bērnu tiesības un drošība, kas pakļauta riskam

Piemēram, kibernoziegumi tagad var ātri izveidot reālistiskus AI video par nepilngadīgajiem, viegli izmantojot savus publiski pieejamos fotoattēlus. Agrāk noziedznieki ir vērsti uz nepilngadīgajiem, ģenerējot sintētiski plikus fotoattēlus no viņiem, lai izspiestu naudu. Viens no šādiem gadījumiem ASV noveda pie tā, ka pusaudzis mira no pašnāvības. Viņa ģimene nezināja, ka bērns tiek uzmākts.

Datu aizsardzības advokāts un AI speciālists Kleanthi Sardeli, kurš sadarbojas ar Vīnes bāzēto NVO Noyb un atbalsta patērētāju digitālās tiesības, sacīja, ka nekustīgu attēlu pārvēršanu video klipos var veikt nevainīgu iemeslu dēļ, wager ir arī “nopietna ietekme”.

“Jo zemāki šķēršļi reālistiska satura radīšanai, jo vairāk mums ir jādomā arī par ētiku, piekrišanu un kontekstu. Fotoattēlu var pārvērst par pārliecinošu video bez attēlotās personas zināšanām vai piekrišanas, palielinot dziļo fragmentu risku, neslavas celšanu un ļaunprātīgu izmantošanu,” sacīja Sardeli kundze, piebilstot, ka riski, kas reizināti ar bērniem, bija iesaistīti.

Viņa paskaidroja, ka saskaņā ar ES GDPR noteikumiem bērni nevar likumīgi piekrist šādai personas datu izmantošanai, ieskaitot viņu tēlu, līdz viņiem ir 16 gadi.

Lai arī eksperti un likumdevēji ir aicinājuši AI uzņēmumus ieviest spēcīgas aizsargmargas, lai neļautu AI tērzēšanas robotiem radīt ļoti pornogrāfiskus plašsaziņas līdzekļus, realitāte ir tāda, ka daudzi tērzēšanas robi viegli izsaka seksuālu saturu. Turklāt AI firmas un viņu priekšnieki agresīvi veicina viņu pakalpojumu. Piemēram, viens konkrēts videoklips Muska kungs dalījās ar to, ka reklamēja Grok Think about spēju attēlot fantāzijas stila klipu ar spārnotu sievieti, kas valkā ļoti mazu apģērbu.

Tikmēr visā internetā vietnes piesaista lietotājus ar morfētiem porno video, kurā ir slavenības, un aicina lietotājus digitāli izģērbties upurus pēc viņu izvēles.

“Papildus acīmredzamām briesmām, piemēram, CSAM (bērnu seksuālās vardarbības materiālu), mazāk ļaunprātīgu lietojumu, piemēram, bērna fotoattēla animēšanu reklāmas vai izklaides nolūkos, var arī apdraudēt bērnu privātumu, cieņu un autonomiju,” sacīja Sardeli kundze.

Vārtsargi un apsardzes līdzekļi

Hindu Sazinājās gan ar Google, gan XAI par šajās platformās esošos aizsardzības pasākumus, lai ierobežotu lietotājus pārvērst bērnu fotoattēlus par videoklipiem un to, vai ir satura filtri, lai apturētu fotoattēlu pārvēršanu pornogrāfiskā satura vai bērnu vardarbības materiālos.

Google pārstāvis sacīja, ka uzņēmums nopietni uztvēra bērnu drošību tiešsaistē un ka Google fotoattēlu no foto-video spēju varētu izmantot tikai ar divām uzvednēm: “smalkām kustībām” un “man jūtas paveicies”.

Turklāt šajos videoklipos būtu redzams neredzams sintezēts digitālais ūdenszīme, kā arī vizuāla ūdenszīme, sacīja uzņēmums.

“Mūsu drošības pasākumos ietilpst plaša“ sarkanā komanda ”, lai proaktīvi identificētu un risinātu iespējamos jautājumus, kā arī rūpīgus novērtējumus, lai saprastu, kā var izmantot funkcijas, un novērst nepareizu izmantošanu. Mēs arī atzinīgi vērtējam lietotāju atsauksmes par jautājumiem, kurus mēs izmantojam, lai veiktu pastāvīgus uzlabojumus mūsu drošības pasākumos un vispārējā pieredze. Mums ir skaidra politika un pakalpojums, kas tiek domāts par to, ko mēs esam ieguvuši, un veidojam, un veidojam apsardzes līdzekļus.

“Google Images ir vieta, kur saglabāt atmiņas, un mēs vēlamies, lai mūsu lietotāji varētu izmantot savus jautros radošos rīkus viņu draugu un ģimenes fotoattēlos, ieskaitot viņu bērnus, vienlaikus prioritizējot arī drošību,” sacīja uzņēmums.

Xai neatbildēja uz paziņojuma pieprasījumu.

ASV Nacionālais pazudušu un ekspluatētu bērnu centrs (NCMEC) ir uzsvēris, ka tas ir “dziļi uztraucies” par to, kā ģeneratīvā AI tika pieradusi seksuāli izmantot bērnus.

“Pēdējo divu gadu laikā NCMEC Cybertifline ir saņēmis vairāk nekā 7000 bērnu seksuālās izmantošanas ziņojumus, kas saistīti ar GAI [Gen AI]un paredzams, ka to skaits pieaugs, turpinot izsekot šīm tendencēm, ”paziņoja organizācija savā tīmekļa vietnē.

Tikmēr Sardeli kundze atzīmēja, ka esošie likumi ES nodrošināja dažus aizsardzības pasākumus, wager tie nebija īpaši izstrādāti, ņemot vērā AI saturu. Tas nozīmē, ka ES bērnu aizsardzības likumi skaidri aizliedz skaidru materiālu, taču tie ir mazāk skaidri, ja runa ir par sintētiskajiem plašsaziņas līdzekļiem, kas nav atklāti nelikumīgi, wager joprojām ir ekspluatējoši vai kaitīgi, saskaņā ar viņu.

Indijā Elektronikas un informācijas tehnoloģiju ministrija (MEITY) ir izdevusi padomus, kas prasa platformām noņemt morfedu (ieskaitot AI DeepFakes), un it īpaši, ja saturs ir grafisks vai seksuāli varmācīgs. Turklāt tādas platformas kā Meta, Google un X ir iecēlušas sūdzību virsniekus Indijā, lai apstrādātu skarto lietotāju iesniegtās sūdzības.

“AI pakalpojumu sniedzēji sāk veidot aizsardzības pasākumus, piemēram, atklāšanas sistēmas un satura filtrus, taču tie ir nevienmērīgi dažādās platformās un ne vienmēr efektīvi. Likums atpaliek no tehnoloģijas. Jo īpaši nav visaptveroša globālā ietvara, kas pievērstos bērnu līdzības nepareizai izmantošanai Genai,” skaidroja Sardeli kundze.

“Ir nepieciešami stingrāki noteikumi par piekrišanu, caurspīdīgumu un atbildību, kā arī tehniskie standarti, kas apgrūtina bērnu fotoattēlu ļaunprātīgu izmantošanu.”

Drošības padomi fotoattēlu pārvēršanai par AI video

Nesadaliet intīmus vai jutīgus fotoattēlus ar ģeneratīvām AI platformām, kad jūs mēģināt tos pārvērst videoklipos, jo, iespējams, atsakāties no savām īpašumtiesībām un lietošanas tiesībām, izmantojot attēlu

Labākā prakse ir pārveidot fotoattēlu tikai par AI video, ja jums ir visu fotoattēlā redzamo personu informēta piekrišana, kā arī fotogrāfs

Nepārvērtiet citu cilvēku ar autortiesībām aizsargātos vai personiskos attēlus par AI video, jo tas var izraisīt tiesvedību pret jums

Ja jūsu vai kāda pazīstama fotogrāfija ir kļuvusi par AI video bez piekrišanas, ziņojiet par saturu tehnoloģiju platformā, kā arī uzņēmuma piešķirtajam sūdzību amatpersonai Indijā, kura uzdevums ir pārliecināties, ka viņi ievēro Indijas likumus

Ja esat vecāks vai uzraugs, atturieties no fotoattēlu kopīgošanas, kurās publiskās platformās ir nepilngadīgie vai citi neaizsargāti cilvēki, jo šos attēlus var viegli nozagt vai nepareizi izmantot kibernoziegumus, izmantojot AI rīkus

Izvairieties no trešo personu platformu izmantošanas, lai personiskos fotoattēlus pārvērstu AI videoklipos, un it īpaši, ja attēlos ir bērni vai citi neaizsargāti cilvēki. Tā vietā drošības apsvērumu dēļ izvēlieties privātus vai ierīces balstītus fotoattēlus-video-video AI

Ir atklāta diskusija ar bērniem un pusaudžiem par pieaugošo AI DeepFakes risku un mudiniet viņus uzticēties uzticamiem pieaugušajiem vai tuvoties policijai, ja viņi kādreiz ir vērsti uz morfētiem attēliem par sevi

(Tie, ​​kas nonāk briesmās vai domās par pašnāvību, tiek mudināti meklēt palīdzību un konsultācijas, zvanot uz palīdzības līnijas numuriem šeit)

avots