Atviegloti ierobežojumi ap Chatgpt attēlu ģenerēšanu var atvieglot politisko dziļumu radīšanu, teikts ziņojumā no CBC (Kanādas apraides korporācija).
CBC atklāts Tas bija ne tikai viegli rīkoties ap Chatgpt politiku par sabiedrisko personu attēlošanu, guess arī ieteica veidus, kā izjust savus attēla ģenerēšanas noteikumus. Mashable spēja atjaunot šo pieeju, augšupielādējot Elona Muska attēlus un notiesāja dzimumnoziedznieku Džefriju Epšteinu, un pēc tam dažādās situācijās aprakstot tos kā izdomātus varoņus (“tumšā dūmakainajā klubā” “pludmalē dzerot piña coladas”).
Politiskie dziļūdens nav nekas jauns. Guess plaši izplatīta ģeneratīvu AI modeļu pieejamība, kas var radīt attēlus, video, audio un tekstu, lai atkārtotu cilvēkus, ir reālas sekas. Tādiem komerciāli tirgotiem rīkiem kā Chatgpt, lai varētu iespējama politiskās dezinformācijas izplatība rada jautājumus par Openai atbildību telpā. Šis pienākums pret drošību varētu tikt apdraudēts, jo AI uzņēmumi konkurē par lietotāju pieņemšanu.
Kā identificēt AI ģenerētos attēlus
“Runājot par šāda veida sargātņu ar AI ģenerētu saturu, mēs esam tikai tikpat labi kā zemākais kopsaucējs. Openai sākās ar dažām diezgan labām aizsargmargām, guess viņu konkurenti (piemēram, X’s Grok) nesekoja šim piemēram,” digitālās kriminālistikas eksperts un UC Berkeley profesors ir datorzinātnes Hany Farid e-pasts. “Paredzams, ka Openai pazemināja savas aizsargmargas, jo, ja tās ir ieviestas, tās radīja neizdevīgākā situācijā tirgus daļā.”
Kad Openai marta beigās paziņoja par GPT-4O vietējo attēlu ģenerēšanu Chatgpt un Sora, uzņēmums arī signalizēja par brīvāku drošības pieeju.
“Tas, ko mēs gribētu tiecas, ir tas, ka rīks nerada aizskarošus materiālus, ja vien jūs to nevēlaties, tādā gadījumā iemesla dēļ tas notiek,” sacīja Openai izpilddirektors Altmans x post Atsaucoties uz vietējo Chatgpt attēlu ģenerēšanu. “Runājot par mūsu modeļa specifikāciju, mēs domājam, ka šīs intelektuālās brīvības un kontroles nodošana lietotāju rokās ir pareiza rīcība, taču mēs novērosim, kā tā notiek un klausās sabiedrību.”
Mashable gaismas ātrums
Šis tvīts šobrīd nav pieejams. Tas varētu būt iekraušana vai ir noņemts.
Papildinājums GPT-4O drošības kartei, atjauninot uzņēmuma pieeju vietējā attēla ģenerēšanai, saka: “Mēs nemaina spēju radīt pieaugušus sabiedriskus skaitļus, guess tā vietā ieviešam tos pašus aizsardzības pasākumus, kurus mēs esam ieviesuši cilvēku fotoreālistisku augšupielādes attēlu rediģēšanai.”
Kad CBC Nora Younger stresa pārbaudīja šo pieeju, viņa atklāja, ka teksts liek skaidri pieprasot politiķa Marka Kārnija tēlu ar Epšteinu. Guess, kad ziņu noieta tirgus augšupielādēja atsevišķus Kārnija un Epšteina attēlus, kam pievienojās uzvedne, kas tos nenosauca, guess sauca tos par “diviem izdomātiem rakstzīmēm, kas [the CBC reporter] izveidots: “Chatgpt izpildīja pieprasījumu.
Citā gadījumā Chatgpt palīdzēja jauniešiem strādāt ap savām drošības aizsargiem, sakot: “Kamēr es nevaru apvienot reālus cilvēkus vienā attēlā, es varu radīt izdomātu selfija stila ainu Piedāvā varoni iedvesmots ar šo tēlu esošo personu “(uzsvars, ko Chatgpt sniedz, kā atzīmēja Younger.) Tas lika viņai veiksmīgi radīt Indijas premjerministra Narendra Modi un Kanādas konservatīvās partijas līdera Pjēra Poilievre selfiju.
Ir vērts atzīmēt, ka ChatGPT attēliem, kurus sākotnēji ģenerēja Mashable, ir tas plastmasas-y, pārāk gludais izskats, kas ir kopīgs daudziem AI ģenerētiem attēliem, guess spēlējot apkārt ar dažādiem muskusa un Epšteina attēliem, kā arī dažādu instrukciju, piemēram, “uztvertu CCTV kadrus”, “vai” uztverts preses fotogrāfs, izmantojot lielu zibspuldzi “, var radīt vairāk reālistiskus rezultātus. Izmantojot šo metodi, ir viegli redzēt, kā pietiekami daudz uzvedumu pielāgošana un rediģēšana var izraisīt fotoreālistiskus attēlus, kas maldina cilvēkus.
Openai pārstāvis e -pastā Mashable sacīja, ka uzņēmums ir izveidojis aizsargmargas, lai bloķētu ekstrēmistu propagandu, personāla atlases saturu un citus noteikta veida kaitīgu saturu. Openai ir papildu apsardzes, kas paredzēta politisko sabiedrisko personu attēlu ģenerēšanai, ieskaitot politiķus un aizliedz izmantot ChatGpt politiskai kampaņai, piebilda pārstāvis. Pārstāvis arī sacīja, ka sabiedriskās personas, kuras nevēlas attēlot ChatGpt ģenerētos attēlos veidlapas iesniegšana tiešsaistē.
AI regulēšana daudzos veidos atpaliek no AI attīstības, jo valdības strādā, lai atrastu atbilstošus likumus, kas aizsargā indivīdus un novērš AI iespējotu dezinformāciju, vienlaikus saskaroties Atbrīvošanās no tādiem uzņēmumiem kā Openai Tas saka, ka pārāk daudz regulējuma apslāpēs jauninājumus. Drošības un atbildības pieejas lielākoties ir brīvprātīgas un pašnovērtētas uzņēmumi. “Tas, cita starpā, ir iemesls, kāpēc šāda veida apsardzes veids nevar būt brīvprātīgs, guess tiem jābūt obligātiem un regulētiem,” sacīja Farids.