Home Tehnoloģija Bijušais Google izpilddirektors brīdina, ka AI sistēmas var tikt uzlauztas, lai tās...

Bijušais Google izpilddirektors brīdina, ka AI sistēmas var tikt uzlauztas, lai tās kļūtu par ārkārtīgi bīstamiem ieročiem

13
0

JAUNSTagad varat klausīties Fox Information rakstus!

Mākslīgais intelekts var būt gudrāks nekā jebkad agrāk, taču šo spēku var vērst pret mums. Bijušais Google izpilddirektors Ēriks Šmits izsauc trauksmi, brīdinot, ka mākslīgā intelekta sistēmas var tikt uzlauztas un pārkvalificētas tādā veidā, kas padara tās bīstamas.

Uzstājoties Sifted Summit 2025 Londonā, Šmits paskaidroja, ka uzlabotajiem AI modeļiem var tikt noņemti drošības pasākumi.

“Ir pierādījumi, ka jūs varat ņemt modeļus, slēgtus vai atvērtus, un jūs varat tos uzlauzt, lai noņemtu to aizsargmargas,” viņš teica. “Apmācības laikā viņi uzzina daudzas lietas. Slikts piemērs būtu, ja viņi iemācītos kādu nogalināt.”

HAKERIS IZMANTO AI ČATBOT KIBERNOZIEDZĪBU SPREĪ

Reģistrējieties manam BEZMAKSAS CyberGuy ziņojumam
Saņemiet manus labākos tehniskos padomus, steidzamus drošības brīdinājumus un ekskluzīvus piedāvājumus, kas tiek piegādāti tieši jūsu iesūtnē. Turklāt jūs iegūsit tūlītēju piekļuvi manam Final Rip-off Survival Information — bez maksas, pievienojoties manam CYBERGUY.COM/NEWSLETTER

Kad AI aizsargmargas neizdodas

Šmits slavēja lielākos mākslīgā intelekta uzņēmumus par bīstamu pamudinājumu bloķēšanu: “Visi lielākie uzņēmumi neļauj šiem modeļiem atbildēt uz šo jautājumu. Labs lēmums. Ikviens to dara. Viņi to dara labi, un viņi to dara pareizo iemeslu dēļ.”

Taču viņš brīdināja, ka pat spēcīgu aizsardzību var mainīt.

“Ir pierādījumi, ka tos var apgriezti inženierijā,” viņš piebilda, norādot, ka hakeri varētu izmantot šo vājumu. Šmits salīdzināja mūsdienu mākslīgā intelekta sacīkstes ar agrīno kodolieroču ēru — jaudīgu tehnoloģiju ar maz globālas kontroles. “Mums ir vajadzīgs ieroču neizplatīšanas režīms,” viņš mudināja, lai negodīgi dalībnieki nevarētu ļaunprātīgi izmantot šīs sistēmas.

Bijušais Google izpilddirektors Ēriks Šmits brīdina, ka uzlauztais AI var iemācīties bīstamu uzvedību. (Jevgeņijs Gologurskis/Getty Pictures)

AI jailbreaks pieaugums

Šmita bažas nav teorētiskas. 2023. gadā tiešsaistē parādījās modificēta ChatGPT versija ar nosaukumu DAN, saīsinājums no “Do Something Now”. Šis “jailbreaked” bots apiet drošības noteikumus un atbildēja gandrīz uz jebkuru uzvedni. Lietotājiem nācās tai “apdraudēt” ar digitālo nāvi, ja tas atteiktos. Tas ir dīvains pierādījums tam, cik trausla var būt AI ētika, ja tiek manipulēts ar tās kodu. Šmits brīdināja, ka bez izpildes šie negodīgie modeļi varētu nekontrolēti izplatīties un slikti aktieri tos varētu izmantot, lai kaitētu.

APOKALIPSE TAGAD? KĀPĒC MEDIJI PĒKŠŅI SATRAUKĀS PAR AI

Lielo tehnoloģiju vadītājiem ir tādas pašas bailes

Šmits nav vienīgais savās satraukumā par mākslīgo intelektu. 2023. gadā Īlons Masks sacīja, ka pastāv “nulles iespēja, ka tas kļūs par Terminatoru”.

“Tas nav 0%, ” intervētājiem sacīja Musks. “Tā ir neliela cilvēces iznīcināšanas iespējamība, taču tā nav nulle. Mēs vēlamies, lai šī varbūtība būtu pēc iespējas tuvāk nullei.”

Šmits ir arī runājis par AI kā “eksistenciālu risku”. Citā pasākumā viņš teica: “Manas bažas par AI patiesībā ir eksistenciālas, un eksistenciālais dangers tiek definēts kā daudzi, daudzi, daudzi, daudzi cilvēki, kas cietuši vai nogalināti.” Tomēr viņš ir arī atzinis AI potenciālu sniegt labumu cilvēcei, ja ar to rīkojas atbildīgi. Axios AI+ samitā viņš atzīmēja: “Es pretojos jums, apgalvojot, ka AI ārsts vai AI pasniedzējs ir negatīvs. Tam ir jānāk par labu pasaulei.”

Padomi, kā pasargāt sevi no AI ļaunprātīgas izmantošanas

Varat pasargāt sevi no riskiem, kas saistīti ar nedrošām vai uzlauztām AI sistēmām. Lūk, kā to izdarīt:

1) Pieturieties pie uzticamām AI platformām

Izmantojiet rīkus un tērzēšanas robotus no cienījamiem uzņēmumiem ar pārredzamām drošības politikām. Izvairieties no eksperimentāliem vai “jailbroken” AI modeļiem, kas sola neierobežotas atbildes.

2) Aizsargājiet savus datus un apsveriet iespēju izmantot datu noņemšanas pakalpojumu

Nekad nekopīgojiet personisku, finanšu vai sensitīvu informāciju ar nezināmiem vai nepārbaudītiem AI rīkiem. Izturieties piesardzīgi pret viņiem tāpat kā pret jebkuru tiešsaistes pakalpojumu. Lai pievienotu papildu drošības līmeni, apsveriet iespēju izmantot datu noņemšanas pakalpojumu, lai notīrītu savu personas informāciju no datu brokeru vietnēm, kas pārdod vai atklāj jūsu informāciju. Tas palīdz ierobežot to, ko hakeri un AI skrāpji var uzzināt par jums tiešsaistē.

Lai gan neviens pakalpojums nevar garantēt pilnīgu jūsu datu noņemšanu no interneta, datu noņemšanas pakalpojums patiešām ir gudra izvēle. Tie nav lēti, un tas nav arī jūsu privātums. Šie pakalpojumi veic visu darbu jūsu vietā, aktīvi uzraugot un sistemātiski dzēšot jūsu personisko informāciju no simtiem vietņu. Tas man sniedz sirdsmieru, un ir izrādījies visefektīvākais veids, kā dzēst savus personas datus no interneta. Ierobežojot pieejamo informāciju, tiek samazināts dangers, ka krāpnieki varētu savstarpēji atsaukties uz datiem par pārkāpumiem ar informāciju, ko viņi varētu atrast tumšajā tīmeklī, tādējādi apgrūtinot viņu mērķauditorijas atlasi.

11 VIENKĀRŠI VEIDI, KĀ AIZSARGĀT TIEŠSAISTES KONFIDENCIALITĀTU 2025. GADĀ

Apskatiet manus populārākos datu noņemšanas pakalpojumus un saņemiet bezmaksas skenēšanu, lai noskaidrotu, vai jūsu personiskā informācija jau ir pieejama tīmeklī, apmeklējot Cyberguy.com/Delete

Saņemiet bezmaksas skenēšanu, lai noskaidrotu, vai jūsu personiskā informācija jau ir pieejama tīmeklī: Cyberguy.com/FreeScan

Sieviete ar rokām uz priekšroces, izskatoties saspringta, pie sava datora.

Eksperti baidās, ka vājās aizsargmargas var neļaut negodīgiem AI modeļiem palikt bez kontroles. (Cyberguy.com)

3) Izmantojiet uzticamu pretvīrusu programmatūru

Pieaug AI virzīta krāpniecība un ļaunprātīgas saites. Spēcīga pretvīrusu programmatūra var bloķēt viltus AI lejupielādes, pikšķerēšanas mēģinājumus un ļaunprātīgu programmatūru, ko hakeri izmanto, lai nolaupītu jūsu ierīces vai apmācītu negodīgus AI modeļus. Atjauniniet to un regulāri veiciet skenēšanu.

Labākais veids, kā pasargāt sevi no ļaunprātīgām saitēm, kas instalē ļaunprātīgu programmatūru un, iespējams, piekļūst jūsu privātajai informācijai, ir visās jūsu ierīcēs instalēt spēcīgu pretvīrusu programmatūru. Šī aizsardzība var arī brīdināt jūs par pikšķerēšanas e-pastiem un izspiedējvīrusu krāpniecību, tādējādi aizsargājot jūsu personisko informāciju un digitālos līdzekļus.

Iegūstiet manus ieteikumus par labākajiem 2025. gada pretvīrusu aizsardzības uzvarētājiem jūsu Home windows, Mac, Android un iOS ierīcēm vietnē Cyberguy.com/LockUpYourTech

4) Pārbaudiet atļaujas

Izmantojot AI lietotnes, pārskatiet, kādiem datiem tās var piekļūt. Atspējojiet nevajadzīgas atļaujas, piemēram, atrašanās vietas izsekošanu, mikrofona lietošanu vai pilnīgu piekļuvi failiem.

5) Pievērsiet uzmanību dziļajiem viltojumiem

AI ģenerēti attēli un balsis var uzdoties par reāliem cilvēkiem. Pirms uzticaties videoklipiem, ziņojumiem vai “oficiāliem” paziņojumiem tiešsaistē, pārbaudiet avotus.

6) Atjauniniet programmatūru

Drošības ielāpi palīdz neļaut hakeriem izmantot ievainojamības, kas var apdraudēt AI modeļus vai jūsu personas datus.

GOOGLE AI E-PASTA KOPSAVILKUMU VAR ​​UZTRAUKT, LAI SLĒPTU PIKŠĶĒŠANAS UZKURUMUS

Ko tas nozīmē jums

AI drošība nav problēma, kas paredzēta tikai tehnoloģiju speciālistiem; tas ietekmē ikvienu, kas mijiedarbojas ar digitālajām sistēmām. Neatkarīgi no tā, vai izmantojat balss palīgus, tērzēšanas robotus vai fotoattēlu filtrus, ir svarīgi zināt, kur nonāk jūsu dati un kā tie tiek aizsargāti. Atbildīga lietošana sākas ar jums. Izprotiet, kādus mākslīgā intelekta rīkus izmantojat, un izdariet izvēli, kas nosaka drošību un privātumu.

Aizpildiet manu viktorīnu: cik droša ir jūsu tiešsaistes drošība?

Vai domājat, ka jūsu ierīces un dati ir patiesi aizsargāti? Aizpildiet šo ātro viktorīnu, lai noskaidrotu jūsu digitālo paradumu stāvokli. No parolēm līdz Wi-Fi iestatījumiem jūs saņemsiet personalizētu informāciju par to, ko darāt pareizi un kas ir jāuzlabo. Aizpildiet manu viktorīnu šeit: Cyberguy.com/Quiz

ChatGPT tiek rādīts klēpjdatorā.

Līderi aicina ieviest globālus noteikumus, lai mākslīgais intelekts tiktu kontrolēts. (Stanislavs Kogiku/SOPA Pictures/LightRocket, izmantojot Getty Pictures)

Kurta galvenās lietas

Mākslīgais intelekts var radīt neticami labu, guess arī lielu kaitējumu, ja to izmanto nepareizi. Šobrīd izaicinājums ir saglabāt līdzsvaru starp inovācijām un ētiku. AI turpina attīstīties, galvenais būs tādu sistēmu izveide, kas joprojām ir drošas, pārredzamas un stingri pakļautas cilvēka kontrolei.

Vai jūs uzticētos AI pieņemt lēmumus par dzīvību vai nāvi, vai arī jūs domājat, ka cilvēkiem vienmēr būtu jāpaliek atbildīgai? Paziņojiet mums, rakstot mums uz Cyberguy.com/Contact

KLIKŠĶINIET ŠEIT, LAI IEGŪTU LIETOTNI FOX NEWS

Reģistrējieties manam BEZMAKSAS CyberGuy ziņojumam
Saņemiet manus labākos tehniskos padomus, steidzamus drošības brīdinājumus un ekskluzīvus piedāvājumus, kas tiek piegādāti tieši jūsu iesūtnē. Turklāt jūs iegūsit tūlītēju piekļuvi manam Final Rip-off Survival Information — bez maksas, pievienojoties manam CYBERGUY.COM/NEWSLETTER

Jaunums!: Pievienojieties man jaunajā aplādei, Past Linkedpētot aizraujošākos sasniegumus tehnoloģiju jomā un cilvēkus, kas tiem ir aiz muguras. Jaunas sērijas katru trešdienu plkst getbeyondconnected.com.

Autortiesības 2025 CyberGuy.com. Visas tiesības paturētas.

avots