Home Tehnoloģija ASV pieaugušie uztraucas,

ASV pieaugušie uztraucas,

19
0

 

Pastāv plašas bailes, ka mākslīgais intelekts līdz 2035. gadam kaitēs mūsu sociālajam un emocionālajam intelektam, empātijai un individuālās aģentūras izjūtai, liecina jaunā aptauja, ko trešdien publicējusi Elonas universitātes Iedomājoties digitālo nākotnes centruApvidū

 

Nacionālajā aptaujā tika lūgts 1 005 ASV pieaugušajiem novērtēt, kā, viņuprāt, AI ietekmēs cilvēku spējas un izturēšanos, ieskaitot morālo spriedumu, pašidentitāti un pārliecību. Katrā jomā respondenti uzskatīja, ka AI rīku un sistēmu ietekme nākamajā desmitgadē būtu negatīvāka nekā pozitīva.

 

Grafiks, kas parāda, kā sabiedrības vērtība AI ietekmē galvenās cilvēka izziņas un sociālās iezīmes nākamajā desmitgadē

 

Plaša sabiedrība AI ietekmi uz galvenajām cilvēka iezīmēm novērtēja kā negatīvu.

 

Elonas universitāte iedomājas digitālo nākotnes centru

Runājot par lielāku ainu, pētnieki atklāja, ka ASV pieaugušie gaidīja, ka AI nākamajā desmitgadē būs jaukta ietekme uz “cilvēka būtību”. Divi no pieciem (41%) sacīja, ka AI nodrošinās tik daudz labu, cik tas kaitēs, un 25% uzskata, ka AI izmaiņas lielākoties būs sliktākajam. Tikai 9% sacīja, ka AI mainīs cilvēci uz labo pusi.

“Lielie stāstījumi par AI ir gājuši abos virzienos,” sacīja Lī Rainijs, Digitālā nākotnes centra “Digital Future” direktors un viens no ziņojuma autoriem. Tik daudz stāstu, cik ir par AI izcilajām spējām, daudzi citi parāda, kā tas var sāpināt cilvēkus. Respondentu jauktie uzskati par tehnoloģiju varētu to atspoguļot. “Viņiem ir izpratne par šiem karojošajiem stāstījumiem,” intervijā CNET stāstīja Rainijs.

Stāsti ir visur, jo AI kļūst lielāka loma izglītībā, darba vietās un veselības aprūpē. Tehnoloģiju uzņēmumi tērē miljardiem dolāru, lai attīstītu vismodernāko AI. Google ir integrējis savu Gemini AI katrā sava biznesa daļā un Chatgpt’s Ikdienas aktīvie lietotāji sasniedza rekordlielais lielums – 700 miljoni augustā. Tā kā AI rīki un sistēmas kļūst spējīgākas un integrētas mūsu dzīvē, ir svarīgi novērtēt to ietekmi uz to, kā mēs domājam, rīkojamies un darām lietas.


Nepalaidiet garām nevienu mūsu objektīvo tehnoloģiju saturu un uz laboratoriju balstītām atsauksmēm. Pievienot CNET kā vēlamais Google avots.


Bažas par kritisko domāšanu, garīgo veselību

Tie paši aptaujas jautājumi tika uzdoti tehnoloģiju pionieru, celtnieku un analītiķu grupai šī gada sākumā ar dažām novērojamām atšķirībām attiecībā uz to, kā šie eksperti uztver AI ietekmi uz cilvēcību salīdzinājumā ar sabiedrību. Kopumā eksperti bija mazāk pesimistiski Par AI ietekmi uz cilvēka iezīmēm, turpretī sabiedrība ziņoja par vairāk bažām par AI, kas kaitē mūsu inteliģencei un izziņas spējām, piemēram, spējai kritiski domāt, pieņemt lēmumus un risināt problēmas.

Interese par to, kā AI ietekmē mūsu smadzeņu mācību procesus, nav jauna. MIT pētījumā jūlijā tika atklātas būtiskas atšķirības smadzeņu darbībā starp cilvēkiem, kas raksta, izmantojot AI, salīdzinot ar tiem, kuri to nedara. Tie, kas izmantoja AI, ziņoja par “virspusēju plūsmu”, bet nesaglabāja dziļu izpratni vai īpašumtiesību sajūtu par viņu zināšanām. Pētījums atjaunoja nemierīgumu par lomu AI varētu spēlēt izglītībā un mācībās.

Pēdējo pētījumu galvenā tēma ir bažas, ka cilvēki arvien vairāk deleģē svarīgus domāšanas procesus, piemēram, lēmumu pieņemšanu un problēmu risināšanu, AI. AI tehnoloģijas sasniegumi uzlabojas, veicot darba uzdevumus, un aģentu AI pieaugums atvieglo tērzēšanas robotu uzdevumu veikšanu patstāvīgi. Šie daļēji autonomie rīki dažos gadījumos var būt efektīvāki nekā cilvēki. Tomēr AI nav drošs un var halucināt vai veidot nepatiesu informāciju, tāpēc, ļaujot tai pieņemt grožus svarīgiem lēmumiem, var būt negatīvas sekas.

Vēl viena milzīga baža ir AI ietekme uz tā lietotāju garīgo veselību. Individuālā labklājība ir bijusi sarunu punkts, jo vairāk piemēru rodas tas, kā AI ir neatbilstoša terapeitu aizstājējs. Pusaudži un bērni ir īpaši neaizsargāti, ar vairāk nekā dažiem augsta līmeņa AI gadījumiem, kas nodrošina paškaitējumu un pašnāvību. Jautājums ir pievērsis uzmanību Kongress un aizstāvības grupas, liekot viņiem pārbaudīt AI aizsargmargu efektivitāti, lai novērstu ļaunprātīgu izmantošanu un ļaunprātīgu izmantošanu.

avots