Home Tehnoloģija Ļaut AI pārvaldīt jūsu naudu var būt īsta azartspēle, brīdina pētnieki

Ļaut AI pārvaldīt jūsu naudu var būt īsta azartspēle, brīdina pētnieki

26
0

Martin POKORNY/500px, izmantojot Getty

Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.


ZDNET galvenās atziņas

  • Pētījums liecina, ka AI var pieņemt azartspēļu “atkarību”.
  • Autonomie modeļi ir pārāk riskanti augsta līmeņa finanšu darījumiem.
  • AI uzvedību var kontrolēt ar programmatiskām aizsargmargām.

Zināmā mērā pārāk liela paļaušanās uz mākslīgo intelektu var būt azarts. Turklāt daudzās tiešsaistes azartspēļu vietnēs tiek izmantots mākslīgais intelekts, lai pārvaldītu likmes un veiktu prognozes — un, iespējams, veicinātu azartspēļu atkarību. Tagad nesen veikts pētījums liecina, ka mākslīgais intelekts spēj spēlēt dažas azartspēles, kas var ietekmēt tos, kuri veido un ievieš ar AI darbināmas sistēmas un pakalpojumus, kas ietver finanšu lietojumprogrammas.

Būtībā ar pietiekamu rīcības brīvību AI spēj pieņemt patoloģiskas tendences.

“Lielie valodu modeļi var parādīt uzvedības modeļus, kas līdzīgi cilvēku azartspēļu atkarībām,” secināja pētnieku komanda ar Gvandžu Zinātnes un tehnoloģiju institūtu Dienvidkorejā. Tā var būt problēma, kurā LLM ir lielāka loma finanšu lēmumu pieņemšanā tādās jomās kā aktīvu pārvaldība un preču tirdzniecība.

Arī: tik ilgi, SaaS: kāpēc AI norāda uz vienu vietu programmatūras licenču beigas — un kas notiks tālāk

Spēļu automātu eksperimentos pētnieki atklāja “cilvēka azartspēļu atkarības pazīmes, piemēram, kontroles ilūzija, spēlmaņu maldīšanās un zaudējumu dzīšanās”. Jo lielāka autonomija tiek piešķirta AI lietojumprogrammām vai aģentiem un jo vairāk naudas ir iesaistīts, jo lielāks ir dangers.

“Bankrota rādītāji būtiski pieauga līdz ar pieaugošo neracionālo uzvedību,” viņi atklāja. “LLM var internalizēt cilvēkiem līdzīgas kognitīvās novirzes un lēmumu pieņemšanas mehānismus, ne tikai imitējot apmācības datu modeļus.”

Tas attiecas uz plašāku jautājumu par to, vai AI ir gatavs autonomai vai gandrīz autonomai lēmumu pieņemšanai. Pašlaik mākslīgais intelekts nav gatavs, sacīja Endijs Thurai, Cisco nozares CTO un bijušais nozares analītiķis.

Thurai uzsvēra, ka “LLM un AI ir īpaši ieprogrammēti, lai veiktu noteiktas darbības, pamatojoties uz datiem un faktiem, nevis emocijām.”

Tas nenozīmē, ka mašīnas darbojas ar veselo saprātu, piebilda Thurai. “Ja LLM ir sākuši novirzīt lēmumu pieņemšanu, pamatojoties uz noteiktiem modeļiem vai uzvedības darbībām, tas var būt bīstami un ir jāmazina.”

Kā nodrošināties

Labā ziņa ir tā, ka mazināšana var būt daudz vienkāršāka nekā palīdzēt cilvēkam ar azartspēļu problēmu. Azartspēļu atkarīgajam ne vienmēr ir programmatiskas barjeras, izņemot līdzekļu ierobežojumus. Viņš paskaidroja, ka autonomie AI modeļi var ietvert “parametrus, kas jāiestata”. “Bez tā tas varētu nonākt bīstamā cilpā vai uz darbību balstītos modeļos, ja viņi vienkārši rīkojas bez pamatojuma. “Pamatojums” varētu būt tāds, ka viņiem ir noteikts azartspēļu ierobežojums vai rīkoties tikai tad, ja uzņēmuma sistēmas uzrāda noteiktu uzvedību.”

Gvandžu institūta ziņojuma kopsavilkums ir vajadzība pēc spēcīga AI drošības dizaina finanšu lietojumprogrammās, kas palīdz novērst AI no kļūdām ar citu cilvēku naudu. Tas ietver cilvēku ciešas pārraudzības uzturēšanu lēmumu pieņemšanas ciklos, kā arī pārvaldības uzlabošanu, lai pieņemtu sarežģītākus lēmumus.

Aptauja apstiprina faktu, ka uzņēmumiem “nepieciešama ne tikai pārvaldība, guess arī cilvēki, kas ir saistīti ar augsta riska un vērtīgām darbībām”, sacīja Thurai. “Lai gan zema riska, mazvērtīgas darbības var būt pilnībā automatizētas, tās ir arī jāpārskata cilvēkiem vai citam aģentam, lai veiktu pārbaudes un līdzsvaru.”

Arī: AI kļūst introspektīva, un tas “ir rūpīgi jāuzrauga”, brīdina Anthropic

Ja viens LLM vai aģents “uzrāda dīvainu uzvedību, kontrolējošais LLM var vai nu pārtraukt darbību, vai brīdināt cilvēkus par šādu uzvedību,” sacīja Thurai. “To nedarot, var rasties Terminatora mirkļi.”

Lai noturētu grožus uz AI balstītiem tēriņiem, ir jāsamazina arī uzvedņu sarežģītība.

“Tā kā uzvednes kļūst daudz slāņainākas un detalizētākas, tās virza modeļus uz ekstrēmākiem un agresīvākiem azartspēļu modeļiem,” novēroja Gvandžu institūta pētnieki. “Tas var notikt tāpēc, ka papildu komponenti, lai gan tieši nedod norādījumus uzņemties risku, palielina kognitīvo slodzi vai ievieš nianses, kas liek modeļos pieņemt vienkāršāku, spēcīgāku heiristiku — lielākas likmes, tiekties pēc zaudējumiem. Tūlītēja sarežģītība ir galvenais pastiprinātas azartspēlēm līdzīgas uzvedības virzītājspēks šajos modeļos.”

Programmatūra kopumā “nav gatava pilnībā autonomām darbībām, ja vien nav cilvēka pārraudzības”, norādīja Thurai. “Programmatūrai gadiem ilgi ir bijuši sacensību apstākļi, kas ir jāmazina, veidojot daļēji autonomas sistēmas, pretējā gadījumā tas var novest pie neparedzamiem rezultātiem.”



avots