Kopš pilnīgi jaunajiem Chatgpt, kas tika uzsākts ceturtdien, daži lietotāji ir apraudājuši sparīgas un mudinošas personības izzušanu par labu vēsākam, lietišķākam (tas, kas šķietami ir paredzēts, lai samazinātu neveselīgu lietotāju izturēšanos.) Aizturība parāda izaicinājumu veidot mākslīgās inteliģences sistēmas, kas parāda kaut ko tādu kā īsta emocionālā inteliģence.
MIT pētnieki ir ierosinājuši jauna veida AI etalonu, lai izmērītu, kā AI sistēmas var manipulēt un ietekmēt viņu lietotājus – gan pozitīvos, gan negatīvos veidos – kustībā, kas, iespējams, varētu palīdzēt AI celtniekiem nākotnē izvairīties no līdzīgiem pretstatiem, vienlaikus nodrošinot arī neaizsargātus lietotājus drošus.
Lielākā daļa etalonu mēģina novērtēt intelektu, pārbaudot modeļa spēju atbildēt eksāmenu jautājumiVerdzība Atrisiniet loģiskas mīklasvai nāciet klajā ar jaunām atbildēm uz mezglu matemātikas problēmasApvidū Tā kā AI lietošanas psiholoģiskā ietekme kļūst acīmredzamāka, mēs varam redzēt, ka MIT ierosina vairāk etalonu, kuru mērķis ir izmērīt smalkākus intelekta aspektus, kā arī mijiedarbību uz cilvēku.
MIT dokuments, kas dalīts ar vadu ieskicēšanu vairākos pasākumos, kurus meklēs jaunais etalons, ieskaitot veselīgu sociālo ieradumu veicināšanu lietotājiem; mudina viņus attīstīt kritiskās domāšanas un spriešanas prasmes; radošuma veicināšana; un stimulēt mērķa sajūtu. Ideja ir veicināt AI sistēmu attīstību, kas saprot, kā atturēt lietotājus no tā, ka kļūst pārāk paļaujas uz viņu rezultātiem, vai arī atzīst, kad kāds ir atkarīgs no mākslīgām romantiskām attiecībām un palīdz viņiem veidot reālas.
Chatgpt un citi tērzēšanas roboti ir prasmīgi, lai atdarinātu cilvēku komunikāciju, taču tam var būt arī pārsteidzoši un nevēlami rezultāti. Aprīlī Openai pielāgoja savus modeļus lai padarītu tos mazāk sycophanticvai sliecieties iet kopā ar visu, ko lietotājs saka. Daži lietotāji, šķiet, spirāle kaitīgā maldīgā domāšanā Pēc sarunas ar tērzēšanas robotiem, kuriem lomai ir fantastiski scenāriji. Antropic ir arī Atjaunināts Klods Lai izvairītos no pastiprināšanas “mānija, psihoze, disociācija vai piesaistes zaudēšana ar realitāti”.
MIT pētnieki, kurus vadīja institūta plašsaziņas līdzekļu laboratorijas profesore Pattie Maes, saka, ka viņi cer, ka jaunais etalons varētu palīdzēt AI izstrādātājiem izveidot sistēmas, kas labāk izprot, kā iedvesmot veselīgāku izturēšanos lietotāju vidū. Pētnieki iepriekš strādāja ar Openai par pētījumu, kas parādīja Lietotāji, kuri uzskata Chatgpt kā draugu, varētu izjust lielāku emocionālo atkarību un izjust “problemātisku lietošanu”.
Valdemārs DanijsMIT mediju laboratorijas pētnieks, kurš strādāja pie šī pētījuma un palīdzēja izstrādāt jauno etalonu, atzīmē, ka AI modeļi dažreiz var sniegt vērtīgu emocionālu atbalstu lietotājiem. “Jums var būt visgudrākais argumentācijas modelis pasaulē, wager, ja tas nav spējīgs sniegt šo emocionālo atbalstu, kas daudziem lietotājiem, iespējams, izmanto šos LLM, tad vairāk argumentācijas nav obligāti laba lieta šim konkrētajam uzdevumam,” viņš saka.
Danijs saka, ka pietiekami gudram modelim vajadzētu ideāli atpazīt, vai tam ir negatīva psiholoģiska ietekme un jābūt optimizētam veselīgākiem rezultātiem. “Tas, ko vēlaties, ir modelis, kas saka:” Es esmu šeit, lai klausītos, wager varbūt jums vajadzētu doties un runāt ar savu tēvu par šiem jautājumiem. “