Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.
ZDNET galvenās atziņas
- Anthropic trešdien paziņoja par iemaņām Klodam.
- Lietotāji var izveidot savas pielāgotās prasmes.
- Ņemiet vērā, ka lielāka piekļuve personas datiem nozīmē lielāku risku.
Anthropic trešdien laida klajā Abilities for Claude, jaunu funkciju, kuras mērķis ir padarīt uzņēmuma vadošo AI tērzēšanas robotu ērtāku individuāliem lietotājiem un uzņēmumiem.
Prasmes var uzskatīt par mazām digitālām instrukciju rokasgrāmatām, no kurām katru Klods var izmantot, lai vadītu savu rīcību noteiktā uzdevumā. Anthropic tos aprakstīja a emuāra ieraksts kā “pielāgoti apmācības materiāli, kas ļauj apkopot zināšanas, padarot Klodu par speciālistu tajā, kas jums ir vissvarīgākais.”
Kā viņi strādā?
Anthropic ir izstrādājis savas, visiem piemērotas prasmes, tostarp tās, kas palīdz ģenerēt Phrase dokumentus, Excel izklājlapas un PowerPoint dokumentus, taču lietotāji var arī izveidot un augšupielādēt savas pielāgotās prasmes. Klods var automātiski noteikt, kuras prasmes tam vajadzētu izmantot, pamatojoties uz lietotāja sniegto uzvedni.
Abilities pamatideja ir padarīt Klodu pielāgojamāku: privātpersonām un uzņēmumiem ir savas unikālās preferences attiecībā uz AI tērzēšanas robotu izmantošanu, un prasmes būtībā ir saīsne, lai nodrošinātu, ka jūs saņemat meklētos rezultātus pēc iespējas ātrāk.
Arī: Claude jaunākais modelis ir lētāks un ātrāks nekā Sonnet 4 — un bez maksas
Piemēram, pieņemsim, ka vēršaties pie Kloda, lai saņemtu palīdzību, lai izveidotu prezentāciju potenciālajam jaunajam klientam. Tā vietā, lai rūpīgi izskaidrotu sava zīmola balss un pieejas pārdošanai smalkumus, Klods var automātiski atsaukties uz iepriekš augšupielādētajām prasmēm “Zīmola vadlīnijas” un no turienes secināt visu, kas viņam jāzina, lai izveidotu PowerPoint prezentāciju, kas ir īpaši pielāgota jūsu uzņēmumam. (Varat uzzināt vairāk par pielāgotu prasmju izveidi šeit.)
Līdz ar to prasmju ieviešana ir arī solis ceļā uz to, lai Klods kļūtu gudrāks vai spējīgs veikt sarežģītus uzdevumus ar minimālu lietotāja uzraudzību, pamatojoties uz tā pieaugošo spēju analizēt konkrētu lietotāju kontekstu un mērķus.
Prasmes tagad ir pieejamas Professional, Max, Workforce un Enterprise lietotājiem, un tās var skatīt sadaļā Iestatījumi > Iespējas. Komandas un uzņēmuma kontu administratoriem vispirms ir jāiespējo visas organizācijas piekļuve, lai atsevišķi darbinieki varētu izmantot prasmes. Prasmes darbojas Claude lietotnē, Claude Code un Claude API, kas nozīmē, ka izstrādātājiem tās ir jāizveido tikai vienu reizi, lai tās varētu izvietot savās organizācijās.
No ģenerālistiem līdz speciālistiem
AI tērzēšanas roboti, piemēram, ChatGPT, Claude un Gemini, tika izstrādāti kā vispārējas nozīmes rīki, kas ir efektīvi apmācīti visā internetā un spēj reaģēt uz uzvednēm, kas aptver praktiski jebkuru tēmu.
Tomēr tehnoloģiju izstrādātāji arvien vairāk ir pārveidojuši savas AI sistēmas par specializētākiem rīkiem. Dominējošā, plaukstošā AI vīzija, kas ir sākusi uzplaukt visā Silīcija ielejā, ir nākotne, kurā katram no mums ir personīgais AI asistents (vai asistentu kolekcija), kas mūs pazīst intīmā līmenī un ir pielāgots, lai veiktu uzdevumus atbilstoši mūsu īpašajām vēlmēm.
Anthropic trešdien izlaida Abilities for Claude ir tikai jaunākais no gariem līdzīgiem centieniem visā AI nozarē. Piemēram, tikai pagājušajā nedēļā Microsoft debitēja jaunus Copilot savienotājus, kas ļauj tērzēšanas robotam iegūt lietotāja informāciju no Gmail, Google diska un citām lietotnēm. Iepriekšējā nedēļā Anthropic paziņoja par jaunu Slack integrāciju Klodam.
Drošības apsvērumi
Visas šīs personalizācijas funkcijas rada arī jaunus riskus. Jo vairāk personas datu izvēlaties kopīgot ar AI rīkiem, jo stingrākiem jābūt jūsu drošības protokoliem.
Arī Klods tagad integrējas tieši ar Microsoft 365
Lai gan katram mākslīgā intelekta izstrādātājam ir savas datu konfidencialitātes politikas, parasti ir prātīgi rīkoties, pieņemot, ka visa informācija, ko kopīgojat ar tērzēšanas robotu, tiks saglabāta sistēmā un pievienota tās apmācības datiem, tādējādi radot iespēju, ka nākotnē to netīši parādīs kāds cits lietotājs.
Fakts, ka Abilities for Claude var ļaut tērzēšanas robotam automātiski palaist kodu, rada savas briesmas. “Lai gan tas ir spēcīgs,” savā emuāra ierakstā rakstīja Anthropic, “tas nozīmē, ka jums ir jāņem vērā, kuras prasmes izmantojat — pieturieties pie uzticamiem avotiem, lai jūsu dati būtu drošībā.”