Home Tehnoloģija Anthropic vēlas būt viens labs AI uzņēmums Trumpa Amerikā

Anthropic vēlas būt viens labs AI uzņēmums Trumpa Amerikā

29
0

 

Anthropic, mākslīgā inteliģences kompānija, kas atrodas aiz tērzēšanas robota Kloda, mēģina izcelt vietu kā labais puisis AI telpā. Svaigs, kas ir vienīgais lielākais AI firma, kas mest atbalstu aiz AI drošības rēķina Kalifornijā, uzņēmumā satvēra virsrakstu no SemaFor Pateicoties acīmredzamajam atteikumam ļaut tā modeli izmantot novērošanas uzdevumiem, kas aizrauj Trumpa administrāciju.

Saskaņā ar ziņojumu tiesībaizsardzības aģentūras ir jutusies apslāpētas Antropic lietošanas politikakas ietver sadaļu, kas ierobežo tās tehnoloģijas izmantošanu “krimināltiesībām, cenzūrai, uzraudzībai vai aizliegtajiem tiesībaizsardzības nolūkiem”. Tas ietver tā AI rīku izmantošanas aizliegšanu, lai “noteiktu noteikšanu krimināltiesību lietojumprogrammās”, “mērķa vai izsekot personas fiziskajai atrašanās vietai, emocionālajam stāvoklim vai komunikācijai bez viņu piekrišanas” un “analizēt vai identificēt īpašu saturu, lai cenzētu valdības organizācijas vārdā”.

Tā ir bijusi reāla problēma federālajām aģentūrām, ieskaitot FBI, slepeno dienestu un imigrācijas un muitas izpildi, par semaforun ir radījusi spriedzi starp uzņēmumu un pašreizējo administrāciju, neskatoties uz to, ka antropika dod federālajai valdībai piekļuvi tās klaudes tērzēšanai un AI instrumentu komplektam Tikai USD 1Apvidū Saskaņā ar ziņojumu Anthropic politika ir plaša ar mazāk griešanos nekā konkurentiem. Piemēram, Openai lietošanas politika Ierobežo “neatļautu personu uzraudzību”, kas, iespējams, neizslēdz tehnoloģiju “likumīgas” uzraudzībai.

Openai neatbildēja uz komentāru pieprasījumu.

Avots, kas pazīstams ar šo lietu, paskaidroja, ka aģentūras nacionālās drošības nolūkos, ieskaitot kiberdrošību, izmanto ANTROPIC CLOUDE, bet uzņēmuma izmantošanas politika ierobežo izmantošanu, kas saistīta ar iekšzemes uzraudzību.

Anthropic pārstāvis sacīja, ka uzņēmums ir izveidojies Klaudegovs Īpaši izlūkošanas kopienai, un pakalpojums ir saņēmis “augstu” atļauju no federālās riska un atļauju pārvaldības programmas (FEDRAMP), ļaujot to izmantot ar jutīgām valdības darba slodzēm. Pārstāvis sacīja, ka Klods ir pieejams izmantošanai visā izlūkošanas aprindās.

Viena administrācijas amatpersona apbrīnots uz Semafor Šī antropijas politika pieņem morālu spriedumu par to, kā tiesībaizsardzības aģentūras veic savu darbu, kas, piemēram,… protams? Bet arī tas ir tikpat juridisks jautājums kā morāls. Mēs dzīvojam uzraudzības valstī, tiesībaizsardzības iestādes var un ir aptaujāti cilvēki bez orderiem Agrāk un gandrīz noteikti turpinās to darīt nākotnē.

Uzņēmums, kurš izvēlas nepiedalīties tajā, ciktāl tas var pretoties, ir sava pakaļa, tāpat kā tas izceļ ētisku nostāju. Ja federālā valdība tiek nodibināta, ka uzņēmuma lietošanas politika neļauj tai veikt iekšzemes uzraudzību, varbūt galvenā pārņemšana ir tā, ka valdība veic plašu vietējo uzraudzību un mēģina to automatizēt ar AI sistēmām.

Jebkurā gadījumā Antropic teorētiski principiālā nostāja ir jaunākā, cenšoties sevi pozicionēt kā saprātīgu AI firmu. Šā mēneša sākumā tas atbalstīja AI drošības rēķinu Kalifornijā Tas prasītu tai un citiem galvenajiem AI uzņēmumiem iesniegt jaunas un stingrākas drošības prasības, lai nodrošinātu, ka modeļiem nav risks nodarīt katastrofālu kaitējumu. Anthropic bija vienīgais nozīmīgais spēlētājs AI telpā, kurš iemeta savu svaru aiz likumprojekta, kurš gaida gubernatora Newsom parakstu (kas var nākt, kā viņš iepriekš vetoeds līdzīgs rēķins). Uzņēmums atrodas arī DC, Ātra AI pieņemšana ar aizsargmargām (bet uzsvars uz ātro daļu).

Tās kā chill AI uzņēmuma pozīciju, iespējams, mazliet mazina tas, ka tas pirāts Miljoniem grāmatu un dokumentu, ko tā izmantoja, lai apmācītu savu lielo valodas modeli, pārkāpjot autortiesību īpašnieku tiesības un atstājot autorus augstus un sausus bez maksājuma. 1,5 miljardu dolāru norēķins, kas tika panākts šī mēneša sākumā, vismaz nedaudz naudas ieliks to cilvēku kabatās, kuri faktiski izveidoja modeļa apmācībai izmantotos darbus. Tikmēr antropisks bija vienkārši vērtība gandrīz 200 miljardu dolāru vērtībā Nesenā finansējuma kārtā, kas šo tiesas pasūtīto sodu padarīs noapaļošanas kļūdu.

avots