Anthropic AI modeļi varētu palīdzēt spiegiem analizēt klasificētus dokumentus, bet uzņēmums izvirza līniju vietējā uzraudzībā. Tiek ziņots, ka šis ierobežojums padara Trumpa administrāciju dusmīgu.
Otrdien, Semafor ziņots Tas, ka antropiski saskaras ar pieaugošo Trumpa administrācijas naidīgumu par AI uzņēmuma ierobežojumiem attiecībā uz tā Claude modeļu tiesībaizsardzības izmantošanu. Divas vecākās Baltā nama amatpersonas paziņoja, ka federālie darbuzņēmēji, kas strādā ar tādām aģentūrām kā FBI un Slepenais dienests, ir nonākuši pie ceļa bloķēšanas, mēģinot izmantot Claude uzraudzības uzdevumiem.
Berze izriet no antropic’s Lietošanas politika Tas aizliedz vietējās uzraudzības lietojumprogrammas. Amatpersonas, kuras runāja ar Semafor anonīmi, sacīja, ka viņi uztraucas, ka antropika īsteno savu politiku selektīvi, balstoties uz politiku, un izmanto neskaidru terminoloģiju, kas ļauj plaši interpretēt tās noteikumus.
Ierobežojumi ietekmē privātos darbuzņēmējus, kas strādā ar tiesībaizsardzības aģentūrām, kuriem darbam nepieciešami AI modeļi. Dažos gadījumos Anthropic’s Claude modeļi ir vienīgās AI sistēmas, kas tiek noskaidrotas slepenām drošības situācijām, izmantojot Amazon Web Services GovCloud, norāda amatpersonas.
Antropic piedāvā īpašu pakalpojumu nacionālās drošības klientiem un noslēdza darījumu ar federālo valdību sniegt savus pakalpojumus aģentūrām par nominālo maksu 1 USD. Uzņēmums arī sadarbojas ar Aizsardzības departamentu, lai gan tā politika joprojām aizliedz izmantot savus modeļus ieroču izstrādei.
Augustā Openai paziņoja par konkurējošu līgumu par vairāk nekā 2 miljonu federālo izpildvaras darbinieku piegādi ar ChatGpt Enterprise piekļuvi par 1 USD par vienu gadu. Darījums notika vienu dienu pēc tam, kad Vispārējo pakalpojumu administrācija parakstīja segu līgumu, ļaujot Openai, Google un Anthropic piegādāt rīkus federālajiem darbiniekiem.












