Mensaje de BlockBeats, 28 de febrero: El Pentágono de Estados Unidos exigió a Anthropic que eliminara las restricciones de seguridad integradas en Claude sobre «robots asesinos autónomos» y «vigilancia masiva», de lo contrario perdería un contrato de 200 millones de dólares y sería etiquetada como riesgo en la cadena de suministro. Anthropic se negó a hacer un compromiso por escrito, y el cofundador y CEO Dario Amodei respondió con firmeza: «Estas amenazas no cambian nuestra posición; no podemos acceder a su solicitud desde un punto de vista ético».
El CEO de OpenAI, Sam Altman, respaldó a Anthropic en un programa de CNBC: «Creo que el Pentágono no debería hacer este tipo de amenazas. Aunque tengo muchas diferencias con Anthropic, en materia de seguridad son confiables». Los dos competidores más intensos del campo de la inteligencia artificial acaban de trazar esta línea roja en público, mientras que en la reciente Cumbre de Inteligencia Artificial de la India, Sam Altman y Dario Amodei se negaron a estrecharse la mano en una foto grupal. Al mismo tiempo, 70 empleados de OpenAI firmaron una carta abierta titulada «No nos dividiremos», y ingenieros de Google también expresaron su apoyo.
Trump respondió con firmeza: He ordenado a cada agencia federal del gobierno estadounidense que deje de usar inmediatamente la tecnología de Anthropic. No la necesitamos, no la queremos y no haremos más negocios con ellos. Para las agencias, como el Departamento de Guerra, que utilizan productos de Anthropic, habrá un período de transición de seis meses para su eliminación. Anthropic debería comportarse bien durante este período de eliminación y ofrecer ayuda; de lo contrario, ejerceré todo el poder del presidente para obligarlos a cumplir, y enfrentarán serias consecuencias civiles y penales.
