OpenAI y Anthropic limitarían sus “líneas rojas” a la vigilancia doméstica
Esta noticia ha sido publicada previamente por Euractiv.
OpenAI y Anthropic no parecen considerar un problema que sus tecnologías se utilicen para vigilancia masiva de personas no estadounidenses, incluidos europeos, según recoge Euractiv a partir de declaraciones públicas recientes. El debate surge tras un desencuentro entre Anthropic y el Departamento de Defensa de Estados Unidos (DoD), en el que la compañía habría pedido garantías para que sus modelos no se usaran en vigilancia masiva doméstica ni en armas totalmente autónomas. Las negociaciones, según el medio, se rompieron la semana pasada y el viernes el secretario de Defensa, Pete Hegseth, canceló contratos con Anthropic y la designó como “riesgo para la cadena de suministro”, una restricción que normalmente se reserva a compañías de países como China.
En el ámbito de la vigilancia, la controversia gira en torno a que las salvaguardas reclamadas por Anthropic se referían a la vigilancia masiva dentro de EEUU, sin oponerse a la “vigilancia masiva legal” dirigida a no estadounidenses, según una cita del CEO Dario Amodei. Euractiv añade que OpenAI habría cerrado un acuerdo con el DoD con salvaguardas centradas igualmente en personas estadounidenses, y que Sam Altman afirmó que se incorporarían protecciones adicionales para evitar “vigilancia doméstica” de “personas y nacionales” de EEUU, además de indicar que OpenAI fue asegurada de que sus servicios no serían utilizados por agencias de inteligencia bajo el DoD, como la NSA.