Anthropic

Del “sí” táctico al veto político: la guerra entre Washington y Anthropic pone a prueba quién manda sobre los límites de la Inteligencia Artificial

En Silicon Valley se habla mucho de disrupción, pero pocas veces se ve una tan cruda como la que enfrenta estos días a Anthropic —la empresa detrás de Claude— con el Gobierno de Estados Unidos. La secuencia es tan rápida como incómoda: tras meses de negociación, la Administración de Donald Trump ha ordenado a agencias federales cesar el uso de

EE UU pone a Anthropic en el punto de mira: el Pentágono la declara “riesgo para la cadena de suministro” tras negarse a levantar límites de su IA

La tensión entre el Gobierno de Estados Unidos y una de las empresas más influyentes del sector de la Inteligencia Artificial ha estallado en público y con consecuencias inéditas. El Pentágono ha decidido designar a Anthropic como “riesgo para la cadena de suministro”, una etiqueta que, por su dureza, suele asociarse a proveedores considerados problemáticos para la seguridad nacional y

Anthropic levanta 30.000 millones en su Serie G y se coloca en 380.000 millones de valoración Anthropic ha cerrado una ronda Serie G de 30.000 millones de dólares que eleva su valoración post-money a 380.000 millones, una cifra que consolida la escalada de capital en la carrera por la Inteligencia Artificial “de frontera” y, al mismo tiempo, refuerza el posicionamiento

Anthropic abre una nueva puerta en ciberseguridad: Claude Code Security llega a los defensores con revisión humana

La carrera por aplicar la Inteligencia Artificial a la ciberseguridad acaba de sumar un nuevo capítulo. Anthropic ha presentado Claude Code Security, una capacidad integrada en Claude Code (en la web) diseñada para analizar repositorios de código, detectar vulnerabilidades y proponer parches concretos para que un equipo humano los revise antes de aplicar cualquier cambio. La compañía lo describe como

IBM acusa el golpe: la IA agéntica de Anthropic pone precio a la modernización de COBOL

IBM ha vivido esta semana una sacudida poco habitual en una compañía acostumbrada a vender “continuidad” y estabilidad. Las acciones del grupo llegaron a caer un 13,2% en una sola sesión —su peor jornada desde el año 2000, según Reuters— tras una publicación de Anthropic que reabre una vieja herida del sector: el coste y la lentitud de modernizar COBOL,

Cuando la IA escribe por ti: el coste oculto en la formación de programadores

La promesa es tentadora: asistentes de Inteligencia Artificial capaces de acelerar la entrega de software, sugerir soluciones al vuelo y “desbloquear” tareas complejas en minutos. Pero un nuevo estudio de Anthropic —la empresa detrás de Claude— pone sobre la mesa una pregunta incómoda para equipos de ingeniería, managers y escuelas de programación: ¿qué pasa con las habilidades cuando se aprende

Anthropic promete que la IA no debería encarecer tu factura eléctrica (y propone que las big tech paguen la cuenta)

Durante años, el debate sobre el consumo energético “descontrolado” se asoció a la criptominería. Hoy, el foco se ha desplazado a la inteligencia artificial. El motivo no es un secreto: entrenar y operar modelos modernos exige centros de datos cada vez más densos en GPU, más refrigeración, más subestaciones, más líneas y, en definitiva, más electricidad. En ese contexto, Anthropic

Claude Opus 4.6 sube el listón: más capacidad para programar y trabajar con documentos gigantes

Anthropic ha presentado Claude Opus 4.6, una actualización que busca consolidar a su modelo más avanzado como herramienta “todoterreno” para programación, análisis y tareas de oficina. El anuncio llega en un momento en el que las empresas ya no solo prueban la Inteligencia Artificial como asistente de chat, sino como pieza de producción: revisando código, preparando informes, analizando datos y

Anthropic publica una nueva “constitución” para Claude: más transparencia, más contexto y límites explícitos para su IA

Anthropic ha publicado una nueva “constitución” para su modelo de Inteligencia Artificial, Claude, con un objetivo claro: explicar de forma más completa qué valores pretende inculcar en el sistema, cómo se priorizan cuando entran en conflicto y por qué la compañía cree que este enfoque mejora el entrenamiento y la seguridad del modelo. La iniciativa no se limita a un

Scroll al inicio