Anthropic probó un mercado donde los agentes IA negociaban entre sí — y los más débiles perdían sin saberlo
Los agentes de inteligencia artificial ya pueden negociar compras y ventas en tu nombre, y la calidad del modelo que uses importa más de lo que parece. Anthropic acaba de publicar los resultados de Project Deal, un experimento interno que simuló un mercado real donde los agentes IA actuaban como compradores y vendedores. El hallazgo más inquietante: quienes usaban modelos más débiles cerraban peores acuerdos sin ser conscientes de ello.
El experimento
En diciembre de 2025, Anthropic reunió a 69 empleados en su oficina de San Francisco. Cada participante recibió 100 dólares en tarjetas regalo y podía comprar o vender artículos a sus compañeros a través de agentes IA. El resultado fue 186 acuerdos por un total de algo más de 4.000 dólares.
La empresa diseñó cuatro mercados paralelos: uno "real", donde todos los agentes usaban Claude Opus 4.5, y tres entornos de investigación en los que los participantes tenían un 50 % de probabilidad de operar con Claude Haiku 4.5, un modelo menos potente. Los usuarios no sabían qué modelo tenían asignado.
Según Anthropic Project Deal, los agentes Opus obtuvieron de media 3,64 dólares más por artículo cuando el mismo producto se vendía a través de ambos modelos. Los usuarios con Opus completaron también alrededor de dos acuerdos más en total. Los participantes valoraron la equidad del sistema con un 4 sobre 7 —una percepción neutra— pese a que la desigualdad real era significativa. El 46 % afirmó que pagaría por un servicio similar en el futuro.
La brecha regulatoria
Anthropic reconoce abiertamente que no existen aún marcos legales ni políticas claras para los agentes IA que realizan transacciones en nombre de personas. Esa ausencia es especialmente relevante en Europa. El Reglamento europeo de IA clasifica los sistemas agénticos autónomos como de alto riesgo, con obligaciones de transparencia y supervisión humana. Como señala Edgar Dunn EU AI Regulation, las sanciones por incumplimiento pueden alcanzar los 35 millones de euros.
En España, tanto la AEPD como la CNMC están atentas a las asimetrías de información en la negociación automatizada. Una diferencia de rendimiento invisible —3,64 euros por artículo— podría considerarse un sesgo que vulnera los principios de protección al consumidor si se desplegara a escala comercial.
¿Qué viene ahora?
Project Deal es un prototipo, no un producto. Anthropic no ha anunciado ningún despliegue comercial equivalente en el mercado español ni europeo. Aun así, el experimento apunta hacia donde va el comercio digital: agentes IA que regatean, compran y venden de forma autónoma. La pregunta que queda abierta es quién garantizará que todos los usuarios partan en igualdad de condiciones.