IA en la bolsa: la CNMV alerta sobre fallos y alucinaciones
La CNMV ha publicado este lunes un estudio que evidencia errores graves y "alucinaciones" en los modelos de inteligencia artificial cuando ofrecen recomendaciones de inversión. El informe, elaborado por los técnicos Ricardo Cristóstoma y Diana Mykhalyuk, advierte que la falta de supervisión humana puede traducirse en pérdidas significativas para los inversores. La entidad subraya la necesidad de instrucciones claras y control humano antes de aplicar cualquier señal generada por IA. Para más información consulte el artículo CNMV alerta sobre riesgos de invertir con IA.
Detalles del estudio: cómo y por qué fallan los modelos
El estudio comparó ChatGPT, Gemini, DeepSeek y Perplexity en la predicción de los cinco valores con mejor y peor rendimiento del Ibex entre abril de 2025 y enero de 2026. Todas las herramientas mostraron fallos recurrentes de razonamiento, datos desactualizados y respuestas inventadas. Las consultas simples, sin contexto ni estructura, fueron las más propensas a error; en contraste, preguntas estructuradas y con cadena de pensamiento (COT) mejoraron los retornos. Perplexity obtuvo los mejores resultados, con 2,3 % de retorno en preguntas estructuradas y 3,5 % en consultas COT. ChatGPT generó pérdidas en consultas inocentes, siendo la única herramienta con resultados negativos en ese caso. El informe también indica que añadir documentos regulatorios a la consulta refuerza la precisión de las respuestas. Consulte el análisis IA se prepara para salir a Bolsa: Anthropic y OpenAI anuncian planes de IPO para entender el contexto del mercado.
Qué puede ocurrir si se siguen usando IA sin supervisión
Sin control humano, los inversores pueden enfrentar pérdidas económicas importantes y contribuir a una mayor volatilidad del mercado. La CNMV recomienda que cualquier recomendación de IA sea revisada por profesionales antes de ejecutarse, y que se establezcan protocolos de supervisión y auditoría. Ignorar estas medidas podría generar un "riesgo inestable y errores económicamente significativos", según el propio estudio. La autoridad advierte que la confianza ciega en sistemas que alucinan datos puede erosionar la confianza de los participantes del mercado y afectar la estabilidad financiera.
Conclusión: La CNMV insta a los agentes del mercado a combinar la capacidad de la IA con la experiencia humana, evitando así decisiones basadas en información errónea o incompleta.
Temas relacionados
Editor de Economía
Economista y periodista especializado en mercados financieros y política monetaria europea.
¿Te ha gustado este artículo?
Suscríbete a nuestro boletín y recibe las mejores noticias en tu correo cada día.





