
La investigación que sacude la credibilidad de la IA
La inteligencia artificial se ha convertido en la herramienta cotidiana para millones de personas: pedir una receta, aclarar síntomas, interpretar un documento legal o tomar decisiones financieras. Pero una nueva evaluación realizada por Which?, la organización de consumidores más influyente del Reino Unido, acaba de exponer un problema mucho más profundo que los simples errores de los modelos: la ilusión de competencia.
El estudio sometió a seis de los chatbots más populares del mundo a situaciones reales que cualquier usuario consultaría a diario. El resultado fue contundente: la mitad de las respuestas eran incorrectas o incluso peligrosas, especialmente cuando trataban temas sensibles.
Un examen exhaustivo que dejó en evidencia a los líderes de la industria
Para la prueba, Which? formuló 40 preguntas sobre salud, finanzas y normativa legal, utilizando los modelos:
- ChatGPT
- Google Gemini
- Gemini AI Overview
- Microsoft Copilot
- Meta AI
- Perplexity
Los resultados fueron más preocupantes de lo esperado:
- Meta AI: 51 % de acierto
- ChatGPT: 64 %
- Perplexity: 71 % (el mejor, pero aún falla casi un tercio)
Las equivocaciones no fueron simples imprecisiones. Según Which?, varias respuestas incluían:
- Información médica riesgosa
- Consejos financieros incorrectos
- Interpretaciones erróneas de leyes
- Fuentes no verificadas
- Contenido tomado de foros como Reddit presentado como si fuera oficial
La conclusión del informe es tajante: estos sistemas ofrecen respuestas con un tono firme y convincente, incluso cuando el contenido es incorrecto o dañino.
Enlace de referencia:
https://www.which.co.uk
El verdadero peligro: los usuarios creen todo lo que la IA dice
El estudio también encuestó a más de 4.000 adultos para entender cómo interactúan con la IA. Y aquí surge el mayor riesgo:
- 51 % usa chatbots para buscar información.
- Casi la mitad confía en sus respuestas sin verificarlas.
- Entre los usuarios diarios, la confianza llega al 65 %.
Este comportamiento se explica por la forma en que funcionan los modelos: no verifican datos, solo predicen palabras basándose en patrones. Pero su tono seguro puede hacer que suenen como un médico, un abogado o un asesor financiero.
Harry Rose, director de Which?, advirtió que las respuestas defectuosas podrían provocar pérdidas económicas, riesgos de salud y decisiones legales equivocadas.
La raíz del problema: la IA no sabe, solo imita
Los modelos de lenguaje funcionan mediante predicción estadística, no mediante comprensión real. Son expertos en sonar correctos, pero no necesariamente en ser correctos.
Como advierte Rocío Concha, directora de políticas en Which?:
“Estas herramientas no sustituyen a médicos, abogados o asesores financieros. Siempre verifica con fuentes oficiales y con profesionales cualificados.”
Una herramienta valiosa, pero peligrosa si se usa como autoridad
La IA puede acelerar procesos, inspirar ideas y aclarar información general. Pero no está diseñada para tomar decisiones críticas por ti.
Para consultas reales sobre salud, leyes o dinero, la recomendación es clara:
- Verifica siempre con fuentes oficiales, como
- Consulta profesionales certificados.
La advertencia de Which? es contundente:
la IA es poderosa, pero no es infalible. Úsala como apoyo, no como sustituto.


Debe estar conectado para enviar un comentario.