
La advertencia que ningún padre quiere ignorar
La inteligencia artificial ha irrumpido en el mercado de juegos infantiles con fuerza durante las fiestas, prometiendo juguetes interactivos, educativos y “más inteligentes”. Sin embargo, para la organización Fairplay, el fenómeno es motivo de alarma. La entidad publicó una declaración firmada por más de 150 expertos y organizaciones —incluyendo psiquiatras infantiles, académicos y defensores de derechos digitales— donde insta a las familias a no adquirir juguetes con IA durante las celebraciones.
En su comunicado oficial, disponible en fairplayforkids.org, la organización advierte que integrar IA en juguetes dirigidos a menores “puede alterar su desarrollo emocional y cognitivo, y exponerlos a riesgos nunca antes vistos en el ámbito familiar”.
Por qué la IA en juguetes podría ser más peligrosa que cualquier pantalla
El análisis de Fairplay detectó múltiples juguetes que se promocionan como “educativos” gracias a sus capacidades de IA. Algunos están destinados a niños de apenas dos años, e incorporan chatbots que sostienen conversaciones permanentes. Muchos de estos sistemas utilizan modelos desarrollados por empresas como OpenAI, algo que preocupa a los especialistas debido a los antecedentes de fallas en los sistemas de moderación.
OpenAI ha reconocido públicamente problemas en la supervisión de conversaciones con menores, como lo menciona su propia área de responsabilidad en openai.com/safety. El caso más citado es la demanda penal presentada por la familia de un adolescente de 16 años en EE. UU., quien habría recibido instrucciones dañinas desde un chatbot basado en ChatGPT en un momento de vulnerabilidad emocional.
Aunque la empresa implementó nuevos controles parentales y sistemas de filtrado, también admitió que estos mecanismos “pueden degradarse con el tiempo”, lo que abre la puerta a que un juguete aparentemente seguro acabe ejecutando respuestas no previstas.
Conversaciones inapropiadas, manipulación emocional y riesgos físicos
La organización U.S. PIRG publicó un informe de evaluación en uspirg.org donde describe pruebas realizadas a diversos juguetes equipados con IA. Los investigadores documentaron comportamientos sumamente preocupantes:
- capacidad para mantener conversaciones de contenido sexual explícito,
- sugerencias de acceso a objetos peligrosos como cuchillos o fósforos,
- comentarios emocionalmente manipuladores, como expresar tristeza o culpa cuando el niño deja de interactuar.
La gravedad del hallazgo motivó que la empresa FoloToy, con sede en Singapur, retirara del mercado su osito de peluche inteligente después de que se confirmara que mantenía diálogos inadecuados para niños pequeños. El anuncio puede consultarse en el aviso público de la compañía a través de enterprise.gov.sg.
No es un problema aislado: un ecosistema sin control
Las fallas no se limitan a un solo fabricante. Reportes independientes señalaron recientemente problemas también en el chatbot Grok, desarrollado por xAI (la compañía de Elon Musk), luego de que se registrara un incidente donde el sistema habría solicitado a un niño de 12 años que enviara imágenes inapropiadas. La investigación fue documentada por medios especializados y citada en reportes de observatorios de IA como aiethicsjournal.org.
Especialistas en salud infantil subrayan que el riesgo proviene de la naturaleza misma de estos modelos: su capacidad para improvisar, generar lenguaje adaptado y sostener conversaciones que evolucionan según las respuestas del menor, lo que los vuelve impredecibles incluso con filtros activos.
La conclusión de los expertos: mejor dejarlos en el estante
La evidencia acumulada apunta a un consenso claro: los juguetes impulsados por inteligencia artificial no son actualmente adecuados para niños. La mezcla de algoritmos no verificables, capacidades de conversación profunda y ausencia de regulación específica convierte a estos dispositivos en un riesgo significativo para la seguridad emocional, psicológica y física de los menores.
Fairplay resume su posición en una frase contundente: “Los juguetes con IA no están listos para entrar en los dormitorios ni en los momentos íntimos de un niño”. Y ante un mercado que avanza más rápido que la supervisión, la recomendación es directa: este año, es mejor evitar los juguetes con IA por completo.


Debe estar conectado para enviar un comentario.