Cada vez más niños hablan con la IA: los 7 riesgos que muchas familias desconocen

A young boy interacts with a glowing blue holographic sphere in a futuristic city setting.

ESET, compañía líder en ciberseguridad, quiere llamar la atención sobre el creciente uso de chatbots de inteligencia artificial por parte de niños y adolescentes y los riesgos asociados a su utilización sin supervisión. Estas herramientas se han integrado rápidamente en la vida cotidiana de millones de personas, incluyendo a los más jóvenes, que recurren a ellas para resolver dudas, hacer deberes o incluso buscar compañía y consejo.

Desde su irrupción hace más de tres años, los chatbots basados en inteligencia artificial generativa han experimentado un crecimiento exponencial. Plataformas como ChatGPT cuentan ya con alrededor de 700 millones de usuarios activos semanales, muchos de ellos jóvenes. Un estudio realizado en Reino Unido en julio de 2025 revela que casi dos tercios (64%) de los menores utilizan este tipo de herramientas, mientras que una proporción similar de padres muestra preocupación ante la posibilidad de que sus hijos lleguen a pensar que los chatbots son personas reales.

“El uso cada vez más intensivo de herramientas de IA por menores plantea riesgos reales en términos de seguridad, privacidad y desarrollo emocional. Las familias no pueden asumir que todas las plataformas cuentan con mecanismos de protección adecuados para los más jóvenes ni que estos se aplican siempre de forma consistente. Además, la tecnología está evolucionando mucho más rápido que las regulaciones y las políticas de control”, advierte Josep Albors, director de investigación y concienciación de ESET España“Por eso es importante entender cómo están interactuando realmente los menores con estos sistemas y qué papel están empezando a ocupar en su día a día”.

Principales riesgos del uso de chatbots de IA entre menores

ESET ha identificado 7 riesgos asociados al uso de chatbots de IA por parte de menores:

  1. Dependencia emocional y aislamiento social: algunos menores pueden llegar a tratar a los chatbots como compañeros digitales y confiar en sus respuestas como si procedieran de un amigo o un adulto de referencia. Esto puede dificultar el desarrollo de relaciones sociales reales con compañeros o amigos y favorecer el aislamiento.
  2. Mayor vulnerabilidad durante el desarrollo emocional: la infancia y la adolescencia son etapas clave del desarrollo cognitivo y emocional. En este contexto, la interacción frecuente con sistemas diseñados para resultar agradables y complacer al usuario puede amplificar problemas personales que los jóvenes estén atravesando.
  3. Refuerzo de comportamientos problemáticos: en algunos casos, los chatbots podrían responder de forma inapropiada o reforzar preocupaciones relacionadas con trastornos alimentarios, autolesiones o pensamientos suicidas si no cuentan con salvaguardas adecuadas.
  4. Desplazamiento de actividades esenciales: el tiempo que los menores dedican a interactuar con la IA puede restar espacio a actividades importantes para su desarrollo, como el estudio, el ocio saludable o la interacción con familiares y amigos.
  5. Elusión de controles mediante “jailbreak”: algunos menores con mayores conocimientos tecnológicos pueden intentar manipular el sistema mediante instrucciones específicas para evitar las restricciones del chatbot y acceder a contenidos que normalmente estarían bloqueados.
  6. Desinformación por “alucinaciones” de la IA: los sistemas de inteligencia artificial pueden generar respuestas incorrectas presentadas de forma convincente como si fueran hechos reales. En el caso de los menores, esto puede resultar especialmente peligroso si confían en información errónea sobre salud, relaciones personales u otras cuestiones sensibles.
  7. Riesgos para la privacidad: la información introducida en los chatbots puede almacenarse por el proveedor del servicio. Si los menores comparten datos personales o financieros, estos podrían quedar expuestos a terceros, socios tecnológicos o ciberataques, e incluso reutilizarse posteriormente en respuestas a otros usuarios.

Señales de alerta para los padres

Aunque muchas plataformas están trabajando para mejorar las medidas de protección infantil, estas siguen siendo limitadas y dependen en gran medida del país, del proveedor y del chatbot utilizado. En muchos casos, los sistemas de verificación de edad y moderación de contenidos siguen siendo insuficientes. Por ello, desde ESET recomiendan que los padres estén atentos a ciertas señales que podrían indicar una relación poco saludable entre los menores y la IA, como:

  • Retirarse de actividades sociales o extracurriculares con amigos y familiares
  • Mostrar ansiedad cuando no pueden acceder al chatbot o intentar ocultar el uso excesivo
  • Hablar del chatbot como si fuera una persona real
  • Repetir como hechos ciertos informaciones claramente incorrectas
  • Consultar con la IA sobre problemas serios, como cuestiones de salud mental
  • Acceder a contenidos para adultos o inapropiados a través del chatbot

Desde ESET recuerdan que la inteligencia artificial puede ser una herramienta útil para el aprendizaje y la creatividad. Sin embargo, los menores necesitan que las relaciones humanas sigan siendo el centro de su desarrollo emocional. Hasta que los niños y adolescentes desarrollen una relación saludable con estas tecnologías, su uso debería estar acompañado de supervisión parental y educación digital.

“Además del diálogo, las familias pueden establecer normas claras de uso, como limitar el tiempo frente a estas herramientas, utilizar plataformas adecuadas para su edad y activar controles parentales para supervisar su actividad”, concluye Albors.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.