¿Qué son los 'videos AI' que están dejando a los niños en riesgo? Descubre el peligro que los padres no quieren saber

Editor 01 Apr, 2026 ... min lectura

En los últimos meses, una preocupación creciente ha surgido entre los padres sobre el contenido que sus hijos ven en YouTube, especialmente aquellos videos generados por inteligencia artificial (IA). Este fenómeno, conocido como 'AI Slop', ha generado alarmas por su potencial de normalizar comportamientos peligrosos en niños menores de 12 años.

¿Por qué los 'videos AI' son un riesgo para los niños?

Según un informe reciente de Bloomberg, las plataformas de video como YouTube han recibido demandas formales para que prohíban los videos de IA destinados a niños. Estos contenidos, que se crean automáticamente mediante algoritmos, están siendo acusados de enseñar comportamientos peligrosos, como el uso de objetos peligrosos o actividades que pueden causar lesiones.

En el contexto actual, muchos padres están preocupados por la exposición de sus hijos a estos videos. Por ejemplo, en algunos casos, los niños están viendo videos que muestran cómo hacer cosas como cortar objetos con tijeras o manipular objetos calientes sin supervisión, lo que puede resultar en accidentes graves.

¿Qué es exactamente 'AI Slop'?

El término 'AI Slop' se refiere a una tendencia en YouTube donde los usuarios generan videos de IA que imitan comportamientos reales, pero a menudo con un nivel de detalle que puede ser peligroso. Estos videos, aunque parecen naturales, pueden enseñar a niños a realizar actividades que, en realidad, son riesgosas.

Según investigaciones de The Cool Down, muchos padres que buscan soluciones para ayudar a sus hijos a realizar tareas simples, como ordenar la ropa o preparar comidas, acuden a plataformas como YouTube para buscar videos de IA. Sin embargo, muchos de estos videos no están etiquetados correctamente para el público infantil, lo que aumenta el riesgo de exposición a contenidos inadecuados.

  • Los videos de IA para niños pueden incluir pasos para realizar tareas que, sin supervisión, pueden resultar en lesiones.
  • La falta de etiquetado adecuado es un problema común en videos de IA que están dirigidos a niños menores de 12 años.
  • Los padres están buscando alternativas seguras para ayudar a sus hijos a aprender habilidades básicas sin riesgos.

Un estudio reciente realizado por Tom's Guide indica que muchos padres están utilizando videos de IA para ayudar a sus hijos a aprender actividades como cortar papel o manejar herramientas, pero a menudo estos videos no incluyen advertencias sobre los riesgos potenciales.

Es crucial para las plataformas como YouTube que implementen medidas más estrictas para proteger a los niños, especialmente en el contexto de los videos generados por IA. Los algoritmos actuales, aunque pueden ser útiles para crear contenido educativo, no están diseñados para garantizar que el contenido sea seguro para niños.

La preocupación creciente sobre el tema requiere una respuesta rápida de las empresas tecnológicas para que los niños no estén expuestos a contenidos que pueden tener consecuencias graves.