Por Ernesto Becerra
El contenido generado con inteligencia artificial se ha vuelto cada vez más común en internet durante el último año, especialmente en plataformas como YouTube. Sin embargo, este crecimiento también ha provocado críticas por la aparición de videos de baja calidad conocidos como “AI slop”, un término que describe material producido de forma masiva con IA y con poco valor creativo.
Ante esta situación, Google decidió invertir en un estudio de animación con el objetivo de crear videos infantiles con inteligencia artificial, pero con estándares más altos de calidad.
De acuerdo con un reporte de Bloomberg, la empresa destinó un millón de dólares al estudio de animación Animaj. Esta inversión proviene del fondo AI Futures Fund de Google y permitirá que el estudio tenga acceso anticipado a nuevas versiones de sus herramientas de IA, como Veo, Gemini e Imagen.
El cofundador de Animaj, Sixte de Vauplane, explicó que Google es consciente del problema que representan los videos de baja calidad generados con inteligencia artificial dentro de YouTube.
Según De Vauplane, el reto actual es que muy pocas empresas del sector de contenido infantil han demostrado saber utilizar la inteligencia artificial de forma responsable y creativa. Por ello, considera que Animaj es una de las compañías que puede hacerlo correctamente.
El ejecutivo también señaló que los canales de Animaj lograron alrededor de 22 mil millones de visualizaciones durante el último año, lo que demuestra el enorme interés que existe por el contenido infantil en plataformas digitales.
Por su parte, el director ejecutivo de YouTube, Neal Mohan, ha señalado que la plataforma tiene la responsabilidad de mantener una experiencia de visualización de alta calidad para los usuarios. Debido a esto, la empresa ha comenzado a tomar medidas contra el contenido generado por IA de baja calidad.
Como parte de estas acciones, YouTube ya ha eliminado varios canales populares que acumulaban miles de millones de reproducciones. Algunas de estas decisiones ocurrieron después de una investigación del periódico The New York Times, que reveló la existencia de videos infantiles creados con inteligencia artificial que fueron calificados como extraños o perturbadores.
Un portavoz de YouTube, Boot Bullwinkle, explicó que la plataforma exige a los creadores informar cuando utilizan inteligencia artificial para generar contenido realista, especialmente cuando podría confundirse con una persona, lugar o evento real.
Google asegura que lograr un uso responsable de la inteligencia artificial para las nuevas generaciones es una de sus prioridades, mientras continúa intentando frenar la proliferación de contenido automatizado de baja calidad en la plataforma.