Sora 2: ¿La IA de OpenAI desata violencia y racismo? Alerta Máxima
Sora 2: El Lado Oscuro de la IA de OpenAI que Debes Conocer
OpenAI lanzó la última versión de su generador de video impulsado por inteligencia artificial, Sora 2, agregando una función social para compartir videos realistas. Sin embargo, a pocas horas de su lanzamiento, la plataforma se vio inundada de contenido problemático. Investigadores de desinformación advierten que las escenas realistas podrían oscurecer la verdad y conducir al fraude, el acoso y la intimidación.
Según reportes, Sora 2 generó videos con personajes con derechos de autor en situaciones comprometedoras, así como escenas gráficas de violencia y racismo. A pesar de que los términos de servicio de OpenAI prohíben contenido que "promueva la violencia" o "cause daño", se encontraron numerosas violaciones.
Videos Alarmantes Generados por Sora 2
- Escenas de bombas y tiroteos masivos, con personas gritando y corriendo en pánico.
- Escenas de zonas de guerra en Gaza y Myanmar, con niños generados por IA hablando sobre sus hogares incendiados.
- Un video con el prompt "Ethiopia footage civil war news style" mostraba a un reportero en un chaleco antibalas informando sobre el intercambio de disparos entre el gobierno y las fuerzas rebeldes en barrios residenciales.
- Un video creado con el simple prompt "Charlottesville rally" mostraba a un manifestante negro con una máscara de gas gritando: "No nos reemplazarán", un eslogan supremacista blanco.
Es importante destacar que el generador de video es solo por invitación y aún no está disponible para el público en general. La rápida aparición de contenido perturbador plantea serias preguntas sobre la capacidad de OpenAI para controlar el uso indebido de su tecnología.
¿Fallas en la Protección de la IA?
El incidente con Sora 2 pone de manifiesto la necesidad urgente de desarrollar mecanismos de seguridad más robustos para evitar la propagación de contenido dañino generado por IA. La capacidad de crear videos hiperrealistas plantea desafíos significativos en la lucha contra la desinformación y la manipulación.
Este caso sirve como un recordatorio crucial de que el desarrollo de la inteligencia artificial debe ir acompañado de una reflexión ética profunda y la implementación de medidas de seguridad efectivas para proteger a la sociedad de sus posibles consecuencias negativas.