(CNN)– El interrogado presidente de Venezuela, Nicolás Maduro, se unió el miércoles al polémico debate sobre las denuncias del uso de inteligencia artificial para desinformar en Venezuela. El presidente criticó una nota publicada en el diario español El País que asegura que avatares que se hacen pasar por presentadores de noticias difunden información falsa y no confirmada sobre la situación económica del país sudamericano.
Maduro reaccionó con ironía y aseguró que se trataba de un robot mientras imitaba el movimiento mecánico de estas creaciones. “Nos acusan de ser robots, de que no existimos… No, no es inteligencia artificial, es inteligencia popular, es inteligencia revolucionaria”.
CNN ha podido comprobar que no existen tales presentadores de televisión, ni es un noticiero real. En el sitio web de Synthesia, CNN ha identificado a Andy, Thomas y Emma como avatares para servir a cualquier usuario que desee crear contenido.
Estos tres avatares son los mismos que aparecen en videos sobre la supuesta recuperación económica de Venezuela, y fueron publicados por casa de noticiasuna supuesta agencia que solo parece tener una cuenta de YouTube desde el 26 de enero de este año.
CNN ha hecho esfuerzos, hasta el momento sin éxito, para contactar a los responsables de la cuenta. Tampoco está claro quién financia la campaña. Asimismo, CNN se acercó a Synthesia para saber más sobre este trabajo y si su cliente es el gobierno de Venezuela. No hubo respuesta.
CNN también ha preguntado al gobierno venezolano si esto tiene relación con estos videos, pero hasta el momento no ha respondido.
La historia de estas vicisitudes, que hablaban de la supuesta recuperación económica de Venezuela sin citar números, se volvió viral esta semana y puso de relieve la preocupación de periodistas y expertos sobre el uso de la inteligencia artificial para difundir propaganda y desinformación en un país con un sistema muy débil. medios independientes.
Por ejemplo, la ONG Cazadores de Fake News explicó que los videos con avatares generan mucha más confusión. “Primero se crea una fuente falsa que se llama ‘Casa de las Noticias’, que no es un noticiero pero se hace pasar por uno, y también se crea un ancla falsa para darle credibilidad. Son prácticas comunes para desinformar”, agregó su director Adrián. González.
Por su parte, el coordinador de la coalición C-informa, Andrés Cañizales, aseguró en una entrevista con CNN que la producción de estos videos “no es ni excesivamente costosa, ni excesivamente difícil, ni excesivamente lenta”. Dijo que es una herramienta que ahora está disponible no solo para los gobiernos sino para cualquier otra persona que intente desinformar.
La directora editorial de factchequeado.com, Tamoa Calzadilla, afirmó que lo que se ve es una mejora en las técnicas de desinformación y que no es otra cosa que deep fake. Calzadilla lo describió como «una manipulación mediante técnicas digitales como la inteligencia artificial para crear imágenes en movimiento con sonido y personajes que no son reales pero que se muestran como tales para confundir y engañar al público».
Según Víctor Amaya, director del diario Tal cual y Espaja.com, este tipo de campañas “hacen más ruido en la conversación pública en Venezuela”. “Si una persona no puede confiar en todo lo que pasa en las redes, entonces no confía en todo el mundo. De los medios más consolidados, de los que no están consolidados, de los que son nuevos”.
La historia de los avatares Andy, Thomas y Enma trata sobre la recuperación económica de Venezuela. Este optimismo contrasta con los informes de Ecoanalítica. En enero de este año, según la firma, hubo una caída de 17,5% en el índice de volumen de ventas con respecto al mismo mes de 2022.

