El video difundido como “mano a mano con la IA” intenta instalar una idea simple: un dirigente dialogando con una tecnología supuestamente “neutral”, que valida sus planteos. Pero esa puesta en escena es, en sí misma, el primer nivel de manipulación.
Tal como advierte el tuit viral de Maximiliano Firtman, el problema no es solo lo que dice la IA, sino cómo se presenta. El formato elimina el contexto de manera adrede donde no se ve el prompt, no se ve la conversación previa, no se ve qué se descartó.
En otras palabras, no es una charla: es un guión editado.
La IA no responde “sola” sino que responde a instrucciones. Y esas instrucciones pueden ser diseñadas para obtener exactamente el resultado que se quiere mostrar.
El efecto es potente porque se construye una falsa validación técnica. La máquina llamada inteligencia artificial, con la potencia de ella, aparece como árbitro neutral, cuando en realidad está operando dentro de un marco previamente definido por el propio usuario.
El segundo nivel de manipulación es el montaje. El fragmento viral muestra respuestas cerradas, contundentes, alineadas con el discurso político del emisor.
Pero la IA, por definición, suele dar respuestas matizadas, condicionales, con grises. Cuando eso desaparece, hay dos opciones: la pregunta fue extremadamente dirigida o el contenido fue recortado.
Probablemente, ambas.
Este mecanismo no es nuevo en política (edición de entrevistas, cortes de archivo), pero la IA agrega una capa más peligrosa: la ilusión de objetividad algorítmica.
El antecedente del video deepfake
No es la primera vez que De Loredo queda en el centro de esta discusión. Ya había generado polémica por difundir un video manipulado con IA del gobernador Martín Llaryora, donde se alteraban voz e imagen para simular declaraciones falsas .
