Los deepfakes ya parecen reales. En elecciones, un video generado con IA puede inclinar la balanza. Claves para mirarlo con lupa y no tragarse el anzuelo.
En cuestión de meses, la IA generativa de video dio un brinco que dejó a más de uno boquiabierto. Modelos como Veo 3.1, Sora 2 y Grok ya integran texto, imagen y audio para producir clips con iluminación creíble, movimientos suaves y voces sincronizadas. El resultado: vídeos hiperrealistas que, a primera vista, pasan como auténticos. Si antes el truco se notaba en los bordes —manos deformes, sombras rebeldes, labios desfasados—, hoy esos fallos son cada vez más raros. Y cuando aparecen, se camuflan entre filtros, compresiones y el ruido de las redes. Lea: Sora 2 y el futuro de las redes con IA: ¿progreso o espejismo?
El riesgo específico salta a la vista: cualquiera con un teléfono, una foto y tres líneas de guion puede fabricar la “aparición” de una persona real diciendo o haciendo algo que jamás ocurrió. No es ciencia ficción ni cosa de laboratorios: es la convergencia de tres tecnologías maduras y masivas. Primero, los grandes modelos multimodales escriben guiones y “entienden” escenas. Segundo, los clonadores de voz replican timbres en cuestión de segundos. Tercero, los generadores de video completan el cuadro con planos, luces y gestos. Todo a bajo costo y a gran velocidad. El resultado no es solo entretenimiento; también es material para la manipulación de noticias, la extorsión, la difamación y la propaganda.
En campaña política, esto importa —y mucho—. Un video falso bien plantado la noche anterior a una elección puede alterar percepciones, reordenar conversaciones y desviar votos, aunque el desmentido llegue horas después. Pensemos en el votante indeciso que, cansado después del trabajo, ve en su celular un clip en el que un candidato “admite” un delito o “insulta” a una comunidad. Si el video está bien hecho y circula por chats confiables, ¿cuántas personas lo cuestionarán antes de compartirlo? En tiempos de prisa, la veracidad compite con la velocidad; y la velocidad suele ganar.
Colombia no es inmune. De cara a los próximos comicios, el ecosistema informativo vive bajo presión: audios fabricados, videos editados, fragmentos sacados de contexto, cuentas anónimas que amplifican “bombas” de último minuto. Para rematar, los algoritmos de recomendación privilegian lo que genera engagement, no necesariamente lo que es cierto. Y los laboratorios de desinformación ya entendieron la receta: no necesitan convencer a todos, solo sembrar duda suficiente en el momento justo.
La puerta de entrada del engaño es psicológica. Como sociedad seguimos otorgando al video un estatus de prueba reina: “si lo vi, pasó”. Ese sesgo de realidad —tan útil cuando los montajes eran caros y raros— hoy juega en nuestra contra. La IA generativa se aprovecha de esa confianza visual, mientras los detalles técnicos quedan escondidos tras interfaces amigables y plantillas listas para usar. Incluso periodistas y community managers curtidos pueden morder el anzuelo si la pieza está diseñada para el apuro.
¿Y qué hacemos? Primero, asumir que el video ha dejado de ser evidencia suficiente por sí mismo. Igual que no creemos un rumor sin fuente, no tomemos un clip como verdad sin contexto. Segundo, aplicar una verificación exprés —los cinco segundos que nos ahorran un papelón—: (1) ¿quién publica? ¿es un medio o una cuenta recién creada?; (2) ¿hay versión desde otro ángulo o con más metraje?; (3) ¿el audio suena “plástico”, con respiraciones idénticas o silencios improbables?; (4) ¿los detalles finos (manos, sombras, reflejos, textos en letreros) se sostienen cuadro a cuadro?; (5) ¿el contenido aparece replicado por fuentes confiables que responden por lo que publican? Tercero, esperar. El engaño se alimenta de la urgencia: “comparte ya”. Si algo puede cambiar una elección, puede esperar unos minutos a que lo verifiquen profesionales. Lea también: IA y supermanipulación: reglas claras o caos
También hay avances del lado defensivo: marcas de agua digitales, estándares de procedencia como C2PA, detectores algorítmicos, alertas en plataformas y procesos de verificación editorial más estrictos. Pero no basta. La creatividad del atacante siempre buscará la grieta —un recorte aquí, una regrabación de pantalla allá, un filtro que degrade la señal— para burlar cualquier detector. Por eso el último dique sigue siendo humano: ciudadanía informada, medios serios que explican y transparentan, campañas responsables que no caen en la tentación del “todo vale”, y autoridades que actúan cuando hay suplantación o fraude.
En la costa sabemos leer señales: la brisa que cambia, el cielo que se pone pesado antes del aguacero. Con los vídeos generados con IA en elecciones, toca desarrollar ese mismo olfato. Si un clip te provoca indignación instantánea, tómalo como alerta amarilla. Si llega por un chat cerrado y no hay respaldo público, doble alerta. Si los detalles visuales no cuadran, alto total. Y, sobre todo, si no puedes responder “¿quién responde por esto?”, no lo compartas.
La tesis es simple: la IA generativa ha democratizado el poder de producir apariencias convincentes. Eso no nos condena al engaño, pero sí nos obliga a subir el estándar del consumo. Frente al video hiperrealista, el criterio también debe ser hiperexigente. Ningún modelo —por potente que sea— reemplaza el juicio de una persona que pregunta, contrasta y decide. De nuestra disciplina como audiencia depende que la conversación pública no se contamine. En época electoral, eso se traduce en un acto de responsabilidad cívica: antes de creer, verifica; antes de compartir, duda; antes de votar, piensa. En Cartagena lo decimos claro: no comas cuento.