Por: Patricia Sánchez
Decana de Facultad de Comunicación y Ciencias Sociales
Universidad de Ciencias y Artes de América Latina (UCAL)
Durante las horas posteriores a la captura de Nicolás Maduro, las redes sociales se inundaron de imágenes y videos que aseguraban mostrar su arresto. El problema es que nada de eso había ocurrido. Lo que sí ocurrió —y con enorme rapidez— fue la circulación masiva de contenidos generados o manipulados con inteligencia artificial que, para muchos usuarios e incluso algunos medios, resultaron suficientemente “creíbles” como para ser compartidos sin verificación.
Entre las piezas más virales estuvo la imagen del llamado “preso naranja”: un Maduro sin bigote, calvo y vestido con el uniforme carcelario estadounidense. A simple vista, la fotografía parecía real. Sin embargo, herramientas de detección confirmaron que se trataba de una imagen 100 % sintética. También circularon fotografías recicladas de otros contextos, como la de un soldado estadounidense custodiando a un detenido con el rostro cubierto, presentada falsamente como prueba del arresto. No eran errores ingenuos: eran simulaciones diseñadas para engañar.
Este episodio deja al descubierto una crisis más profunda: ya no estamos discutiendo solo sobre noticias falsas, sino sobre evidencias falsas. El deepfake ha llevado la desinformación a un nuevo nivel, uno en el que la imagen —históricamente asociada a la prueba— ha perdido su estatus de garantía de verdad.
El World Economic Forum advierte que, por segundo año consecutivo, la desinformación es el principal riesgo global, por encima incluso de las crisis económicas. La proyección es aún más inquietante: hacia finales de este año, cerca del 90 % del contenido que circule en internet será sintético. En paralelo, estudios recientes del Reuters Institute revelan que siete de cada diez personas ya no logran distinguir entre un registro real y un deepfake. El ojo humano, por sí solo, ya no basta.
Las consecuencias de este fenómeno son múltiples. Se erosiona la confianza pública, se acelera la polarización política y se debilita el rol del periodismo como mediador de la realidad. Pero también se evidencia una falla ética colectiva: la urgencia por ser los primeros en compartir pesa más que la responsabilidad de verificar. En este escenario, algunos medios actúan sin filtros, y muchos ciudadanos aún no tienen conciencia del impacto de sus clics.
La inteligencia artificial no es el problema en sí. El problema es su uso sin criterios, sin contexto y sin responsabilidad. La tecnología puede generar contenidos, pero no puede discernir la intención detrás de un mensaje. Esa sigue siendo una capacidad estrictamente humana. Por eso, el verdadero debate no es técnico, sino ético y comunicacional.
Hoy, comunicar no debería ser llenar el espacio digital de estímulos, sino darle sentido y honestidad al encuentro humano, especialmente cuando la realidad misma parece estar en duda. La pausa antes de compartir se ha convertido en un acto de resistencia frente a la manipulación.
En 2026, estar “conectado” ya no es una ventaja competitiva, es una responsabilidad ética. El comunicador contemporáneo debe dejar de ser un simple productor de mensajes para convertirse en un curador de verdades. Por eso, desde la Facultad de Comunicación y Ciencias Sociales de la UCAL lo tenemos claro: nuestra labor educativa se centra hoy en el pensamiento crítico aplicado: no basta con dominar la IA, hay que saber auditarla.
La alfabetización mediática del siglo XXI implica comprender que, en tiempos de realidades sintéticas, la pausa antes del “compartir” es un acto de defensa democrática. Porque cuando todo puede ser fabricado, la verdad necesita más que nunca guardianes conscientes.
