22 de Abril de 2026
5 MINUTOS DE LECTURA

Un estudio de los académicos UC Ingrid Bachmann y Sebastián Valenzuela da cuenta de que el público no rechaza a priori el uso de esta tecnología, pero sí demandan transparencia y señales visibles de que hay una supervisión humana detrás. “Muchos medios temen que reconocer el uso de IA afectará su imagen, pero el experimento sugiere lo contrario”, señala Valenzuela.
Por Carolina Durán
¿Afecta la credibilidad de los medios saber que una noticia fue producida —total o parcialmente— con inteligencia artificial? ¿Qué condiciones hacen aceptable su uso entre las audiencias?
Estas preguntas son las que busca responder el estudio “The Effects of Generative AI in News on Media Credibility and Selectivity” (Los efectos de la IA generativa en las noticias sobre la credibilidad y la selectividad de los medios), que fue publicado en la revista Digital Journalism. La investigación fue codiseñada por los académicos de la Facultad de Comunicaciones UC Sebastián Valenzuela e Ingrid Bachmann y en su análisis participaron las profesoras Porismita Borah, de Washington State University, y la cientista política Natalia Solís, estudiante de magíster en la Universidad de Barcelona.
A partir de un experimento con más de 2 mil participantes realizado en Chile, la investigación introduce una innovación metodológica clave: en lugar de preguntar opiniones abstractas sobre la IA, los encuestados debieron elegir entre medios hipotéticos con distintas políticas de uso de IA. Es decir, enfrentaron decisiones concretas, obligándolos a ponderar atributos en competencia.
El resultado es claro: las audiencias no rechazan el uso de la inteligencia artificial en el periodismo, pero sí demandan reglas claras, transparencia y supervisión humana visible.
Señal de que un humano, y no la máquina, es el responsable final
El hallazgo más robusto del estudio es el valor que las audiencias asignan a la supervisión humana de la IA. Los medios que declaraban realizar una revisión editorial completa de contenidos generados con IA tenían alrededor de un 15 % más de probabilidad de ser percibidos como creíbles y de ser elegidos para el consumo de noticias.
“La supervisión humana funciona como una señal visible de que esa responsabilidad no se delega completamente a la máquina” – Sebastián Valenzuela, académico UC
Compartir
Más que una preferencia por lo “humano” en abstracto, este resultado refleja una expectativa de responsabilidad. “La gente no está evaluando la tecnología en sí, sino si hay alguien claramente responsable detrás del contenido”, explica Sebastián Valenzuela. “La supervisión humana funciona como una señal visible de que esa responsabilidad no se delega completamente a la máquina”.
“Se espera que haya medidas de control visibles y conocidas, y eso se valora por encima de cualquier mejora en la eficiencia que podría haber con otros usos de IA (…) el periodismo ha sido históricamente una actividad centrada en las personas y, claramente, todavía se espera que la producción de contenidos periodísticos sea hecha por humanos”.- Ingrid Bachmann, académica Facultad de Comunicaciones.
La profesora Ingrid Bachmann subraya que “se espera que haya medidas de control visibles y conocidas, y eso se valora por encima de cualquier mejora en la eficiencia que podría haber con otros usos de IA con fines periodísticos, como la personalización de contenidos, los resúmenes o la transcripción”. Y agrega que “el periodismo ha sido históricamente una actividad centrada en las personas y claramente todavía se espera que la producción de contenidos periodísticos sea hecha por humanos”.
Transparencia: si usamos IA, es mejor decirlo
Otro factor decisivo en el juicio que hacen las audiencias sobre el uso de la IA en el periodismo es la transparencia. Informar explícitamente que se utilizó IA genera un aumento adicional cercano al 11 % en credibilidad y preferencias por un medio.
“Así como los medios declaran su financiamiento o estándares editoriales, también pueden decir claramente cuándo y cómo usan inteligencia artificial, y si hay supervisión humana” – Ingrid Bachmann, académica UC.
Compartir
Este efecto no parece depender de detalles técnicos. Más bien, actúa como una señal institucional.“Se puede partir con normas explícitas respecto de las políticas editoriales sobre usos de IA. Así como los medios declaran su financiamiento o estándares editoriales, también pueden decir claramente cuándo y cómo usan inteligencia artificial, y si hay supervisión humana”, plantea Bachmann.
Como ejemplo de una buena práctica, la profesora destaca al medio británico The Guardian, que explicita de qué manera usa la inteligencia artificial generativa: How the Guardian is using GenAI | | The Guardian.
Valenzuela añade que existe una oportunidad poco aprovechada por los medios: “Muchos medios temen que reconocer el uso de IA afectará su imagen, pero el experimento sugiere lo contrario. La falta de transparencia puede interpretarse como falta de responsabilidad”.
Para los medios, el mensaje es claro: aumentar el uso de IA sin hacer visible su gobernanza difícilmente fortalecerá la confianza e incluso podría debilitarla. En cambio, invertir en mecanismos claros de supervisión, transparencia y comunicación puede tener efectos más significativos que mejoras marginales en automatización de contenidos vía IA.
Incorporar la IA desde el comienzo en la formación periodística
El avance de la inteligencia artificial también plantea retos para la formación de periodistas y comunicadores. “La IA ha crecido de manera vertiginosa y es tentador dejarse llevar por la moda”, señala Bachmann.
“Pero es clave entender cuál es el valor diferencial del comunicador humano y qué parte del trabajo creativo no puede ser automatizada. Como universidad debemos capacitar a nuestros estudiantes en el uso de esta tecnología, pero también en ayudarles a comprender los desafíos profesionales que supone”, enfatiza.
“Es clave entender cuál es el valor diferencial del comunicador humano y qué parte del trabajo creativo no puede ser automatizada”.- Ingrid Bachmann
Desde la perspectiva de Valenzuela, las universidades tienen un rol fundamental: “Los departamentos de periodismo y facultades de comunicación deben mostrar lo que está pasando afuera en IA y noticias y cómo se puede, de manera creativa, responsable y ética, usar la IA para hacer buen periodismo”, sostiene, y agrega que la universidad es una etapa de experimentación, donde uno puede comprender los costos y beneficios del uso de la IA.


