La IA puede analizar patrones en grandes volúmenes de información periodística para identificar inconsistencias, sesgos probables o afirmaciones no verificadas, sirviendo como una herramienta de apoyo. Sin embargo, no puede sustituir el juicio humano, el contexto cultural o la ética profesional en la valoración última de una noticia. Su implementación, como la de la startup respaldada por Peter Thiel, plantea riesgos sobre la autocensura y la homogenización del discurso.
El 70% de los periódicos digitales en España reconoce tener dificultades para verificar la veracidad de las noticias que publican, según un informe reciente del Reuters Institute de la Universidad de Oxford. No es que no quieran, es que no pueden. La velocidad a la que se mueve el ciclo de noticias, la presión por ser los primeros y la cantidad abrumadora de fuentes y datos que cruzar hacen que el proceso de verificación, el corazón del periodismo, se convierta en un lujo que muchos no se pueden permitir. Si alguna vez has leído una noticia sobre tu sector que sabías que estaba mal, has visto un titular que te hizo arquear una ceja o has tenido que corregir a un amigo que compartió un bulo creyéndoselo, has experimentado de primera mano las grietas del sistema.
Y la cosa no mejora. Esa sensación de desconfianza se traduce en números: la credibilidad de los medios tradicionales lleva años en declive. Pero aquí viene lo que a mí me parece el verdadero meollo del asunto, lo que nadie suele contar cuando habla de desinformación. El problema no es solo tecnológico, ni siquiera es principalmente económico. Es humano, profundamente humano.
La máquina de picar carne informativa
Imagina la redacción de un medio digital hoy. Tienes a un redactor que debe producir cinco, seis, a veces diez piezas al día. Tienes métricas de engagement que penalizan la tardanza y premian el click. Tienes fuentes que mandan comunicados con datos que parecen sólidos, pero que requieren tres llamadas y dos horas para confirmar. ¿Qué crees que gana casi siempre? La velocidad. Siempre la velocidad.
Un periodista de un medio económico me contó hace poco cómo cubrió los resultados trimestrales de una gran empresa. El comunicado de prensa, muy elaborado, destacaba un "crecimiento orgánico récord". Él tenía una corazonada, un dato de otro informe que parecía contradecir esa afirmación. Verificarlo habría requerido acceder a una base de datos de pago, analizar las cuentas consolidadas y contrastar definiciones. El plazo: 45 minutos antes de que la competencia publicara. Publicó con la información del comunicado. La corazonada, días después, se confirmó como cierta.
Ahí está. La presión no es solo externa, se internaliza. Se convierte en un hábito. Y lo más peligroso es que este entorno no premia al escéptico, al que duda, al que quiere comprobar dos veces. Premia al rápido. Y cuando el mecanismo de recompensa está roto, el producto final se resiente.
Pero claro, luego llegan las quejas. Los lectores acusan de falta de rigor. Los colegas señalan errores. La dirección pide más productividad con menos recursos. Es un círculo vicioso donde todos pierden, especialmente la verdad. Y en medio de este caos, aparece una pregunta incómoda: si los humanos, con nuestras limitaciones de tiempo, sesgos y presión, no podemos mantener el ritmo de verificación que el mundo digital exige, ¿quién o qué podría ayudarnos?
El espejismo del árbitro perfecto
Aquí es donde entra en escena la propuesta que está generando ruido. Un startup, respaldado entre otros por el conocido inversor Peter Thiel, propone usar inteligencia artificial no para escribir noticias, sino para juzgarlas. Su plataforma, en esencia, es un sistema que analiza artículos, discursos, transcripciones y bases de datos para asignar una especie de "puntuación de credibilidad" o para señalar afirmaciones que contradicen fuentes consideradas fiables.
La tecnología en sí no es magia negra. Se basa en procesamiento de lenguaje natural, cruce masivo de datos y algoritmos que buscan patrones de inconsistencia. Puede, por ejemplo, coger la frase "la economía ha crecido un 5% interanual" y contrastarla en milisegundos con las últimas publicaciones del INE, del Banco de España y de Eurostat. Puede detectar si un político dijo A hace un año y B hoy, y señalar la contradicción. Puede analizar el lenguaje de un artículo y buscar marcadores de sesgo emocional o de afirmaciones absolutas no sustentadas.
La IA no "sabe" qué es verdad. Lo que hace es comparar lo que dice un texto con lo que dicen otras fuentes previamente etiquetadas como fiables, y calcular la probabilidad de que sea correcto o esté sesgado. Su juicio es estadístico, no moral.
Esto, en teoría, lo cambia todo. Un editor podría tener, antes de publicar, un informe automatizado que le diga: "Ojo con este número, compruébalo". Sería como tener un fact-checker superhumano, incansable y con acceso a toda la información del mundo, trabajando las 24 horas.
Suena bien, ¿verdad? Pues aquí es donde yo creo que debemos frenar el entusiasmo y hablar de lo que nadie está hablando en las notas de prensa.
Lo que el algoritmo no ve (y nunca verá)
Pongámonos en la situación. Eres un periodista de investigación. Tienes un whistleblower, un denunciante, que te ha pasado documentos internos de una empresa que muestran prácticas ilegales. Los documentos son reales, pero son confidenciales. No existen en ninguna base de datos pública. Los introduces en la herramienta de IA para "verificar" tu artículo antes de publicarlo. ¿Qué va a pasar?
Lo más probable es que la IA te devuelva un montón de alertas en rojo. "Las afirmaciones no pueden contrastarse con fuentes públicas fiables". "Los documentos citados no aparecen en registros oficiales". "La gravedad de las acusaciones sugiere un posible sesgo sensacionalista". La herramienta, diseñada para buscar coherencia con el conocimiento establecido, falla estrepitosamente ante la verdad más importante: la que aún no es de dominio público, la que alguien se juega el pellejo para sacar a la luz.
Este es solo un riesgo. Hay más, y son profundos.
- La tiranía de la fuente "oficial": Si entrenas a la IA para que considere "fiables" las bases de datos gubernamentales, los informes de grandes corporaciones y los medios establecidos, estás creando un guardián del status quo. Cualquier información que desafíe el relato oficial será marcada como sospechosa. La disidencia, por definición, se verá penalizada por el algoritmo.
- La ilusión de objetividad: La gente empezará a creer que la "puntuación de credibilidad" es un hecho científico, como la temperatura. No lo es. Es el resultado de decisiones humanas (¿qué fuentes son fiables? ¿qué sesgos queremos detectar?) codificadas en software. Da una pátina de autoridad técnica a lo que es, en el fondo, un juicio editorial.
- El efecto paralizante: ¿Cuántos periodistas, sabiendo que su trabajo pasará por este filtro automatizado, evitarán temas complejos, controvertidos o que se salgan del guion? La autocensura por anticipación podría ser el daño colateral más grande.
Para mí, esto es crucial. Estamos trasladando la crisis de credibilidad desde las redacciones humanas, falibles y transparentes en su falibilidad, a una caja negra algorítmica, inescrutable y presentada como infalible. Cambiamos un problema visible por uno opaco. Y eso me da más miedo.
Un futuro (posible) de colaboración, no de sustitución
Entonces, ¿estoy diciendo que esta tecnología es inútil o peligrosa? En absoluto. Lo que digo es que debemos ajustar radicalmente nuestras expectativas. La IA no va a juzgar el periodismo. Va a ser una herramienta de apoyo para periodistas que juzgan.
La diferencia es abismal.
En pruebas controladas, sistemas de IA similares pueden reducir el tiempo de verificación de datos concretos (cifras, fechas, citas) en más de un 80%, según un estudio del MIT. Pero fallan estrepitosamente en analizar el contexto, la ironía, el interés público o la relevancia de una información.
El camino realista, el que a mí me parece que tiene sentido, es pensar en la IA como el mejor becario de investigación del mundo. Uno que nunca duerme, que lee todos los boletines oficiales, que memoriza todas las declaraciones pasadas y que te puede preparar un dossier con todas las posibles banderas rojas en tu texto. Luego, tú, el periodista o editor, con tu criterio, tu contexto y tu ética, tomas la decisión final. La herramienta te alerta de que una cifra es distinta a la del gobierno. Tú investigas: ¿es un error tuyo, es un error del gobierno, o el gobierno está mintiendo? La máquina te da el dato, tú aportas el juicio.
Así es como veo que puede funcionar. En Script Finance, donde trabajamos con IA aplicada a otros campos, siempre decimos lo mismo: la tecnología debe aumentar al humano, no reemplazarlo. Un sistema que ayude a filtrar el ruido, a señalar posibles problemas, a liberar tiempo de trabajo mecánico para que el periodista pueda hacer lo que solo los humanos hacen (preguntar, contextualizar, interpretar, empatizar) tiene un valor inmenso. Además, nuestra experiencia en automatización de tareas y CRM inteligente nos ha enseñado que la clave está en encontrar el equilibrio perfecto entre tecnología y juicio humano.
Pero un sistema que pretenda ser el juez final, la balanza de la verdad, es una receta para el desastre. Homogenizaría el discurso, ahogaría la innovación periodística y, irónicamente, debilitaría aún más la confianza del público. Porque al final, la credibilidad no se gana con un sello de "verificado por IA". Se gana con transparencia, con rigor, con tiempo y, a veces, con el valor de publicar algo incómodo que un algoritmo nunca entendería. Para más información sobre cómo podemos ayudar a tu negocio con soluciones de IA y automatización, no dudes en contactarnos.




