Este artículo ofrece una perspectiva más útil, que tiene en cuenta tanto la advertencia como la promesa. Las herramientas de IA ya forman parte del trabajo cotidiano del personal de las organizaciones de la sociedad civil. La pregunta ya no es si usarlas, sino cómo usarlas sin perder el juicio crítico que da valor a ese trabajo.
La herramienta que ya usas — y tienes que entender cómo funciona
Piensa en la última vez que buscaste algo. Dependiendo del navegador o buscador que usaras, lo primero que viste puede que no fuera una lista de enlaces, sino un párrafo, con el formato de una respuesta, generado por un modelo de IA. Es posible que lo hayas leído y seguido adelante, dando tu búsqueda por resuelta. La mayoría de la gente lo hace.
Esta es una de las formas en que la IA se ha convertido silenciosamente en una fuente de información, no solo en una herramienta de productividad. Buscadores como Google, Bing y otros muestran respuestas generadas por IA antes que cualquier resultado seleccionado por personas. El párrafo tiene un aspecto de autoridad. Esa respuesta no siempre incluye autoría, fecha ni una lista de fuentes que puedas comprobar. Simplemente responde a la pregunta.
De forma similar, usar un modelo de IA para investigar un tema nuevo puede ser una decisión más consciente, pero conlleva riesgos parecidos. Esto es frecuente porque es rápido y eficiente. Antes se consultaba Wikipedia y otras fuentes similares de la misma manera: no como fuente definitiva, sino como primera orientación al acercarse a algo desconocido. Sin embargo, hay una diferencia fundamental: Wikipedia muestra sus fuentes y, cuando un hecho o contenido es objeto de debate o controversia, aparece algún tipo de aviso para que sepas dónde están las dudas o discrepancias. Un chatbot te da una narrativa segura y sin transparencia equivalente.
En una situación más informal, los usuarios hacen a un modelo de IA una pregunta concreta para resolver una duda rápida. Por ejemplo: ¿qué significa este acrónimo?, ¿cuándo se aprobó esta normativa?, ¿quién dirige esta organización? Son el tipo de preguntas que antes se resolvían con una búsqueda rápida o consultando una fuente de referencia fiable. Ahora se las hacen a chatbots de IA, y los chatbots responden con fluidez, con seguridad... y a veces de forma incorrecta.
Ninguno de estos usos es intrínsecamente incorrecto. El problema es usar la IA como fuente de información sin entender qué tipo de fuente es en realidad.
Cómo funcionan estas herramientas — y por qué importa
Los grandes modelos de lenguaje — la tecnología detrás de ChatGPT, Claude, Gemini y herramientas similares — no comprenden el mundo ni la información que utilizan y manejan. Aprenden patrones estadísticos a partir de enormes cantidades de texto: qué palabras tienden a aparecer juntas, qué frases siguen a qué frases. El modelo no capta el significado de lo que produce. Genera texto que se parece a lo que se suele decir sobre un tema determinado.
Esto tiene una consecuencia práctica directa que conviene recordar cada vez que hacemos una pregunta a estas herramientas: el modelo no sabe si lo que dice es verdad, solo sabe si algo suena a lo que habitualmente se entiende. Para hechos bien documentados y ampliamente representados en sus datos de entrenamiento, esta distinción a menudo no importa — la respuesta será correcta. Un buen ejemplo sería la historia de un descubrimiento científico consolidado, como el descubrimiento del radio por Marie y Pierre Curie en 1898. Pero ante eventos recientes, información local, o cualquier tema en el que los datos disponibles son escasos, controvertidos o contradictorios, el modelo puede producir una respuesta incorrecta con exactamente la misma fluidez y seguridad que una correcta. Piensa, por ejemplo, en los resultados controvertidos de unas elecciones locales recientes en un país de habla no inglesa (ya que son modelos de lenguaje, el idioma importa en su entrenamiento). Eso no es un fallo que vayan a corregir, sino una característica estructural de cómo funcionan estos sistemas.
Hay un segundo problema estructural: estos modelos son sensibles a cómo se les formulan las preguntas (técnicamente, a cómo se les da la instrucción o prompt). Alguien que entienda cómo funcionan puede construir una pregunta que lleve al modelo a validar una afirmación falsa. No hace falta tener conocimientos técnicos avanzados — basta con unos pocos intentos de prueba y error. De la misma manera que se pueden entender y aprovechar los algoritmos de las redes sociales en beneficio propio, también se puede hacer con los modelos de lenguaje.
La desinformación que quizá no ves venir
Los riesgos relacionados con la IA que más atención reciben son los más visibles: deepfakes, imágenes sintéticas, vídeo generado por IA. Son riesgos reales. También son, en cierto modo, los más fáciles de detectar y de los que hablar, porque implican contenido que fue fabricado deliberadamente.
Un riesgo más sutil es lo que podría llamarse el blanqueo de narrativas engañosas. Se trata de contenido que no es técnicamente falso, pero que enmarca un tema de manera que refuerza una comprensión manipulada o distorsionada. Un modelo de IA al que se le pide que resuma un asunto controvertido puede producir un resumen que parece equilibrado pero omite sistemáticamente una de las partes. También puede presentar una posición minoritaria como mayoritaria, porque esa forma de enmarcar el tema estaba sobrerrepresentada en sus datos de entrenamiento. Nadie fabricó nada; no hubo intención. En estos casos, la distorsión surge de la base estadística del modelo.
Esto importa para el personal de las organizaciones de la sociedad civil no solo como un riesgo a tener en cuenta en contenidos externos, sino como un riesgo en sus propios resultados. Si usas un modelo de IA para investigar un tema, redactar una posición o resumir un informe, los sesgos en los datos de entrenamiento del modelo pueden aflorar en lo que produce, sin ninguna señal evidente de que algo no está bien. El resultado sonará seguro y coherente. Eso es precisamente lo que hace que valga la pena examinarlo con atención.
Dónde la IA contribuye la integridad informativa
Teniendo claros esos límites, hay muchas formas en que la IA puede apoyar el trabajo de integridad informativa, no sustituyendo el juicio humano, sino haciendo un uso más eficiente de él.
1. Entender qué circula y por qué
Cuando el volumen de contenido a monitorizar supera lo que un equipo puede procesar manualmente, la IA puede ayudar con la clasificación y el triaje. A partir de un conjunto amplio de publicaciones en redes sociales, artículos o mensajes, un modelo puede agruparlos por narrativa subyacente, marcar los que coinciden con patrones conocidos de riesgo, o identificar qué temas están ganando tracción. El modelo propone esas narrativas, categorías y grupos, y el equipo humano decide y valida, haciendo la monitorización más eficiente y el eventual proceso de verificación más estratégico.
Una aplicación relacionada es la extracción y el análisis de narrativas: pedirle a un modelo que identifique el encuadre implícito de un contenido antes de responder a él. ¿Qué supuestos da por sentado este texto? ¿A qué emociones apela? ¿Qué creencia previa refuerza? Entender la arquitectura narrativa de un contenido engañoso es un complemento muy útil al proceso de verificación de sus afirmaciones superficiales, porque permite abordar muchos contenidos distintos a la vez si comparten las mismas narrativas subyacentes.
2. Prepararse para responder
Antes de usar un documento como fuente o de responder a una afirmación, conviene mapear qué es realmente verificable en él. No toda aseveración en un documento es una afirmación factual comprobable, y no toda afirmación factual es suficientemente concreta como para ser verificada. Un modelo puede ayudar a identificar rápidamente qué enunciados son verificables y cuáles no, para que el foco humano se concentre donde puede ser útil. De nuevo: los modelos proponen, pero es el juicio humano el que revisa, valida y toma decisiones.
Si tu organización está preparando una comunicación pública en respuesta a una narrativa engañosa, la IA puede servir como interlocutor crítico. Pídele que encuentre los puntos débiles de tu argumento, identifique afirmaciones sin respaldo o señale fragmentos que podrían malinterpretarse o sacarse de contexto. Esto debe hacerse con un límite claro en mente: no se trata de externalizar el juicio editorial, sino de poner a prueba tu trabajo antes de que llegue a la audiencia.
Por último, cuando te enfrentes a una fuente o afirmación sobre la que tienes dudas, un modelo puede ayudarte a estructurar tu pensamiento crítico: ¿qué necesitarías saber para evaluarlo correctamente? ¿Qué perspectivas están ausentes? ¿Qué intereses podría haber detrás? Es posible que el modelo no responda a esas preguntas de forma fiable, pero puede ayudarte a formular las correctas.
Hábitos para usar la IA sin dejar de ejercer el pensamiento crítico
Por tanto, la clave para usar la IA sin comprometer la integridad informativa no está en si usarla, sino en cómo usarla. Aquí van algunos consejos prácticos:
1. Los prompts bien estructurados producen mejores resultados. "Resume este informe" e "Identifica las tres afirmaciones principales de este informe, la evidencia citada para cada una y cualquier afirmación que parezca carecer de respaldo, en no más de 200 palabras" producen resultados radicalmente distintos. Cuanto más específico seas sobre qué quieres, en qué formato y con qué limitaciones, más útil y trazable será el resultado.
2. Pide razonamiento, no solo conclusiones. Si le pides a un modelo que evalúe si una fuente es fiable, pídele también que explique por qué. Un modelo que razona en voz alta produce resultados más precisos y te da algo que evaluar. Si el razonamiento no se sostiene según tu criterio (recuerda: ese es el que importa), la conclusión tampoco.
3. No utilices IA para verificar hechos directamente. Un modelo de lenguaje puede producir una respuesta segura, detallada y completamente inventada ante una pregunta factual. Usa la IA para apoyar y estructurar tu proceso de verificación — para identificar qué hay que comprobar, para generar las preguntas que deberías hacerte — pero nunca para cerrarlo.
4. Ten en cuenta que los resultados de la IA llevan sesgos incorporados. Los datos de entrenamiento del modelo reflejan el mundo tal como estaba representado en los materiales usados para entrenarlo, lo que significa que algunos puntos de vista están sobrerrepresentados y otros infrarrepresentados. Esto puede afectar al encuadre de los resúmenes, a los ejemplos que el modelo utiliza y a las conclusiones hacia las que tiende.
5. Reconoce en qué casos sus conclusiones y contenidos serán probablemente poco fiables. La IA es especialmente imprecisa con eventos muy recientes, información local o muy específica, y cualquier situación en la que la clave del posible engaño esté en el contexto más que en el contenido. Si entender por qué algo es engañoso requiere saber quién es la audiencia, qué cree y en qué momento vive, eso requiere sin duda una revisión humana.
6. Documenta tu uso de la IA. No como un requisito burocrático, sino como una disciplina. Saber que vas a registrar cómo has usado una herramienta cambia el cuidado con que la usas. Además, genera conocimiento organizativo sobre qué funciona y qué no, y es algo que se espera cada vez más como estándar básico de transparencia.
Entonces: ¿puede la IA ayudar a las organizaciones de la sociedad civil a fortalecer la integridad informativa?
Sí, pero con cautela. La IA puede ayudar a gestionar el volumen, identificar patrones, estructurar el pensamiento y poner a prueba argumentos. Pero no puede evaluar el contexto, corregir sus propios sesgos ni determinar si algo es verdad. Las organizaciones que la usarán bien son las que entiendan esa distinción con suficiente claridad como para saber, en cada momento, qué le piden y si puede dárselo.
Las herramientas son útiles, pero el pensamiento crítico siempre debe ser tuyo.
¡Tu opinión importa!
¿Qué piensas de este texto? Tómate 30 segundos para compartir tus comentarios y ayudarnos a crear contenido significativo para la sociedad civil.
Avisos legales
Este recurso ha sido creado como parte del proyecto AI for Social Change dentro del Programa de Activismo Digital de TechSoup, con el apoyo de Google.org.
Las herramientas de IA están evolucionando rápidamente y, aunque hacemos todo lo posible por garantizar la validez del contenido que proporcionamos, a veces algunos elementos pueden dejar de estar actualizados. Si notas que alguna información está desactualizada, por favor háznoslo saber en content@techsoup.org.
Este contenido fue creado con la ayuda de IA y ha sido revisado y editado por Rocío Benavente Pérez.
"IA e integridad de la información: una guía práctica para el personal de organizaciones de la sociedad civil", de Rocío Benavente Pérez, para Hive Mind está licenciado bajo CC BY 4.0.
