Si tienes múltiples sentimientos contradictorios, no estás solo ni sola. Y esto es lo que he aprendido después de guiar a organizaciones a través de viajes responsables por la IA: que la tensión no es un problema a resolver. Es sabiduría. Es el punto de partida de todo lo que viene después.
La tensión es real y te está diciendo algo
Las organizaciones de la sociedad civil sienten la presión. Los financiadores preguntan por tu estrategia de IA. Tu equipo ya está utilizando herramientas que no has aprobado formalmente. La tecnología avanza más rápido que tus políticas. Y, en el fondo, hay una pregunta persistente: ¿Cómo utilizamos estas poderosas herramientas sin perder lo que nos hace ser quienes somos?
Esta tensión se manifiesta en dilemas concretos:
Eficacia frente a autenticidad: La IA puede ayudarnos a hacer más cosas, pero ¿sirve «más» a nuestra misión o se limita a llenar nuestros calendarios?
Innovación frente a seguridad: Queremos ser innovadores, pero no a costa de las comunidades a las que servimos.
Acceso frente a privacidad: La IA podría ayudarnos a llegar a más gente, pero ¿qué datos intercambiamos para conseguirlo?
No son preguntas con respuestas claras. Existen en un espectro y el lugar en el que se sitúe tu organización será diferente de donde se sitúe otra. Eso no es una debilidad. Es la naturaleza del trabajo basado en valores.
Espectro de dilemas de la IA
Métricas estrechas frente a resultados equitativos
Beneficio a corto plazo frente a viabilidad a largo plazo
Valor para el accionista frente a valor para las partes interesadas
Rapidez frente a minuciosidad
Transparencia frente a protección de la propiedad intelectual
Rendición de cuentas frente a autonomía (por ejemplo, responsabilidad jurídica o moral)
Aumento frente a dependencia cognitiva
Escalabilidad frente a matiz contextual
Seguridad frente a privacidad (por ejemplo, cámaras con inteligencia artificial)
Soberanía frente a gobernanza mundial (geopolítica)
Arte humano frente a creación por IA (cultura, significado y viabilidad económica)
Progreso frente a planeta (impacto medioambiental)
¿El malestar que sientes? Es una señal. Te orienta hacia lo que realmente te importa.
Por qué las OSC deben liderar, no seguir
Esto es lo que la industria tecnológica suele entender mal: en el momento en que un algoritmo entra en el mundo real, clasificando solicitudes de empleo, recomendando contenidos, asignando recursos, deja de ser un sistema puramente técnico. Se entrelaza con las relaciones humanas, el poder institucional y la confianza de la comunidad.
No son problemas de ingeniería. Son los problemas que las organizaciones de la sociedad civil llevan décadas afrontando.
Ya sabes cómo manejar la complejidad. Sabes escuchar las voces marginadas. Sabes cómo tomar decisiones basadas en valores en condiciones de incertidumbre, con recursos limitados, en contextos en los que lo que está en juego es profundamente humano.
El debate sobre la gobernanza de la IA necesita exactamente esta experiencia.
Y, sin embargo, con demasiada frecuencia, las OSC se mantienen al margen, asumiendo que se trata de un debate para tecnólogos, empresas y reguladores. El riesgo de esperar es real: otros definirán las reglas y puede que esas reglas no reflejen tus valores o las necesidades de las comunidades a las que sirves.
La oportunidad es igualmente real: la sociedad civil puede determinar cómo se desarrolla, despliega y gobierna la IA, en lugar de imitarse a reaccionar ante decisiones tomadas en otros ámbitos.
No se trata de convertirnos en expertos en IA. Se trata de reclamar tu sitio en la mesa como experto o experta en valores.
Las tensiones como umbrales hacia los principios
¿Cómo pasar de la tensión a la claridad?
La respuesta no es resolver la tensión. Es ponerle nombre. Tus tensiones revelan tus valores. Y tus valores, una vez articulados, se convierten en tus principios.
Pensemos en una organización educativa sin ánimo de lucro, Khan Academy. Cuando introdujeron Khanmigo, su herramienta de aprendizaje impulsada por IA, no empezaron con especificaciones técnicas. Empezaron con principios como «Alcanzar objetivos educativos», «Autonomía del alumno» y «Transparencia y rendición de cuentas». Estos principios surgieron de una visión clara de lo que podía ir mal y de lo que querían proteger.
Para su principio sobre «Alcanzar objetivos educativos», desarrollaron barreras de seguridad específicas: «Existen mecanismos para impedir usos no educativos de la IA». Cuando evaluaron el riesgo de uso inadecuado, lo calificaron de alto y crearon estrategias de mitigación en consecuencia, desde sistemas de moderación hasta notificaciones parentales y condiciones de servicio claras.
Los principios fueron lo primero. Siguieron las protecciones prácticas.
Del mismo modo, considera una red internacional de apoyo a los emprendedores sociales, ChangemakerXchange (CXC). Su viaje hacia la IA comenzó con debates sinceros sobre la tensión. Como su Manifiesto IA Consciente afirma: «Somos profundamente críticos, especialmente con la IA generativa, reconociendo sus riesgos: el inmenso peaje medioambiental... su tendencia a amplificar el sesgo... y su potencial para aplanar la creatividad humana única de la que depende nuestro trabajo».
A partir de ese reconocimiento honesto, desarrollaron principios, como el «Uso consciente», para que suene así: «La IA no es el valor por defecto. Antes de cada uso potencial, sobre todo con IA generativa, intentamos hacer una pausa y preguntarnos: ¿Es realmente necesaria la IA para esta tarea? ¿Está realmente en consonancia con nuestros valores? ¿Qué pierdo al utilizar esta herramienta?».
Ambas organizaciones empezaron con la misma pregunta: ¿Qué nos importa proteger? Sus principios son diferentes porque sus misiones son diferentes. Los tuyos también lo serán.
No empiezas de cero
Si definir los principios de la IA te parece desalentador, te damos una noticia tranquilizadora: una comunidad mundial lleva años trabajando en ello.
Desde 2019, organizaciones como la Comisión Europea, la OCDE, la UNESCO y el Instituto Nacional de Estándares y Tecnología (NIST) han desarrollado marcos para una IA digna de confianza. Estos son los principios comunes que han surgido de su trabajo:
Agencia y supervisión humanas: los seres humanos siguen controlando las decisiones cruciales.
Privacidad y gobernanza de datos: los datos personales se protegen y utilizan de forma responsable.
Transparencia: los ciudadanos entienden cómo funcionan y les afectan los sistemas de IA.
Equidad y no discriminación: la IA no perpetúa los sesgos ni crea resultados injustos.
Rendición de cuentas: hay una clara responsabilidad por las decisiones y sus consecuencias.
Bienestar social y medioambiental: la IA debe beneficiar a las personas y a las comunidades minimizando los daños a la sociedad y al planeta.
Estos marcos son un punto de partida, no una plantilla que copiar. El trabajo no consiste en adoptar los principios de otro. Es descubrir qué principios son los más importantes para tu organización, en tu contexto, para tus comunidades.
Un principio como el de «equidad» significa algo diferente en función de tu misión. Para una organización que atiende a refugiados, la equidad puede significar garantizar que las herramientas de traducción automática no funcionen peor en los idiomas menos comunes, o que la selección automática no perjudique a los solicitantes de regiones en conflicto. Para una organización de defensa del medio ambiente, la equidad puede significar garantizar que las campañas dirigidas por IA no excluyan a las comunidades de bajos ingresos más afectadas por la contaminación, pero con menos probabilidades de ser identificadas como «donantes de alto valor» por un algoritmo.
La palabra es la misma. Tú defines la aplicación.
Por qué es importante la diversidad de voces
Uno de los errores más comunes que cometen las organizaciones es tratar la determinación de principios como un ejercicio de liderazgo. Un pequeño grupo redacta un documento, lo distribuye para recabar comentarios y lo da por terminado.
Este enfoque produce principios que parecen buenos sobre el papel pero que no están a la altura en la práctica. Las personas más cercanas a tu misión, como el personal del programa, los miembros de la comunidad o los trabajadores de primera línea, a menudo ven riesgos que el liderazgo pasa por alto. También tienen conocimientos sobre lo que la organización realmente valora, no solo lo que aspira a valorar.
El Manifiesto de CXC surgió de la escucha profunda de todo su equipo. El marco de Khan Academy es mantenido por un grupo de trabajo multifuncional que incluye equipos de investigación de productos, datos y usuarios, lo que garantiza que su enfoque se base en diversas perspectivas.
El proceso de creación de principios es tan importante como los propios principios. Cuando las personas participan en la denominación de lo que importa, se convierten en guardianes de esos valores, no en meros receptores de un memorándum político.
Principios que viven y respiran
He aquí una verdad que puede suponer un alivio: el primer borrador no será perfecto. No tiene por qué serlo.
Los principios de la IA responsable son documentos vivos. Evolucionan a medida que cambia la tecnología, profundizas en tus conocimientos y aprendes de lo que funciona y lo que no.
CXC se compromete a revisar sus documentos de IA cada seis meses. Khan Academy evalúa continuamente su marco mediante demostraciones, ciclos de retroalimentación y la participación de las partes interesadas. Ambas organizaciones tratan sus principios no como productos acabados, sino como debates continuos.
Esto no significa que los principios sean vagos o poco comprometidos. Significa que se basan en la realidad y responden a un panorama tecnológico que cambia constantemente.
Aspira a la «versión uno», no a la «versión final». El objetivo es empezar, no ser perfecto.
Una invitación para empezar
Si tu organización aún no ha articulado sus principios de IA, esta es tu invitación para empezar.
No con un documento de política. No con una lista de comprobación del cumplimiento. Sino con un debate.
Reúne a tu equipo. Crea un espacio para la honestidad, para que la gente diga cuáles son sus esperanzas, sus miedos, sus tensiones. Pregunta: ¿Qué intentamos proteger? ¿A qué nos negamos a renunciar? ¿Cómo es la IA responsable para una organización como la nuestra?
Las respuestas ya están en la sala. Vuestro trabajo consiste en sacarlas a la superficie, nombrarlas y comprometeros con ellas juntos.
Es una labor de liderazgo. Y las organizaciones de la sociedad civil están hechas para ello.
¿Listo o lista para dar el siguiente paso?
Asegúrate de consultar regularmente Hive Mind a lo largo de las próximas ocho semanas para encontrar más artículos de la serie y guías detalladas sobre el uso responsable de la IA para las OSC.
Para ayudarte a pasar de la inspiración a la acción, hemos creado un complemento práctico a este artículo: «La hoja de ruta de la IA responsable para las OSC».
La guía te llevará a través de todo el proceso. Tanto si eres una pequeña organización de defensa sin ánimo de lucro como una gran ONG internacional, la guía proporcionará un camino claro desde «deberíamos hacer algo con respecto a la IA» hasta «estos son los principios que nos guiarán».
Recursos y lecturas complementarias
Marco de Khan Academy para una IA responsable en la educación (https://blog.khanacademy.org/khan-academys-framework-for-responsible-ai-in-education/) - Cómo una organización educativa sin ánimo de lucro ha convertido sus principios en barreras de seguridad prácticas
Manifiesto y política de ChangemakerXchange IA Consciente (https://changemakerxchange.org/mindful-ai/#manifesto) - Un enfoque basado en valores de una red mundial de agentes de cambio
Este artículo es el primero de una serie, «La hoja de ruta de la IA responsable para las OSC» elaborada en el marco de la iniciativa IA para el cambio social del Programa de Activismo Digital de TechSoup, con el apoyo de Google.org.
Sobre la autora
Ayşegül Güzel es una arquitecta responsable de la gobernanza de la IA que ayuda a las organizaciones guiadas por su misión a convertir la ansiedad por la IA en sistemas fiables. Su carrera combina el liderazgo social ejecutivo, incluida la fundación de Zumbara, la mayor red de bancos de tiempo del mundo, con la práctica técnica de la IA como auditora certificada de IA y antigua científica de datos. Guía a las organizaciones a través de transformaciones completas de la gobernanza de la IA y realiza auditorías técnicas de IA. Imparte clases en ELISAVA y es ponente internacional sobre enfoques tecnológicos centrados en el ser humano. Más información en https://aysegulguzel.info o suscríbete a su boletín La IA de tu elección en https://aysegulguzel.substack.com.