Esta es la segunda parte de la guía «La hoja de ruta de la IA responsable para las OSC». Para saber más, lee el artículo «De la tensión al principio: Cómo las OSC pueden liderar una IA responsable», la introducción a la guía (con el calendario de publicación de cada una de las partes), y la Parte 1: MIRAR: Preparar el terreno.
En la Parte 2: CREAR, prepárate para identificar los principios más significativos de tu organización y aprende a definirlos.
2.1 El enfoque del buscador de valores fundacionales
Este marco es una adaptación del libro de Olivia Gambelin IA responsable, que ofrece un método práctico para que las organizaciones identifiquen los valores que se alinean a través de las dimensiones normativas, ecosistémicas y organizativas.
→ Utiliza la hoja de trabajo Identificar | Definir los principios de la IA para trabajar en esta sección. La hoja de trabajo contiene la tabla de evaluación del alineamiento y todas las referencias de apoyo.
Preparación el escenario:
Si has recogido las tensiones mediante entrevistas previas a la sesión, comienza presentando al grupo las percepciones sintetizadas. Comparte las pautas que has escuchado: las esperanzas, los temores y los aspectos no negociables que han surgido. Deja tiempo para que el grupo responda y añade algo a lo que se ha captado.
Si vas a hacer aflorar tensiones en directo, empieza con las 5 preguntas. Dedica 5 minutos a la reflexión individual y, a continuación, entre 15 y 20 minutos a la puesta en común en grupo. Anótalo todo en un rotafolio o en un documento compartido.
Con las tensiones aflorando, tu equipo tiene ahora:
Ideas extraídas de entrevistas o reflexiones (lo que le importa proteger)
Un inventario de IA que muestra lo que está en uso y qué problemas existen
Conocimientos existentes: los valores de tu organización, la normativa pertinente y los puntos de referencia sobre el terreno
Ahora reúne todo esto para identificar qué principios son los más importantes.
Construir tu lista de principios:
Empieza por recopilar todos los principios que has recogido a través de MIRAR:
Principios comunes de la IA responsable extraídos de la investigación sobre marcos y puntos de referencia (los 6-12 más citados)
Los valores y principios de tu organización
Cualquier principio que haya surgido de los debates sobre las tensiones (por ejemplo, si la «autenticidad» surgió repetidamente, eso podría apuntar a un principio como «Lo humano en el centro»)
Principios implícitos en tu marco reglamentario
Es probable que tengas entre 12 y 20 principios candidatos. Eso está bien. El siguiente paso te ayuda a establecer prioridades.
La evaluación del alineamiento:
Para cada principio, evalúa si es relevante en tres dimensiones:
(Ejemplo de borrador)
[table]
→ La hoja de trabajo Identificar | Definir los principios de la IA incluye esta tabla lista para completar, junto con la referencia a la Ley IA de la UE y el Alineamiento de los principios para ayudarte a completar la columna Gobierno/Regulación.
Cómo informa de esto la fase MIRAR:
Columna Gobierno/Regulación: Tu investigación del panorama normativo te indica qué principios se exigen o fomentan legalmente.
Columna Ecosistema: Tu conocimiento de las expectativas de los financiadores, los socios y la comunidad te indica qué principios son importantes para tus partes interesadas.
Columna Organización: Tus valores actuales Y tus percepciones de las tensiones te indican qué principios son esenciales para ti.
El debate sobre las tensiones es especialmente valioso aquí. Si tu equipo expresó una gran preocupación por la autenticidad, eso te orienta hacia principios como «Lo humano en el centro». Si la privacidad de los datos aparece repetidamente en el inventario, eso indica que la «Privacidad y gobernanza de datos» es algo primario.
Puntuación de alineamiento:
Primario (3 verificaciones): El principio aparece en las tres fuentes. Esto es fundamental, no negociable.
Secundario (2 verificaciones): El principio aparece en dos fuentes. Importante, apoya la toma de decisiones cuando los principios primarios entran en conflicto.
Terciario (1 verificación): El principio solo aparece en una fuente. Puede seguir siendo importante para tu organización en concreto, aunque no se destaque en otra parte.
Aspira a 3-7 principios primarios. Más de eso se vuelve difícil de manejar; menos puede pasar por alto dimensiones importantes. Estos principios primarios se convierten en tu foco para una definición detallada.
2.2 De la identificación a la definición
Identificar los principios es solo la mitad del trabajo. Un principio como la «equidad» o la «transparencia» significa cosas distintas para organizaciones diferentes. Tu tarea consiste en definir qué significa cada principio en tu contexto.
→ La hoja de trabajo Identificar | Definir los principios de la IA incluye una Plantilla de definición para cada principio. Utilízala para recoger las respuestas de tu equipo a las siguientes preguntas.
Preguntas definitorias:
Para cada principio que hayas identificado como primario (y opcionalmente como secundario), trabaja en equipo con estas preguntas:
¿Qué significa este principio para nuestra organización en el contexto de la IA? ¿Cómo conecta con nuestra misión, nuestros valores y el trabajo específico que realizamos? ¿Qué hace que nuestra interpretación sea única?
¿Por qué es importante para nosotros este principio? ¿Cuáles son los beneficios potenciales si lo mantenemos? ¿Cuáles son los riesgos o las consecuencias negativas si no lo hacemos?
¿Se te ocurre algún ejemplo concreto en el que este principio tenga una importancia crítica o se ponga en tela de juicio? Básalo en tu trabajo real: un escenario real o un hipotético realista.
¿Qué criterios nos ayudarían a evaluar si estamos respetando este principio? ¿Qué condiciones debemos cumplir?
Estudio de caso: Khan Academy
Khan Academy adoptó el lema «Alcanzar objetivos educativos», pero no se detuvieron en el nombre. Definieron criterios que aclaran lo que exige estar a la altura de este principio:
«Hay un objetivo educativo claro que puede alcanzarse mediante el uso de la IA»
«Existe un plan de seguimiento y evaluación para determinar el impacto»
«Existen mecanismos para impedir usos no educativos de la IA»
Observa que aún no se trata de normas de aplicación detalladas, sino de criterios a nivel de principios. Definen lo que exige el principio sin especificar exactamente cómo conseguirlo. Esa especificidad viene después, cuando se elaboran las políticas (más información aquí) y se llevan a cabo las evaluaciones de riesgos (más información aquí).
El valor de definir principios a este nivel: ahora un equipo puede preguntarse: «¿Tiene nuestra propuesta de IA un objetivo educativo claro? ¿Tenemos un plan para medir el impacto? ¿Qué mecanismos impedirían el uso indebido?». El principio proporciona las preguntas: la política y el trabajo sobre los riesgos, las respuestas.
Estudio de caso: ChangemakerXchange
CXC definió el «uso consciente» con preguntas concretas que su equipo se plantea antes de cualquier uso de la IA:
«¿Es realmente necesaria la IA para esta tarea?»
«¿Está realmente alineado con nuestros valores?»
«¿Qué pierdo si utilizo esta herramienta para esta tarea?»
También especificaron cómo se ve esto en la práctica: «Algunas tareas requieren toda nuestra presencia y atención, como escribir un mensaje sincero a los afiliados, elaborar una teoría del cambio o diseñar una sesión para una de nuestras reuniones. Cuando estas cosas se delegan en exceso en la IA, corren el riesgo de perder profundidad, autenticidad o significado».
El principio se vuelve aplicable porque se define en términos de su trabajo específico.
[table]
Resultado: → Utiliza la hoja de definición de los principios de la IA responsable en la hoja de trabajo Identificar | Definir los principios de la IA para capturar este resultado para cada principio.
Estas definiciones se convierten en la base de tus estructuras y políticas de gobierno.
2.3 La importancia de la diversidad de voces
Quien participa en este proceso es tan importante como el propio proceso.
Por qué importa la diversidad:
Las personas más cercanas a tu misión ven riesgos que el liderazgo pasa por alto
El personal de primera línea entiende cómo afecta realmente la IA al trabajo diario
Los miembros de la comunidad pueden hablar de impactos que los equipos internos pueden pasar por alto
La diversidad de perspectivas evita los puntos ciegos y el pensamiento de grupo
Cuando las personas participan en la creación de principios, se convierten en guardianes de esos valores
Quién debería estar en la sala:
La dirección (para la aceptación y la autoridad para comprometerse)
Personal de programas/operaciones (para la realidad práctica)
Personal técnico, si dispones de él (para conocer la viabilidad)
Comunicaciones/relaciones externas (desde la perspectiva de las partes interesadas)
Personal administrativo (a menudo los primeros en adoptar la IA para herramientas de eficiencia)
Si es posible: miembros de la comunidad, beneficiarios o socios
El Manifiesto de CXC surgió de la escucha profunda de todo su equipo. El marco de Khan Academy es mantenido por un grupo de trabajo multifuncional que incluye equipos de investigación de productos, datos y usuarios, lo que garantiza que su enfoque se base en diversas perspectivas.
Consejos de facilitación:
Crear seguridad psicológica: sin juicios ni respuestas «erróneas»
Utilizar la reflexión individual antes de la discusión en grupo (evita que las voces dominantes dirijan)
Invitar explícitamente a los participantes más callados a compartir
Documentar las opiniones discrepantes, no solo el consenso
Considerar mecanismos de aportación anónima para asuntos delicados
Nombrar que el desacuerdo es información, no fracaso
Evitar el «teatro corporativo»:
El objetivo no es producir un documento pulido que la dirección apruebe. El objetivo es una auténtica cocreación: principios en los que su equipo cree porque han contribuido a darles forma.
Si en tu primera sesión surgen verdaderos desacuerdos, eso es una característica, no un error. Esas tensiones son información. Pueden indicar que es necesario hablar más antes de comprometerse con un principio, o que un principio debe definirse con más cuidado para dar cabida a diferentes perspectivas.
El proceso de creación de principios es tan importante como los propios principios.
Asegúrate de continuar con la Parte 3: Ponerlo en práctica para aprender a identificar los principios de la IA más importantes para tu OSC.
Tu opinión es importante
Este artículo es la segunda parte de la serie «La hoja de ruta de la IA responsable para las OSC», elaborada en el marco del proyecto IA para el cambio social del Programa de Activismo Digital de TechSoup, con el apoyo de Google.org.