La inteligencia artificial no es neutral.
La diversidad de pensamiento y experiencia es crucial para construir tecnologías justas, éticas e inclusivas.

Somos una comunidad de mujeres en ciberseguridad e IA que creemos en el poder de lo colectivo para formarnos y crecer técnicamente en las áreas más demandadas de la inteligencia artificial y el hacking ético.
Estamos contruyendo un futuro donde las tecnologías sean reflejo de un sistema equitativo y diseñado por todas.

Sumate a la Comunidad

¿Qué es rootwomen?

Investigamos

Analizamos cómo los sistemas automatizados de toma de decisiones perpetúan y amplifican desigualdades estructurales bajo una falsa sensación de neutralidad matemática.

Hacking Ético en IA

Identificamos vulnerabilidades mediante adversarial attacks, prompt injection, model extraction y data poisoning. Auditamos backdoors, realizamos fuzzing de modelos y exponemos fallas de seguridad en sistemas de ML/LLM.

Capacitación Técnica

Talleres de pentesting en LLMs, prompt injection, model extraction y adversarial ML. Sesiones de análisis de sesgos en datasets, auditoría de pipelines y técnicas de red teaming. Formación práctica con herramientas open source y frameworks como MITRE ATLAS.

¿Por qué importa quién construye la IA?

Los algoritmos no son neutrales

Los sistemas de IA se entrenan con datos del mundo real, un mundo marcado por desigualdades históricas. Cuando los sistemas se diseñan sin incluir a las personas que pueden verse afectadas, terminan replicando sesgos y desigualdades preexistentes.

La IA magnifica desigualdades

Tecnologías como el reconocimiento facial, los algoritmos de selección laboral o los modelos de evaluación crediticia han mostrado diferencias en su desempeño según grupos y contextos. Estos casos nos invitan a analizar cómo se diseñan, qué datos utilizan y qué efectos pueden generar, para asegurarnos de que la automatización contribuya a decisiones más justas y confiables.

Necesitamos otras perspectivas

Cuando las mujeres participamos en igualdad en el desarrollo de IA, traemos preguntas diferentes: ¿Para quién es este sistema? ¿Qué relaciones de poder refuerza? ¿A quién beneficia realmente? Estas preguntas cambian todo.

El futuro se decide ahora

Los sistemas de IA están tomando decisiones que afectan vidas: acceso a servicios públicos, oportunidades laborales, justicia penal. Si no participamos en su diseño, otros decidirán por nosotras.

América Latina necesita una voz propia en IA

La inteligencia artificial se entrena con datos que expresan culturas, lenguajes y estructuras sociales concretas. Cuando nuestras realidades no participan activamente en ese proceso, los sistemas carecen de profundidad contextual y reducen la complejidad de la región.

Formar mujeres latinoamericanas para investigar, desarrollar y auditar modelos desde la región es una apuesta estratégica a que América Latina se posicione en el desarrollo de tecnologías de IA con una voz propia: técnica, crítica y productiva. Una voz que contribuye al diseño de modelos, define estándares y produce conocimiento situado.

Las decisiones que se tomen hoy determinarán quién diseñará los sistemas que utilizarán las próximas generaciones y desde qué mirada se estructurará esa inteligencia.

¿Qué hacemos en rootwomen?

Investigación Colectiva

Estudiamos casos de IA opresiva en América Latina y el mundo. Documentamos sesgos, analizamos vulnerabilidades y compartimos hallazgos. Nuestro mapeo es colaborativo.

Formación Continua

Talleres sobre adversarial attacks, fuzzing de modelos, análisis de sesgos, auditoría algorítmica. Aprendemos juntas a desarmar sistemas de IA para entender cómo funcionan realmente.

Desarrollo de Herramientas

Creamos frameworks de auditoría, scripts de análisis de sesgo, metodologías de testing. Código abierto, documentación en español, enfoque práctico.

Comunidad Activa

Intercambio de papers, debate de casos, sesiones de pair programming, revisión de código entre pares. Un espacio seguro para preguntar, experimentar y equivocarse.

Programa de Investigación

Iniciativa impulsada por RootWomen

Un espacio de investigación y producción de conocimiento sobre inteligencia artificial, sesgos y seguridad en sistemas automatizados desde una perspectiva latinoamericana.

Los modelos se entrenan con datos, lenguajes, culturas y estructuras sociales concretas, hoy los modelos de IA se desarrollan fuera de la región y con datasets donde América Latina tiene una presencia limitada lo que produce sistemas que interpretan nuestras realidades con poca profundidad contextual y que reproducen patrones sociales ya existentes en los datos.

Frente a este escenario, el programa propone generar conocimiento técnico situado, capaz de analizar críticamente cómo se diseñan, entrenan y utilizan estos sistemas, el objetivo es contribuir a una conversación regional sobre inteligencia artificial que no solo analice impactos, sino que también fortalezca capacidades para investigar, auditar y eventualmente desarrollar tecnologías desde América Latina.

Qué es

Una mesa colaborativa permanente de investigación y debate orientada a analizar sistemas de IA desde la región. El programa busca reunir investigadoras, desarrolladoras, hackers éticas, organizaciones y equipos académicos interesados en estudiar cómo funcionan estos sistemas, qué riesgos presentan y qué oportunidades existen para construir tecnologías más seguras y representativas.

Líneas de trabajo

El programa se organiza alrededor de cuatro áreas principales. La primera aborda sesgos discriminativos en sistemas algorítmicos y analiza cómo los modelos de IA pueden reproducir desigualdades relacionadas con género, origen social, cultura o contexto regional. La segunda se enfoca en la evaluación de datasets y pipelines, con un estudio crítico de cómo los procesos de entrenamiento y los criterios de calidad influyen en el comportamiento de los modelos. La tercera línea trabaja seguridad en IA y LLM, incluyendo vulnerabilidades, ataques adversariales, abuso de modelos, extracción de información, manipulación de comportamiento y riesgos emergentes. La cuarta se orienta al desarrollo de metodologías, guías y herramientas que permitan evaluar sistemas de IA desde una perspectiva técnica y crítica.

Qué produce

El programa busca generar resultados concretos que puedan ser utilizados por organizaciones, comunidades técnicas y espacios académicos. Entre ellos se incluyen informes técnicos breves, documentación de casos regionales, repositorios y herramientas abiertas cuando corresponda, y recomendaciones para diseño y adopción responsable de IA. La producción de conocimiento estará orientada a facilitar el análisis crítico de estas tecnologías y a fortalecer la discusión pública sobre su desarrollo.

Calendario

Lanzamiento: próximamente.

El programa funcionará mediante ciclos de trabajo periódicos donde se discutirán investigaciones, casos y desarrollos en curso. La participación será abierta a investigadoras, desarrolladoras, organizaciones y equipos que deseen aportar conocimiento, casos de estudio o colaboración institucional.

Cómo colaborar

Existen tres formas principales de participación para organizaciones, instituciones, equipos académicos y personas interesadas en fortalecer una agenda regional de investigación en IA.

Co-investigación

Equipos académicos o técnicos interesados en trabajar metodologías de análisis y producción de conocimiento conjunto.

Casos y evidencia

Organizaciones que puedan aportar escenarios reales, datasets, sistemas o casos de estudio para análisis crítico.

Apoyo institucional

Instituciones que faciliten infraestructura, espacios de trabajo, difusión o alianzas para sostener la continuidad del programa.

¿Querés que participemos en tu evento?

Desde rootwomen colaboramos en actividades como charlas, paneles, talleres, conversatorios o espacios de co-creación vinculados a IA, sesgos algorítmicos, seguridad en ML/LLM y desarrollo ético de tecnología.

Sumate a rootwomen

No necesitás ser experta en IA. Buscamos mujeres curiosas, críticas, con ganas de aprender y cuestionar. Si te interesa entender cómo funcionan los sistemas que están tomando decisiones por nosotras, este es tu lugar.

Quiero Unirme
Built Like We'd Break It

Este sitio fue desarrollado con mentalidad de seguridad ofensiva. ¿Querés ver cómo?