La inteligencia artificial no es neutral.
La diversidad de pensamiento y experiencia es crucial para construir tecnologías justas, éticas e inclusivas.

Somos una comunidad de mujeres que creemos en el poder de lo colectivo para formarnos y crecer técnica en las áreas más demandadas de la Inteligencia Artificial y el hacking ético.
estamos contruyendo un futuro donde las tecnologías sean reflejo de un sistema equitativo y diseñado por todas.

Sumate a la Comunidad

¿Qué es rootwoman?

🔍

Investigamos

Analizamos cómo los sistemas automatizados de toma de decisiones perpetúan y amplifican desigualdades estructurales bajo una falsa sensación de neutralidad matemática.

Hacking Ético en IA

Identificamos vulnerabilidades mediante adversarial attacks, prompt injection, model extraction y data poisoning. Auditamos backdoors, realizamos fuzzing de modelos y exponemos fallas de seguridad en sistemas de ML/LLM.

🛠️

Capacitación Técnica

Talleres de pentesting en LLMs, prompt injection, model extraction y adversarial ML. Sesiones de análisis de sesgos en datasets, auditoría de pipelines y técnicas de red teaming. Formación práctica con herramientas open source y frameworks como MITRE ATLAS.

¿Por qué importa quién construye la IA?

Los algoritmos no son neutrales

Los sistemas de IA se entrenan con datos del mundo real, un mundo marcado por desigualdades históricas. Cuando los sistemas se diseñan sin incluir a las personas que pueden verse afectadas, terminan replicando sesgos y desigualdades preexistentes.

La IA magnifica desigualdades

Tecnologías como el reconocimiento facial, los algoritmos de selección laboral o los modelos de evaluación crediticia han mostrado diferencias en su desempeño según grupos y contextos. Estos casos nos invitan a analizar cómo se diseñan, qué datos utilizan y qué efectos pueden generar, para asegurarnos de que la automatización contribuya a decisiones más justas y confiables.

Necesitamos otras perspectivas

Cuando las mujeres participamos en igualdad en el desarrollo de IA, traemos preguntas diferentes: ¿Para quién es este sistema? ¿Qué relaciones de poder refuerza? ¿A quién beneficia realmente? Estas preguntas cambian todo.

El futuro se decide ahora

Los sistemas de IA están tomando decisiones que afectan vidas: acceso a servicios públicos, oportunidades laborales, justicia penal. Si no participamos en su diseño, otros decidirán por nosotras.

¿Qué hacemos en rootwoman?

Investigación Colectiva

Estudiamos casos de IA opresiva en América Latina y el mundo. Documentamos sesgos, analizamos vulnerabilidades y compartimos hallazgos. Nuestro mapeo es colaborativo.

Formación Continua

Talleres sobre adversarial attacks, fuzzing de modelos, análisis de sesgos, auditoría algorítmica. Aprendemos juntas a desarmar sistemas de IA para entender cómo funcionan realmente.

Desarrollo de Herramientas

Creamos frameworks de auditoría, scripts de análisis de sesgo, metodologías de testing. Código abierto, documentación en español, enfoque práctico.

Comunidad Activa

Intercambio de papers, debate de casos, sesiones de pair programming, revisión de código entre pares. Un espacio seguro para preguntar, experimentar y equivocarse.

¿Querés que participemos en tu evento?

colabora en actividades como charlas, paneles, talleres, conversatorios o espacios de co-creación vinculados a IA, sesgos algorítmicos, seguridad en ML/LLM y desarrollo ético de tecnología.

Sumate a rootwoman

No necesitás ser experta en IA. Buscamos mujeres curiosas, críticas, con ganas de aprender y cuestionar. Si te interesa entender cómo funcionan los sistemas que están tomando decisiones por nosotras, este es tu lugar.

Quiero Unirme