Somos una comunidad de mujeres que creemos en el poder de lo colectivo para formarnos y crecer técnica en las áreas más demandadas de la
Inteligencia Artificial y el hacking ético.
estamos contruyendo un futuro donde las tecnologías sean reflejo de un sistema equitativo y diseñado por todas.
Analizamos cómo los sistemas automatizados de toma de decisiones perpetúan y amplifican desigualdades estructurales bajo una falsa sensación de neutralidad matemática.
Identificamos vulnerabilidades mediante adversarial attacks, prompt injection, model extraction y data poisoning. Auditamos backdoors, realizamos fuzzing de modelos y exponemos fallas de seguridad en sistemas de ML/LLM.
Talleres de pentesting en LLMs, prompt injection, model extraction y adversarial ML. Sesiones de análisis de sesgos en datasets, auditoría de pipelines y técnicas de red teaming. Formación práctica con herramientas open source y frameworks como MITRE ATLAS.
Los sistemas de IA se entrenan con datos del mundo real, un mundo marcado por desigualdades históricas. Cuando los sistemas se diseñan sin incluir a las personas que pueden verse afectadas, terminan replicando sesgos y desigualdades preexistentes.
Tecnologías como el reconocimiento facial, los algoritmos de selección laboral o los modelos de evaluación crediticia han mostrado diferencias en su desempeño según grupos y contextos. Estos casos nos invitan a analizar cómo se diseñan, qué datos utilizan y qué efectos pueden generar, para asegurarnos de que la automatización contribuya a decisiones más justas y confiables.
Cuando las mujeres participamos en igualdad en el desarrollo de IA, traemos preguntas diferentes: ¿Para quién es este sistema? ¿Qué relaciones de poder refuerza? ¿A quién beneficia realmente? Estas preguntas cambian todo.
Los sistemas de IA están tomando decisiones que afectan vidas: acceso a servicios públicos, oportunidades laborales, justicia penal. Si no participamos en su diseño, otros decidirán por nosotras.
Estudiamos casos de IA opresiva en América Latina y el mundo. Documentamos sesgos, analizamos vulnerabilidades y compartimos hallazgos. Nuestro mapeo es colaborativo.
Talleres sobre adversarial attacks, fuzzing de modelos, análisis de sesgos, auditoría algorítmica. Aprendemos juntas a desarmar sistemas de IA para entender cómo funcionan realmente.
Creamos frameworks de auditoría, scripts de análisis de sesgo, metodologías de testing. Código abierto, documentación en español, enfoque práctico.
Intercambio de papers, debate de casos, sesiones de pair programming, revisión de código entre pares. Un espacio seguro para preguntar, experimentar y equivocarse.
colabora en actividades como charlas, paneles, talleres, conversatorios o espacios de co-creación vinculados a IA, sesgos algorítmicos, seguridad en ML/LLM y desarrollo ético de tecnología.
No necesitás ser experta en IA. Buscamos mujeres curiosas, críticas, con ganas de aprender y cuestionar. Si te interesa entender cómo funcionan los sistemas que están tomando decisiones por nosotras, este es tu lugar.
Quiero Unirme