Los algoritmos no son neutrales
Los sistemas de IA se entrenan con datos del mundo real, un mundo
marcado por desigualdades históricas. Cuando los sistemas se diseñan
sin incluir a las personas que pueden verse afectadas, terminan replicando sesgos
y desigualdades preexistentes.
La IA magnifica desigualdades
Tecnologías como el reconocimiento facial, los algoritmos de selección laboral
o los modelos de evaluación crediticia han mostrado diferencias en su desempeño
según grupos y contextos. Estos casos nos invitan a analizar cómo se diseñan,
qué datos utilizan y qué efectos pueden generar, para asegurarnos de que la automatización
contribuya a decisiones más justas y confiables.
Necesitamos otras perspectivas
Cuando las mujeres participamos en igualdad en el desarrollo de IA,
traemos preguntas diferentes: ¿Para quién es este sistema? ¿Qué
relaciones de poder refuerza? ¿A quién beneficia realmente?
Estas preguntas cambian todo.
El futuro se decide ahora
Los sistemas de IA están tomando decisiones que afectan vidas:
acceso a servicios públicos, oportunidades laborales, justicia penal.
Si no participamos en su diseño, otros decidirán por nosotras.
América Latina necesita una voz propia en IA
La inteligencia artificial se entrena con datos que expresan culturas, lenguajes y estructuras sociales concretas.
Cuando nuestras realidades no participan activamente en ese proceso, los sistemas carecen de profundidad contextual
y reducen la complejidad de la región.
Formar mujeres latinoamericanas para investigar, desarrollar y auditar modelos desde la región es una apuesta
estratégica a que América Latina se posicione en el desarrollo de tecnologías de IA con una voz propia: técnica,
crítica y productiva. Una voz que contribuye al diseño de modelos, define estándares y produce conocimiento situado.
Las decisiones que se tomen hoy determinarán quién diseñará los sistemas que utilizarán las próximas generaciones
y desde qué mirada se estructurará esa inteligencia.