05 de febrero, 2026
Actualidad

Aunque la inteligencia artificial se presenta como una herramienta objetiva, cada vez más evidencia muestra que los algoritmos pueden reproducir prejuicios y profundizar desigualdades. Desde el acceso al crédito hasta la selección de personal, el sesgo algorítmico se vuelve una forma silenciosa de discriminación que afecta especialmente a mujeres y sectores históricamente vulnerados.

En la era de la digitalización masiva, la inteligencia artificial (IA) y los algoritmos se presentan como herramientas capaces de traer eficiencia, objetividad y neutralidad. Pero detrás de esa apariencia técnica, muchas veces se esconden prejuicios que reproducen desigualdades históricas. El sesgo algorítmico es, justamente, ese fenómeno: cuando un sistema informático produce resultados injustos o discriminatorios, favoreciendo a ciertos grupos sobre otros.

Este no es un problema abstracto. Hoy, algoritmos intervienen en decisiones claves: quién accede a un crédito, qué currículums pasan a una entrevista laboral, qué información recibe cada persona o incluso cómo se toman algunas decisiones judiciales y sanitarias. Cuando esas lógicas tecnológicas reproducen desigualdades sociales, aquello que parecía una “solución neutra” se convierte en una nueva fuente de injusticia.

Aunque el debate público suele enfocarse en el potencial técnico o económico de la IA, una pregunta urgente atraviesa todas las discusiones: ¿quiénes diseñan estos sistemas y qué perspectivas están representadas en su construcción?

 

Las causas del sesgo algorítmico son múltiples y, en gran medida, humanas. Entre las más importantes se destacan:

  • Datos de entrenamiento sesgados: si los datos están atravesados por desigualdades históricas o subrepresentaciones, el algoritmo aprenderá esos patrones como reglas válidas.
  • Decisiones de diseño: los desarrolladores eligen qué variables usar, cómo ponderarlas y qué optimizar. Si no se incorpora una mirada de equidad, el sistema nace sesgado.
  • Equipos homogéneos: cuando las personas que crean IA provienen del mismo entorno social o cultural, tienen menos chances de detectar impactos negativos en grupos que no comparten sus experiencias.
  • Opacidad y falta de regulación: muchos modelos funcionan como “cajas negras”, sin claridad sobre cómo ni por qué deciden, lo que dificulta cuestionar decisiones injustas.

 

El sesgo, entonces, no es un error accidental: surge de ignorar que los datos y la técnica también son parte de estructuras sociales de poder.

 

Consecuencias sociales del sesgo algorítmico

El impacto no es menor. Los sesgos algorítmicos pueden generar:

  • Discriminación en procesos de selección laboral: sistemas de filtrado que descartan de manera automática a mujeres o minorías.
  •  Acceso desigual al crédito o servicios: métodos automatizados de evaluación crediticia que penalizan a grupos históricamente vulnerados.
  •  Errores en reconocimiento facial: mayores tasas de fallas en mujeres y personas racializadas, lo que puede derivar en exclusión o incluso violencia institucional.
  • Reproducción de estereotipos culturales: desde asistentes virtuales feminizados hasta algoritmos que refuerzan roles tradicionales.

 

Estos efectos no golpean a todos por igual: afectan con mayor fuerza a quienes ya viven desigualdad estructural.

 

Sesgo algorítmico y brecha de género

Analizar el sesgo algorítmico sin mirar el género es imposible. Las mujeres, en especial aquellas de contextos vulnerables, enfrentan un doble impacto: desigualdades históricas y ausencia en los datos y espacios donde se desarrolla la tecnología.

La brecha digital de género limita el acceso de muchas mujeres a internet o a dispositivos, lo que produce un subregistro de sus experiencias. Según la CEPAL, el 32% de las mujeres latinoamericanas no tiene acceso regular a internet, cifra que asciende al 42% entre las rurales. Cuando los algoritmos se entrenan con datos incompletos, esas realidades quedan directamente invisibilizadas.

A esto se suma la baja participación femenina en áreas STEM y en desarrollo de IA, lo que reduce la posibilidad de que las decisiones de diseño incorporen miradas diversas.

El resultado puede verse en sistemas de reclutamiento, puntajes crediticios o recomendadores automáticos que replican patrones históricos y excluyen perfiles femeninos, aun cuando tienen igual o mayor calificación.

Incluso en lo simbólico, muchos algoritmos refuerzan estereotipos de género, roles de cuidado, subordinación, tareas domésticas, que condicionan cómo la sociedad ve a las mujeres.

Especialistas advierten que, sin incorporar perspectiva de género en el diseño y regulación de la IA, las mujeres, principalmente las pobres, rurales o migrantes,  pueden convertirse en las grandes perdedoras de esta revolución tecnológica.

 

 Hacia una IA equitativa

Construir sistemas más justos es posible, pero implica transformaciones profundas:

  • Ética desde el diseño: integrar equidad, transparencia y justicia como criterios centrales al crear modelos.
  • Auditorías de datos y modelos: revisar quiénes están representados y medir el impacto real del algoritmo.
  •  Equipos diversos e interdisciplinarios: sumar miradas de género, sociología y derechos humanos.
  • Transparencia y regulación: evitar las “cajas negras” y permitir mecanismos para cuestionar decisiones automatizadas.
  • Reducir brechas digitales: garantizar acceso, capacitación y participación activa de mujeres y sectores vulnerados en tecnología.

 Santiago del Estero: esfuerzos locales para cerrar la distancia

En los últimos años surgieron iniciativas que apuntan a reducir la brecha tecnológica y, con ella, la posibilidad de futuros sistemas injustos.

El Instituto Tecnológico de Santiago del Estero (ITSE) se convirtió en una puerta de entrada al software y la ciencia de datos para jóvenes que históricamente quedaron lejos de la formación técnica.

A esto se suman programas del Ministerio de Educación, como las Aulas Taller Móviles, que llevan impresoras 3D, robots, drones y computadoras a distintas escuelas, introduciendo pensamiento computacional desde edades tempranas.

El ecosistema se fortalece con la Escuela de Programación y Robótica, donde niños y adolescentes, muchas de ellas mujeres, aprenden electrónica, IA y robótica a través de proyectos concretos. Son espacios clave para derribar estereotipos de género y abrir el camino a equipos de desarrollo más diversos.

La formación temprana no solo permite que los estudiantes comprendan el funcionamiento de los algoritmos, sino que también abre la puerta a futuros equipos de desarrollo más diversos y conscientes de cómo se construyen los sesgos desde el diseño.

Formar nuevas generaciones capaces de comprender, auditar y cuestionar los algoritmos no es solo una política educativa: es una forma de garantizar que la tecnología no repita desigualdades del pasado, sino que abra oportunidades reales para las juventudes santiagueñas.

Compartir: