Resulta que las mujeres son más propensas que los hombres a evitar las diversas herramientas de IA que proliferan (o contaminan) nuestro mundo.
Según un metaanálisis de 18 estudios realizado por la Harvard Business School, las mujeres tienen un 22 % menos de probabilidades de usar sitios web y aplicaciones de IA generativa que los hombres, tanto en el trabajo como en la vida cotidiana. Y este patrón se mantiene en todos los países, sectores, ocupaciones y herramientas. Entre 2022 y 2024, las mujeres representaron aproximadamente el 42 % de los usuarios globales de los sitios web ChatGPT y Perplexity, y solo el 31 % de los de Anthropic. En los teléfonos inteligentes, la brecha se amplía aún más: solo el 27 % de las descargas de la aplicación ChatGPT provienen de mujeres.
La explicación más común es que las mujeres comprenden menos esta nueva tecnología, principalmente porque trabajan en puestos con menor exposición a ella. Después de todo, las mujeres siguen siendo minoría en las carreras y titulaciones STEM, incluyendo los puestos específicos de IA. Lo mismo ocurre en el liderazgo de la IA: las mujeres ocupan menos del 14 % de los puestos ejecutivos de alto nivel en el sector. Pero el estudio de Harvard también reveló que la brecha en el uso persiste incluso cuando se les brindan oportunidades explícitas para aprender y utilizar herramientas de IA.
Las causas profundas de esta brecha no se reducen a que las mujeres tengan menos interés en la tecnología o carezcan de exposición o formación.
Pero tampoco deberían ser difíciles de identificar.
Para mí, y supongo que para muchas otras mujeres, la primera vez que oí hablar de IA (más allá de la ciencia ficción) fue a través de noticias sobre imágenes y vídeos generados por IA, no consensuales y sexualmente explícitos, conocidos como «deepfakes». Esto fue alrededor de 2018 o 2019, cuando ya llevaban circulando uno o dos años.
Y, para sorpresa de ninguna mujer con un mínimo de conocimiento del mundo en que vivimos, estos deepfakes de IA se dirigían mayoritariamente a mujeres y niñas.
A finales de 2020, circulaban en línea más de 85.000 vídeos deepfake, el 95% de ellos de naturaleza sexual y el 90% protagonizados por mujeres. A finales de 2022, existían miles de herramientas de creación de deepfake de fácil acceso, descargadas por millones de personas en todo el mundo. Hoy en día, incluso algunas plataformas de redes sociales, como el Twitter zombi de Elon Musk, también conocido como X (antes de forma masiva; ahora para los que pagan), pueden utilizarse para producir imágenes íntimas no consensuales de celebridades e influencers femeninas. Ver: Las Redes Sociales: Panorama General, Compromiso, FOMO y Valor Real.
Políticas, legisladoras, periodistas y otras mujeres en el ojo público también son víctimas habituales. Como ejemplo, en Estados Unidos, aproximadamente una de cada seis congresistas ya había sido víctima a fines del año pasado.
Pero no se trata solo de figuras públicas. Diversas herramientas de IA también se utilizan como armas contra mujeres y niñas comunes. Algunas están diseñadas explícitamente para «desnudar» a las mujeres, como anuncian descaradamente sus creadores. Otros sistemas se utilizan para identificar contenido vulnerable o «controvertido» en las publicaciones de mujeres en redes sociales —como hablar sobre acoso sexual o denunciar la misoginia— y luego automatizar campañas de acoso.
Y por si las prácticas misóginas de la industria de la IA no fueran suficientes, también existe el problema del sesgo de género inherente, debido a los conjuntos de datos sesgados, sin filtrar y a menudo poco éticos con los que se entrenan estos modelos.
Las herramientas de IA utilizadas en la selección de personal, por ejemplo, tienden a recomendar a hombres sobre mujeres, especialmente para puestos mejor remunerados, incluso cuando las cualificaciones son idénticas:
¿Quién recibe la llamada de vuelta? IA generativa y sesgo de género: La inteligencia artificial generativa (IA), en particular los modelos de lenguaje a gran escala (MLE), se está implementando rápidamente en el reclutamiento y la preselección de candidatos. Analizamos varios MLE de código abierto de tamaño mediano para detectar sesgos de género utilizando un conjunto de datos de 332.044 ofertas de empleo reales en línea. Para cada oferta, solicitamos al modelo que recomiende si un candidato masculino o femenino con igual cualificación debería recibir una llamada para la entrevista. Descubrimos que la mayoría de los modelos tienden a favorecer a los hombres, especialmente para puestos mejor remunerados.
-Sugat y Rochana Chaturvedi
Mientras tanto, se ha descubierto que los chatbots de IA como ChatGPT aconsejan a las mujeres que soliciten salarios significativamente más bajos que los hombres con los mismos currículos.
En los sectores de la salud y la asistencia pública, los sistemas de IA tienden a minimizar las necesidades de las mujeres y tienen más probabilidades de pasar por alto enfermedades en mujeres que en hombres. Incluso en el ámbito de la justicia penal, herramientas como el sistema estadounidense COMPAS han mostrado sesgo contra las mujeres, sobreestimando su riesgo de reincidencia. El sesgo racial también se infiltra con frecuencia en muchas de ellas.
… muchas veces tendemos a centrarnos en el síntoma (el sesgo) en vez de en la causa (los patrones subyacentes que dan lugar a ese sesgo). Es cierto que existen muchos casos donde el sesgo de género es evidente, pero antes de llegar a la conclusión de que el sesgo proviene de la variable género, hay que considerar la posibilidad de que también pueda tratarse de una correlación espuria. Porque las soluciones son diferentes.
– Blanca
Las herramientas de IA generativa disponibles públicamente —¡sorpresa!— no son mejores. Al pedirles que representen a una secretaria o una enfermera, suelen generar mujeres, pero al pedirles que representen a un gerente, un médico o un profesor, suelen generar hombres. Además, las mujeres suelen ser representadas como mucho más jóvenes que los hombres en todas las profesiones y roles sociales. En algunos casos, el resultado de la IA ni siquiera refleja con precisión las desigualdades del mundo real, sino que las amplifica. Ver también: ¿Por qué la desigualdad en el trabajo no es tan arbitraria?
Todo esto, a su vez, puede reforzar los patrones discriminatorios ya presentes en nuestra sociedad, lo que conduce a una mayor desigualdad, no a una menor.
Como afirma Laura Bates, escritora y fundadora del Everyday Sexism Project:
Esto está afectando a las mujeres y otros grupos marginados de maneras muy reales, desde la aprobación de un préstamo bancario hasta la posibilidad de ser consideradas para un trabajo o incluso recibir el diagnóstico correcto para un problema de salud grave. Y a menos que exijamos rendición de cuentas ahora, existe el riesgo de que la IA nos haga retroceder, ya que la desigualdad actual quedará plasmada en los cimientos del mundo futuro.
A las empresas tecnológicas les encanta prometer un mundo nuevo y brillante en el que la IA mejora prácticamente todos los aspectos de nuestras vidas, pero las mujeres se ven obligadas a ver las grietas que atraviesan esa fantasía tecno-optimista. Y no solemos ignorarlas una vez que lo hacemos.
Ver: Cómo la Inteligencia Artificial está Redefiniendo el Futuro de la Consultoría.
A menudo se tacha a las mujeres de “excesivamente cautelosas”, sobre todo en los negocios o las inversiones. Pero, además de que las investigaciones demuestran sistemáticamente que las mujeres superan a los hombres en las inversiones —lo que significa que, hagamos lo que hagamos, o dejemos de hacer, no es necesariamente “demasiado” cauteloso, sino justo lo necesario—, también se demuestra que las mujeres no son necesariamente más reacias al riesgo. Lo cierto es que tienden a tomar decisiones de forma diferente.
En las inversiones, por ejemplo, las mujeres tienen una visión más a largo plazo, son menos impulsivas y se centran más en el crecimiento constante. También es más probable que alineen sus decisiones con sus valores, priorizando la sostenibilidad y el bien común. Y esto se observa también en otros ámbitos, como el laboral y el político.
En lo que respecta a la IA, el enfoque de las mujeres no parece ser diferente. Las mujeres manifiestan actitudes más negativas hacia la IA que los hombres, principalmente porque anticipan que sus perjuicios podrían eclipsar los beneficios. Las preocupaciones sobre transparencia, seguridad, privacidad de datos, equidad, inclusión, sostenibilidad y bienestar colectivo pesan más en las mujeres, incluidas aquellas que trabajan en el sector tecnológico. No es de extrañar que fueran dos mujeres negras, Joy Buolamwini y Timnit Gebru, quienes alertaron por primera vez sobre el sesgo racial y de género en el software de análisis facial con IA.
Entre los adolescentes, esta brecha también existe. En una encuesta reciente, el 71 % de las chicas adolescentes expresó su preocupación por que la IA reforzara el sesgo de género, y el 70 % relacionó los algoritmos de recomendación de IA con problemas de salud mental. La mayoría de los chicos, en cambio, creía que la IA ayudaría a crear más empleos y estaba mucho menos preocupada por su impacto social. Sus intereses también divergían: las chicas se sentían atraídas por la ética y las políticas; los chicos, por el desarrollo de la IA y la robótica.
Aun así, sabemos que las inquietudes de las mujeres sobre la IA están bien fundadas (como debería quedar tristemente claro en la primera parte de esta sección). E incluso cuando las mujeres usan la IA, pueden terminar pagando un precio más alto por ello que los hombres.
Por supuesto, la escasa representación femenina en el desarrollo y el liderazgo de la IA también forma parte del problema. No se puede afirmar que se está creando una tecnología «revolucionaria» e «igualitaria» cuando quienes la diseñan y gestionan representan solo una pequeña fracción de ella. En cambio, se obtiene una tecnología destinada a reproducir las mismas desigualdades y jerarquías que originaron esta situación.



Aristóteles, creador de la lógica formal, diría que mujeres y lógica son «mutuamente excluyentes». Pero «El filósofo» era un poco machista, a pesar de ser el «padre de la lógica» y el «primer científico». Ya sé que se equivocó mucho. No conocía ni el cero ni el álgebra. Pero identificó los principios fundamentales del pensamiento. Identidad, no contradicción y tercero excluido. Aunque no lo parezca, las IA son imposibles sin eso.
En resumen. Pienso que no la usan porque no les gusta la lógica ni el pensamiento racional. Quizás hay motivos biológicos en eso, ya que parece ser independiente de la cultura.
Siendo justos. A la mayoría de la humanidad no le gusta la lógica. Requiere concentración y disciplina. Y humildad, para reconocer que te equivocaste. Obviamente, tampoco la mayoría de los hombres son buenos en ella.
Solo una minoría usa las IA. La minoría racional de la humanidad. Esa minoría está compuesta mayoritariamente por hombres.
¿El resto? Esclavos de sus impulsos. De su sistema límbico. No ven utilidad en usarla porque no la entienden ni aprecian. Para ellos, el córtex es un lujo innecesario.
Somos diversos, ¿no? Algunos son mejores jugando al fútbol que otros. Otros, mejores usando IA. Que eso pase es bueno, ya que la diversidad nos fortalece.
El problema, en realidad, no existe. Mejor nos vamos a dormir que es tarde.