Madrid, 26 de agosto de 2025
Victor Nieto González
Instituto de Inteligencia Artificial del ámbito Social, IIAS

En el último año, la llegada de la Inteligencia Artificial (IA) ha transformado de manera muy rápida nuestra sociedad, reflejando tanto oportunidades como desafíos. Uno de estos desafíos y problema al que nos enfrentamos son los sesgos inherentes a los datos con lo que se entrena la IA, replicando desigualdades presentes en nuestra sociedad. Herramientas como COMPAS, que muestran sesgos raciales en decisiones judiciales, o de análisis de curriculum con sesgos machistas, necesitan de una mirada social. Por ello, es importante que el Trabajo Social pueda hacer que la IA se sume a los principios de justicia e igualdad que promueve la disciplina y exigiendo un uso ético y responsable tanto a creadores/as, como a usuarios/as.
Desde el lanzamiento de ChatGPT 3.5 de OpenIA, en 2022, la invasión de la Inteligencia Artificial (IA) en nuestro día a día ha sido como un tsunami. Aunque debemos tener en cuenta que la IA es algo más antiguo de lo que nos imaginamos. En la mitología griega surgió la figura de Talos, un gigante de bronce creado por Hefesto; Aristóteles introdujo la idea del syllogism, una manera del razonamiento deductivo que se podría considerar como un algoritmo en su forma más temprana. En definitiva, el ser humano siempre ha tenido un interés por esa unión entre la máquina y las personas.
Aunque algunos consideran que uno de los fundadores de la IA fue Alan Turing (1912-1954), no debéis olvidaros de que nada de esto sería sin la figura de una mujer: Ada Lovelace (1815-1852), considerada la primera programadora de la historia. Pero no fue hasta 1957, cuando John McCarthy (1927-2011) acuñó el término “inteligencia artificial” en la conferencia Dartmouth.
Esta tecnología también ha llegado al ámbito social. En nuestro país ya conocemos prácticas donde se está utilizando la IA con herramientas de Chatbot para comunicarse con la ciudadanía, o bien para poder determinar las necesidades que tendrá la ciudadanía y así poder calcular los presupuestos necesarios en Servicios Sociales.
En este sentido, no solo encontramos ejemplos prácticos en el ámbito público, sino también en el privado. Las empresas y entidades privadas (asociaciones, ONG, etc) están apostando por utilizar la IA en sus procesos, automatizando proyectos para así poder aumentar su eficacia.
Aunque el objetivo de la IA es facilitarnos el trabajo y potenciarlo, también existe un lado “oscuro”. Es por ello, que el Trabajo Social necesita estar presente en este paradigma de la IA, como profesión que se centra en la justicia social y en la igualdad de las personas.
En los últimos meses hemos podido observar cómo algunas herramientas de IA tienen sesgos, los cuales desfavorecen a los grupos más vulnerables. Los sesgos en los sistemas de IA pueden tener consecuencias significativas, como reproducir y amplificar patrones discriminatorios existentes, tomar decisiones perjudiciales para ciertos grupos y perpetuar las desigualdades (Nazer et al., 2023).
En este artículo podrás entender de manera muy sencilla qué es la IA, conocer ejemplos y proyectos donde la IA tiene sesgos y cómo desde el Trabajo Social podemos trabajar para disminuirlos y poder tener una IA más justa e igualitaria.
Sin querer ser muy detallista y con el objetivo de facilitar la compresión, en los siguientes párrafos explicaremos de forma sencilla qué es la IA, cómo funciona y así poder entender cómo se producen los sesgos.
La primera pregunta que debemos hacernos es ¿qué es la Inteligencia Artificial? Explicado de modo sencillo, podríamos decir que es cuando las máquinas aprenden y realizan tareas que anteriormente eran realizadas por personas: tomar decisiones, reconocer patrones, comprender el lenguaje natural o la resolución de problemas complejos. Es decir, cuando una máquina puede ser programada para imitar la inteligencia humana. Para que esto suceda es necesario que la máquina se “alimente” de datos, datos que son recibidos, analizados y devueltos por el algoritmo. Los datos son la gasolina del algoritmo.
La parte importante de los algoritmos con la IA, es que gracias al aprendizaje automático (Machine Learning), la máquina es capaz de identificar patrones y tomar decisiones basadas en los datos. Como veíamos anteriormente, para que la IA funcione necesita que el algoritmo se alimente de meta datos (Big Data), y aquí es donde está la clave principal de los sesgos. Esos datos son introducidos y “manipulados” por las personas, las personas por sí mismas tenemos sesgos en nuestro día a día; y estos sesgos, son trasladados a los datos. Por lo tanto, los sesgos que tiene la IA son una réplica de los sesgos de las personas en el mundo offline.
La investigadora del ámbito de la IA, Kate Crawford, entiende a los algoritmos como “incrustaciones materializadas de prioridades, normas y valores”, es decir, que no solo procesan datos, sino que están modelados por el contexto de las personas. Al final son un espejo de la sociedad.
Llegados a este punto las preguntas que deberíamos hacernos son: ¿Quién tiene la responsabilidad cuando la IA comete un error? ¿Qué garantías tiene la IA si se basa en los valores de las personas?
Hoy en día existen numerosos ejemplos donde distintas herramientas de IA contienen un elevado índice de sesgos. A continuación, descubriremos algunas de ellas por su alta repercusión, pero, sobre todo, porque la vida de las personas pueden depender de su algoritmo.
El primer ejemplo lo vemos en el ámbito de la justicia. En EEUU existe una herramienta llamada COMPAS, esta herramienta ayuda a los y las jueces a determinar si una persona debe continuar en prisión, o, por lo contrario, puede quedar en libertad. Según ‘Techonology Review‘, esta herramienta tiene un sesgo racial hacia los acusados afroamericanos y/o latinos.
Otro caso con una alta carga de sesgo racial y de edad, es la referente a los coches automáticos. En octubre del 2024 Elon Musk presentó el taxi del futuro: un vehículo capaz de transportar a viajeros/as de un punto “A” hasta un punto “B” sin necesidad de conductor/a. A priori, puede ser algo positivo. Imaginémonos aquellas zonas rurales donde no pasa el transporte escolar, porque hay un bajo número de niños/as y no es “rentable” en términos económicos contratar a una persona para llevar un autobús. En este caso, un taxi automático facilitaría esa comunicación y transporte.
El problema se encuentra en los sesgos. Según el estudio realizado por la Universidad de Beijing, el King’s College y la University College de Londres, los coches automáticos son un 7.5% más precisos con los peatones de piel clara que con los de piel oscura.
Además, otra pregunta que podríamos hacernos es: si un coche autónomo atropella a un peatón, ¿quién es responsable el fabricante, el/la programador/a del algoritmo o quién lo ha comprado? Una cuestión que aún no tiene respuesta jurídica clara.
Otro conocido caso es el de Amazon, que utilizó un algoritmo de IA que discriminaba contra las mujeres al priorizar los curriculum de los hombres. Nuestra labor, en este sentido, sería modificar estos algoritmos con enfoque de igualdad de género y la inclusión de variables que garanticen la equidad en la selección.
Un algoritmo que nos afecta a la mayoría de las personas es el que tienen plataformas como YouTube o Spotify que pueden recomendar contenido que refuerza estereotipos o ideologías sesgadas.
Siguiendo con los ejemplos, veamos otro que nos puede resultar más próximo a la profesión. En el ámbito sanitario ya existen algoritmos capaces de diagnosticar enfermedades (y no queda mucho que también suceda en el ámbito social), y en este caso si hay un tratamiento erróneo ¿quién tiene la responsabilidad? ¿El algoritmo o el/la profesional que no ha supervisado y corroborado los resultados?
Ante estas cuestiones hay un debate filosófico muy amplio. Daniel C. Dennett sostiene que es fundamental establecer el grado de responsabilidad que puede llegar a tener la máquina, y entiende, que no se le puede atribuir a las máquinas la misma responsabilidad moral que a las personas, y que por supuesto, no debe eximir ni a sus creadores/as ni a los/as usuarios/as de la responsabilidad ética.
Según Wendell Wallach “al confíar demasiado en las máquinas, corremos el riesgo de deshumanizar el cuidado de la salud y de perder la intuición y el juicio experto que solo puede provenir de la experiencia humana”; partiendo de esta idea, es aquí donde consideramos que el Trabajo Social juega un papel fundamental.
Para concluir con los ejemplos, y poniendo énfasis en delimitar la desigualdad económica de la sociedad, nos encontramos con los algoritmos utilizados en bancos para evaluar solicitudes de préstamos, los cuales, están desfavoreciendo a ciertos colectivos ya vulnerables entre sí. Desde nuestra disciplina, deberíamos ser capaces de asegurar que los criterios de evaluación no incluyan variables que perpetúen su discriminación.
Mirar hacia otro lado es, desde nuestro punto de vista, un acto de irresponsabilidad. La IA ha llegado para quedarse, y es por ello por lo que debemos abanderar la parte ética y de justicia de su uso.
El Trabajo Social se caracteriza por luchar por la justicia social, y por trabajar en beneficio de una igualdad de oportunidades. En este sentido, como profesionales debemos empezar a formar parte de las empresas de IA y de sus comités éticos, capaces de plasmar nuestro conocimiento y visión a sus proyectos. Debemos revisar esos algoritmos plagados de sesgos y prejuicios para que se puedan ofrecer una herramienta más neutral. Siguiendo las recomendaciones incluidas por Loi et al. (2021, pa.2), se tienen que analizar los riesgos de una sistema de IA caso a caso, no de forma generalizada, y de forma transparente con el fin de no vulnerar principios éticos, tal y como plantea la autora, aunque la transparencia no erradica los riesgos éticos de sistemas de inteligencia artificial, sí es un requisito para tal fin.
Es importante que aprendamos más sobre la IA para ser capaces de entenderla y comprenderla, solo así, seremos capaces de poder prevenir y actuar. Pero, sobre todo, la manera más eficiente de disminuir los sesgos es el autoconocimiento, ¿qué sesgos tengo yo como persona? ¿cuándo me comunico con la IA, plasmo los sesgos? ¿Corrijo a la IA cuando detecto un sesgo?
Los sesgos en IA suelen originarse en datos de entrenamiento incompletos o desbalanceados. Para reducirlos, es fundamental asegurarse de que los conjuntos de datos incluyan diversidad en términos de género, etnia, edad, condición socioeconómica y otras variables.
Es crucial realizar auditorías de equidad con métricas específicas (como paridad de resultados o impacto dispar) para identificar posibles sesgos en los modelos antes de su implementación.
Los equipos de desarrollo, donde debe haber profesionales del Trabajo Social, deben realizar evaluaciones éticas periódicas, considerando los impactos negativos que pueden generar los sistemas automatizados en poblaciones vulnerables.
Bibliografía
Instituto Tecnológico de Massachusetts (MIT). Caso práctico: probamos por qué un algoritmo judicial justo es imposible. (2021, noviembre, 11). Techonology Review, de https://www.technologyreview.es/s/13800/caso-practico-probamos-por-que-un-algoritmo-judicial-justo-es-imposible
Flores Anarte, L. (2023). Sesgos de género en la Inteligencia Artificial: El Estado de derecho frente a la discriminación algorítmica por razón de sexo. Revista Internacional De Pensamiento Político, 18(18), 95–120. https://doi.org/10.46661/rev.int.pensampolit.8778
Hormann, V., Ria, P., Jurafsky D., King S. (2024) Dialect prejudice predicts AI decisions about people’s character, employability, and criminality
IA para periodistas: una herramienta por exportar. (2023, febrero). Prodigioso Volcán.
Loi, M., Mätzener, A., Müller, A. y Spielkamp, M. (2021). Automated Decision-Making Systems in the Public Sector. An Impact Assessment Tool for Public Authorities. Algorithm Watch. https://algorithmwatch.ch/en/adms-impact-assessment-public-sector-algorithmwatch/
Martín, P., (2024). Inteligencia Artificial, tecnología del futuro. Madrid: Libsa
Nazer LH, Zatarah R, Waldrip S, Ke JXC, Moukheiber M, Khanna AK, Hicklen RS, Moukheiber L, Moukheiber D, Ma H, Mathur P. Bias in artificial intelligence algorithms and recommendations for mitigation. PLOS Digit Health. 2023 Jun 22;2(6):e0000278. doi: 10.1371/journal.pdig.0000278. PMID: 37347721; PMCID: PMC10287014.
Norvig, P; Russell, S, (2010). Inteligencia artificial: un enfoque moderno. Madrid: Pearson Educación
Vicente, L., Matute, H. Humans inherit artificial intelligence biases. Sci Rep 13, 15737 (2023). https://doi.org/10.1038/s41598-023-42384-8
Xinyue Li, Zhenpeng Chen, Jie M. Zhang, Federica Sarro, Ying Zhang, and Xuanzhe Liu. 2024. Bias Behind the Wheel: Fairness Testing of Autonomous Driving Systems. ACM Trans. Softw. Eng. Methodol. 1, 1, Article 1 (July 2024), 24 pages, de https://arxiv.org/pdf/2308.02935