13 marzo 2025
Campus Bilbao
Lucía Vicente Holgado ha sido distinguida con el Premio Extraordinario Ignacio Ellacuría a la mejor tesis doctoral 2024 por “Herencia del sesgo: Influencia de los sesgos de la inteligencia artificial en las decisiones humanas”, un trabajo dirigido por Helena Matute, dentro del programa de doctorado en Psicología.
La inteligencia artificial aprende de los humanos. Sin embargo, hasta ahora ninguna investigación había estudiado de manera empírica si los humanos también pueden adquirir un aprendizaje a través de su interacción con la inteligencia artificial. Dada la creciente presencia de esta tecnología en diversos ámbitos profesionales y domésticos, las oportunidades de transmisión de conocimientos, creencias y comportamientos en las interacciones humano-máquina se multiplican.
Esta tesis es una de las primeras investigaciones que ha tenido como objetivo examinar el potencial de las personas para adquirir un aprendizaje tras un periodo de interacción con una IA. Y, en concreto, se ha focalizado en explorar un potencial riesgo que se oculta en este fenómeno: “las personas pueden adquirir sesgos en su interacción con la inteligencia artificial”.
Las herramientas de inteligencia artificial demuestran una habilidad y precisión que supera a la de los humanos en numerosas tareas. Por este motivo, la implementación de esta tecnología en áreas profesionales va en aumento, bajo la premisa de que la colaboración entre la inteligencia humana y artificial obtendrá mejores resultados de los que podría lograr cada agente trabajando por separado. Siguiendo este enfoque sinérgico de potenciación y mejora mutua se espera una disminución del riesgo de error en los procesos de toma de decisiones de las personas asistidas por una IA.
En la práctica, esto significa que cada vez más decisiones críticas, en áreas como la medicina, la justicia o los recursos humanos, son tomadas por equipos formados por un humano y una IA. Sin embargo, la inteligencia artificial no es infalible; también puede estar sesgada y cometer errores. Esta investigación define sesgo como un error sistemático, un error que ocurre siempre en una misma dirección y es predecible.
La inteligencia artificial aprende de datos que son un registro histórico de decisiones humanas pasadas. Por lo tanto, la IA aprende de los humanos y asimila sus sesgos, lo que implica que, al igual que ellos, puede errar en sus recomendaciones. Investigaciones previas han demostrado la capacidad de esta tecnología para influir en las decisiones de las personas. De hecho, diversos estudios han observado que las personas tienden a mostrar una confianza excesiva en la IA, aceptando de forma acrítica su consejo. Estas evidencias cuestionan la capacidad de las personas para supervisar la IA de forma efectiva y contrarrestar sus decisiones erróneas o sesgadas.
Una IA sesgada podría, por lo tanto, sesgar a su vez las decisiones de los humanos que se dejan aconsejar por la máquina. De este fenómeno puede derivarse una grave consecuencia: “después de interactuar durante un tiempo prolongado con una IA sesgada, las personas podrían acabar reproduciendo dicho sesgo en sus decisiones futuras, incluso tiempo después de finalizar su colaboración con el sistema. Si existe el riesgo de una transmisión de sesgos de la IA a las personas, sería necesario descubrir qué estrategias podrían atenuar este La tesis doctoral premiada trata de dar respuesta a estas dos cuestiones fundamentales.