En la primera parte de este artículo después de analizar el impacto negativo de los sesgos algorítmicos y cognitivos en la toma de decisiones apoyada por la Inteligencia Artificial (IA) nos planteábamos la pregunta: ¿eliminamos los sesgos o gestionamos sus riesgos? llegando a la conclusión que al ser los sesgos cognitivos inherentes al cerebro humano y al propagarse insertados en los datos es prácticamente imposible pensar que actualmente se pueda hacer desaparecer ambos sesgos de los modelos de IA.
Por ello, ante su impacto en la toma de decisiones en las organizaciones es preciso gestionar sus efectos y en particular la probabilidad de que se produzcan. No se trata solamente de tratar los riesgos asociados a los sesgos sino de evitar decisiones discriminatorias o injustas y prevenir y reaccionar eficazmente procurando asociar los resultados de su gestión con el aprovechamiento de los posibles beneficios que se presenten para los objetivos de las organizaciones.
Con esta visión de gestionar los sesgos no solamente con soluciones técnicas aplicadas a algoritmos, datos o sistemas, sino también con otras orientadas a usuarios y organizaciones, integradas en la estrategia general de estas, el enfoque se desplaza de la imposible erradicación a la mitigación y gobernanza implementando un marco racional y pragmático que añada a las pautas técnicas de la gestión de estos sesgos aspectos regulatorios, éticos y humanos.
En este contexto, entre las diversas prácticas que se utilizan para gestionar y reducir los riesgos derivados de los sesgos de la Inteligencia Artificial he seleccionado las estrategias claves que responden de forma específica a la esencia de dicho marco:
Ética por diseño o desde el diseño: El ADN de una Inteligencia Artificial responsable
En los últimos años muchas tecnologías se han desarrollado en entornos altamente competitivos bajo el conocido mantra de Mark Zuckerberg, «muévete rápido y rompe cosas», enfatizando la importancia en la innovación del progreso rápido y la disrupción aun cuando ello signifique arriesgarse a cometer errores. En el ámbito de la Inteligencia Artificial este enfoque no es aconsejable; cuando un algoritmo comienza a mostrar comportamientos discriminatorios, intentar corregirlo es como tratar de cambiar la estructura de un edificio mientras la gente vive en él: es costoso, ineficiente y, a menudo, provoca fallos en ella.
En este caso lo recomendable es implementar la metodología de la “Ética por diseño” que caracteriza la incorporación sistemática y exhaustiva de principios éticos desde el proceso de diseño, entrenamiento y desarrollo de sistemas y dispositivos de Inteligencia Artificial para asegurar que tanto los datos utilizados como los algoritmos y modelos se conciben desde el primer momento de forma ética y responsable.
Esta estrategia representa la idea de que los principios éticos no sean un añadido o parche que se pone al final sino un requisito funcional de primer orden que se incorpora desde el diseño traduciendo conceptos abstractos como «justicia» o «no discriminación» en parámetros técnicos concretos.
En definitiva, la ética desde el diseño no busca limitar la innovación, sino garantizar la sostenibilidad del modelo. Una IA que nace con principios éticos integrados es una IA más justa, menos propensa a fallos legales y, sobre todo, mucho más confiable socialmente.
Preprocesamiento de datos; selección de datos diversos, representativos, fiables y de calidad
Los datos necesarios para entrenar y utilizar los modelos de Inteligencia Artificial deben seleccionarse y revisarse cuidadosamente para evitar desequilibrios o sesgos en su distribución garantizando que son completos, diversos y representativos de la población a la que se dedicará cada modelo, evitando sobre y sub representación, que reflejen la realidad mas actual del contexto a aplicar y que provengan de fuentes seguras, respetando las regulaciones de protección de datos personales, primando en su selección la calidad sobre la cantidad.
Para ello, antes de utilizar los datos para el entrenamiento se debe llevar a cabo un preprocesamiento que implica evaluarlos, filtrarlos, eliminar errores y problemas y prepararlos para que el algoritmo correspondiente pueda entenderlos y proporcionar resultados justos, fiables y de utilidad.
Explicabilidad y transparencia
Explicabilidad y transparencia son términos de amplia difusión en el ámbito de la Inteligencia Artificial que se utilizan para conocer el «por qué» de las decisiones de un modelo o sistema y el «cómo» de sus operaciones, generando confianza en su fiabilidad y permitiendo a los usuarios comprender y cuestionar sus resultados.
La explicabilidad o interpretabilidad, que caracteriza al derecho a entender o conocer, expresa la capacidad de un modelo de proporcionar razones o justificaciones comprensibles sobre sus decisiones, resultados o comportamiento, centrándose en hacer que sean comprensibles para los usuarios facilitando la supervisión intelectual.
Por su parte, la transparencia se centra en proporcionar información general sobre el sistema, incluyendo los datos utilizados, los algoritmos implementados y los procesos seguidos durante el desarrollo y la implementación, para poder entender como se tomas las decisiones.
La combinación de estas dos estrategias resulta esencial para combatir los sesgos al ayudar a identificar y detectar posibles fuentes de ellos y descubrir los que ha adquirido el sistema o modelo para así poder eliminar aquellos que se consideren perjudiciales.
Regulaciones y principios éticos
tps://eur-lex.europa.eu/eli/reg/2024/1689/oj/engPara hacer frente a los sesgos y también para garantizar que los sistemas de Inteligencia Artificial sean fiables y responsables, estén alineados con los valores sociales, respondiendo a consideraciones éticas, no es suficiente con la autorregulación. La gestión de los sesgos será mas fuerte si responde a directrices y normas legales; es esencial establecer mecanismos que incluyan la observancia de marcos regulatorios y normativa internacional junto con principios éticos que aseguren la transparencia, responsabilidad y equidad en todo el ciclo de vida de sus sistemas y modelos.
Actualmente ya se están desarrollando marcos normativos que reflejan prohibiciones y regulaciones, incluyendo normas éticas para el diseño y uso de una Inteligencia Artificial responsable, como por ejemplo la Ley de IA de la Unión Europea (EU AI Act), los principios recogidos en la Recomendación sobre Inteligencia Artificial de la OECD o la Recomendación sobre la ética de la Inteligencia Artificial de la UNESCO.
Las regulaciones deben incluir estándares de transparencia, no discriminación y supervisión humana, sin olvidar un aspecto primordial como es la protección de derechos fundamentales de las personas frente a sistemas automatizados, incluyendo:
- El derecho a una explicación cuando una decisión afecta significativamente al individuo.
- El derecho a no ser discriminado por decisiones automatizadas.
- El derecho a corregir errores algorítmicos.
Para ello se requiere legislación, pero también mecanismos técnicos y organizativos que los hagan efectivos.
Auditorías periódicas y seguimiento continuo
No es posible asegurar que una Inteligencia Artificial «limpia» de sesgos en su definición y desarrollo permanecerá así para siempre; los patrones sufren la denominada deriva del modelo (model drift): a medida que el mundo cambia, los datos de entrada cambian y el modelo puede empezar a tomar decisiones sesgadas que antes no tomaba.
Por ello, las regulaciones y principios éticos deben complementarse con la realización de auditorías periódicas, internas y externas, en los sistemas de IA para detectar y corregir sesgos emergentes y evaluar las decisiones tomadas por los algoritmos para revelar si aparecen desigualdades o fallos de equidad no deseados y evaluar el impacto real de los modelos.
Los resultados de las auditorías serán fundamentales para identificar y mitigar cualquier sesgo discriminatorio que pueda influir, intencionadamente o no, en la toma decisión.
De igual forma, dado que los sistemas de IA reciben continuamente nuevos datos, los integran y adaptan en su aprendizaje, frecuentemente pueden aparecer sesgos que no existían en el diseño o en los datos originales, es conveniente efectuar, como complemento a las auditorias, seguimientos y comprobaciones periódicas para detectar resultados sesgados que aconsejen tomar medidas correctivas para garantizar que los modelos sigan siendo justos y neutrales.
El factor humano; educación, sensibilización y autonomía
La razón de ser de la gestión de sesgos en la IA no es la búsqueda de la perfección algorítmica sino el control y la responsabilidad humana.
En este contexto una de las principales cuestiones a abordar es la necesidad de concienciar, forma e implicar a todas las partes interesadas en el desarrollo y uso de la inteligencia artificial responsable. Esta concienciación abarca a todos los actores (diseñadores, profesionales y usuarios) a los que es preciso proporcionar los conocimientos necesarios para identificar y evaluar los diferentes tipos de sesgos que pueden manifestarse en los sistemas de IA para apoyar a la toma de decisiones informadas priorizando la equidad y la responsabilidad.
Asimismo es necesario educar a los usuarios sobre las capacidades y limitaciones de la IA particularmente en cuanto a los sesgos cognitivos para evitar la dependencia excesiva, asegurando que sean capaces de evaluar con criterio las recomendaciones que propongan los modelos y puedan diferenciar entre un uso eficaz e ineficaz
Y finalmente la supervisión humana como garantía del uso ético de la Inteligencia Artificial. Si bien la IA puede automatizar muchas tareas, el criterio humano es esencial para validar sus resultados. Aplicar un enfoque en el que los humanos revisen y aprueben las decisiones de la IA puede ayudar a detectar y corregir los resultados sesgados. Este enfoque garantiza que sus sistemas se utilicen como herramientas para aumentar las capacidades en lugar de reemplazar el criterio humano.
Reflexión final
La gestión de sesgos en la Inteligencia Artificial no busca la perfección algorítmica, sino la responsabilidad humana, no es únicamente un problema técnico, sino también ético, social y político. Los sesgos algorítmicos reflejan las imperfecciones del mundo y de quienes lo modelan, mientras que los sesgos cognitivos revelan nuestras limitaciones como seres humanos. Por eso, las soluciones deben ser integrales: mejorar los datos, rediseñar modelos, fomentar la diversidad, asegurar la transparencia, la supervisión, la educación y la sensibilización de quienes diseñan y utilizan estas herramientas y la autonomía y el control humano, encarnan un compromiso con la equidad y la responsabilidad para que los sistemas de IA beneficien a toda la sociedad.
En definitiva es fundamental asegurar que la Inteligencia Artificial incremente nuestras capacidades pero sin perpetuar nuestras injusticias. No podemos eliminar los sesgos técnicos ni los de la condición humana, pero gracias a la técnica, la ley, la ética y la autonomía podemos evitar que gobierne nuestro futuro.
Deja tu comentario