La irrupción explosiva de la Inteligencia Artificial generativa, con su capacidad de utilizar datos y algoritmos avanzados para crear contenido de todo tipo, ha supuesto el impulso definitivo para que estas tecnologías disruptivas multidisciplinares, que caracterizan uno de los avances tecnológicos más significativos de nuestro tiempo, se conviertan en parte integral de nuestra forma de vivir, relacionarnos, trabajar, aprender, crear, etc., impactando en todos los ámbitos y dando origen a importantes transformaciones sociales y cambios de paradigma en numerosos sectores de la moderna sociedad digital.

Una de estas transformaciones afecta a la forma en que se toman las decisiones en el seno de las organizaciones de todo tipo y sector (económicos, sociales, seguridad y defensa, administraciones públicas, etc.) que, apoyadas por herramientas de Inteligencia Artificial combinada con la experiencia, intuición y juicio humanos, permiten a los decisores actuar con mayor rapidez obteniendo resultados más precisos, coherentes y eficientes, basados en datos diversificados y actualizados, reaccionando así de forma más ágil a las dinámicas de los modernos escenarios en constante evolución.

Para conseguir tales resultados la Inteligencia Artificial brinda sus capacidades basadas principalmente en algoritmos de aprendizaje automático, procesamiento del lenguaje natural y modelos de aprendizaje profundo, apoyadas en el aumento exponencial de las capacidades de procesamiento y almacenamiento de datos, para procesar y analizar de forma escalable y en tiempos cada vez más cortos grandes conjuntos de datos complejos, identificar patrones, tendencias, hacer predicciones y diagnósticos y generar contenido.

Sin embargo, a pesar de sus múltiples ventajas, la adopción de la Inteligencia Artificial en apoyo a los procesos de toma de decisiones presenta también importantes desafíos, tanto técnicos, entre ellos la necesidad de comprender, no solamente entender, sus tecnologías y el impacto en la cultura organizacional, como regulatorios, donde destaca el cumplimiento de la Ley Europea de IA, y por supuesto éticos, en materia de transparencia, responsabilidad, privacidad o autonomía, demandando una reflexión profunda sobre su utilización responsable.

Estos desafíos implican múltiples riesgos, algunos más fáciles de identificar, como los ya caracterizados en la mencionada Ley Europea, pero otros menos conocidos son también de gran importancia por su impacto en la toma de decisiones, como es el caso de los sesgos, es decir los errores sistemáticos y repetibles que pueden conducir a decisiones equivocadas, erróneas, parciales o incluso injustas, que se manifiestan tanto en los algoritmos como en las relaciones humano/máquina, a los que dedicaré los siguientes apartados.

Sesgos algorítmicos

En el universo de la Inteligencia Artificial nos referimos a los sesgos algorítmicos como las distorsiones sistémicas causadas en los algoritmos por sesgos humanos que provocan que tiendan a tratar situaciones o a individuos de forma diferente e inconsistente, a modo de discriminación tecnológica, proporcionando resultados sesgados, injustos o perjudiciales, con capacidad para influir en la toma de decisiones.

¿Cómo aparecen o se introducen en los algoritmos estas distorsiones? Recordemos que los algoritmos de la Inteligencia Artificial son un conjunto de reglas y procesos que utilizan las máquinas para realizar tareas y resolver problemas que normalmente requieren inteligencia humana, utilizando grandes cantidades de datos y capacidad de procesamiento para aprender, tomar decisiones y resolver problemas.

Pero a diferencia de los programas informáticos tradicionales, que se limitan a seguir las instrucciones del código, los algoritmos deben ser alimentados con datos y entrenados para trabajar con ellos, aprender y posteriormente transformarlos en resultados de valor añadido, como detección de patrones o tendencias.

Según van recibiendo más datos los algoritmos se van ajustando (aprendiendo) con o sin supervisión humana, según el tipo de modelo, de forma que gradualmente la máquina será capaz de llevar a cabo tareas cada vez más precisas, de manera más eficaz y con capacidad de adaptarse a nuevas situaciones a lo largo del tiempo.

En consecuencia, al producirse una intervención humana los datos pueden contener sesgos y los algoritmos ser susceptibles de recibir durante todo el proceso de entrenamiento prejuicios de diversos tipos, de forma intencionada o no, que no solo afectarán a los resultados, sino que en sus procesos de mejora continua los algoritmos los reproducirán y ampliarán, distorsionando las calidad de sus salidas y multiplicando de forma amplificada las discriminaciones sociales y económicas presentes en nuestras sociedades.

De forma genérica podemos identificar dos elementos que influyen en la generación de este tipo de sesgos: en primer lugar los datos utilizados para entrenar a los algoritmos, los cuales, por ejemplo, pueden no ser representativos de toda una población determinada de forma que sus resultados discriminarán a esta y favorecerán a aquella con la que se entrenó.

El otro elemento de distorsión son los sesgos introducidos por los desarrolladores al diseñar el algoritmo, incluso sin intención, lo que afectará a sus resultados, como es el caso de ajustarse a creencias determinadas o a opciones específicas, lo que conlleva a minimizar o ignorar resultados que no respondan a ellas.

Sesgos cognitivos

En el campo de la psicología se conoce como sesgos cognitivos a aquellos mecanismos de pensamiento que producen desviaciones, conscientes o inconscientes, distorsionando la interpretación sistemática de la información disponible e influyendo en nuestra respuesta a problemas en contra de la lógica, particularmente en la toma de decisión, comprometiendo su racionalidad y objetividad.

Aunque puedan considerarse defectos o errores de pensamiento la realidad es que se tratan de simplificaciones y desviaciones de las rutinas de comportamiento (conocidas como heurísticas o atajos mentales) que utilizamos frecuentemente para procesar información y tomar decisiones por el camino más sencillo para el cerebro, de forma rápida y automática. Pero estos atajos, en determinadas circunstancias provocan errores o desviaciones de la lógica y el juicio racional en la toma de decisiones dando origen a los sesgos cognitivos.

En el caso particular de la Inteligencia Artificial los sesgos cognitivos constituyen un importante factor de riesgo ante el auge del uso de sus tecnologías susceptible de incrementar considerablemente la posibilidad de tomar decisiones erróneas, irracionales o injustas, tomadas de forma intuitiva y no consciente, sin basarse en criterios lógicos y racionales, riesgos que pueden ser críticos cuando aparecen asociados a la toma de decisiones en aquellos ámbitos como Salud, Defensa y Seguridad, Economía, etc., donde los errores cometidos pueden ser críticos.

El número de sesgos cognitivos es de tal magnitud que su exposición excedería de los límites de este artículo razón por la cual, al igual que en el caso de los sesgos algorítmicos en lugar de enumerarlos a continuación identificaré algunos de ellos que conducen a aceptar las recomendaciones de la Inteligencia Artificial sin una evaluación crítica. Este conjunto lo integran la excesiva dependencia de la IA que induce a asimilación de sus cualidades como iguales o mejores que las humanas, el desconocimiento de su funcionamiento, la confianza excesiva en sus tecnologías, la rápida disponibilidad de opciones y recomendaciones y la tendencia a elegir el primer resultado que se ofrece o que se ajuste o confirme nuestras expectativas.

¿Eliminamos los sesgos o los gestionamos para minimizar sus efectos?

Ante esta diversidad de sesgos y su potencial impacto negativo en la toma de decisiones apoyada por la Inteligencia Artificial surge la pregunta ¿eliminamos los sesgos o gestionamos sus riesgos?

De lo anteriormente expuesto es fácil deducir que, dado que los sesgos cognitivos son algo inherente al cerebro humano y por ello se insertan en los datos, propagándose a los algoritmos por medio de estos y manifestándose a la hora de tomar decisiones, es prácticamente imposible pensar que, al menos en el estado del arte actual, podemos hacerlos desaparecer de los modelos de IA.

En consecuencia, frente a la necesidad de tratar los riesgos derivados de los sesgos algorítmicos y cognitivos, es esencial que las organizaciones adopten un enfoque holístico que aborde tanto la prevención como la gestión de sus efectos e integre soluciones técnicas con aspectos regulatorios y éticos sin olvidar el factor humano.

Para ello pueden adoptarse diferentes estrategias conformes con tal enfoque de las que hare una síntesis en la segunda parte de este artículo.