La gobernanza de los algoritmos, la última frontera
Por el Mg. Javier Klus / UADE
Cientos de miles de personas de distintos países fueron a California en busca del preciado metal, sin importar los riesgos, los indios o bien lo inclemente del clima. Como en cualquier fiebre de este tipo, los primeros que llegaron obtuvieron las mejores ganancias, pero la gran mayoría sólo obtuvo muy poco; y el resto, al final del día, perdió todo lo que invirtió.
Algo muy similar está ocurriendo con la Inteligencia Artificial (IA) y los algoritmos, una fiebre en la cual no importa cómo, todos quieren estar. Como ocurrió en el lejano oeste, los que primero lleguen seguramente ganarán y los últimos perderán, y el final de esta historia nos mostrará que ya nada volverá a ser como antes.
Es indudable que como nuevo paradigma tecnológico tenemos a la Inteligencia Artificial, y uno de los elementos que forman parte de ella son los algoritmos: el corazón de la IA, pero con sesgos en su construcción. ¿A qué nos referimos? Pues el sesgo algorítmico ocurre cuando un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos usados para entrenar al algoritmo.
Algo importante a considerar es que los algoritmos están presentes actualmente en grandes cantidades de actividades que solemos realizar: en la selección de empleos, en la determinación de un perfil crediticio y el otorgamiento de un préstamo, en la detección de enfermedades como el cáncer y muchas cuestiones más. Pero dentro de todas estas nuevas funciones existe algo que ha comenzado a surgir cada vez más y es la necesidad de establecer regulaciones y principios éticos.
Al igual que en el lejano Oeste, en su primera época no existió la ley. En lo que respecta a la Inteligencia Artificial y los algoritmos, sus comienzos fueron sin ningún tipo de regulación, pero a medida que esta tecnología avanzaba empezó a ser necesario establecer regulaciones en cuanto a riesgos y a la necesidad de establecer un marco ético que acompañe esta nueva tecnología.
Es así como en estos últimos tiempos los gobiernos han empezado a transitar un camino de regulaciones. Un ejemplo ha sido la Orden Ejecutiva de Octubre de 2023, del presidente Biden, guiando el desarrollo de la IA; o bien la aprobación en Mayo de 2024 del Acta Europea de la IA, definiendo los distintos niveles de riesgo y acciones necesarias que deben adoptar las empresas que desarrollen sistemas de Inteligencia Artificial; o finalmente la Norma ISO 42001:2023 que establece un sistema de administración de IA, y los pasos que debe seguir una organización para poder gestionar este tipo de tecnologías.
Bajo esta realidad, se hace imperioso el establecer una Gobernanza de Inteligencia Artificial/algoritmos, un esquema que nos ayude a gestionar todas estas actividades y que nos permita establecer una serie de lineamientos básicos que se deben seguir para, de esta forma, establecer un marco de controles, ejemplos de estos lineamientos son:
-Documentar y alinear las políticas de desarrollo y uso de sistemas de IA/algoritmos con los lineamientos organizacionales y estándares internacionales.
-Definir las funciones y responsabilidades asignadas de acuerdo con las necesidades de la organización.
-Establecer un proceso de evaluación del impacto para las personas, grupos de personas y la sociedad, a lo largo del ciclo de vida de los sistemas IA/algoritmos.
-Documentar el diseño, desarrollo, adquisición y selección de datos para los sistemas IA/algoritmos, en función de los objetivos organizacionales.
-Definir, documentar e implementar requisitos y procesos para garantizar la calidad de los datos, asegurando que cumplan con aspectos de privacidad, seguridad, transparencia y calidad, en el desarrollo y operación de los sistemas IA/algoritmos.
Como podemos observar, en las organizaciones después de la IA nada será como antes, pero no es una opción no transitar este camino.
Existen dos frases que reflejan la situación actual de la Inteligencia Artificial y los algoritmos. La primera, de Mark Zuckerberg: "El mayor riesgo es no tomar ningún riesgo". La segunda, de Stephen Hawking: "El éxito en la creación de la IA será el mayor acontecimiento en la historia de la humanidad. Por desgracia, también podría ser el último, a menos que aprendamos a evitar los riesgos".
Estas citas reflejan que, por un lado, no adoptar herramientas de IA puede ser el mayor peligro para las organizaciones, mientras que, por otro, nos recuerdan la necesidad de mantenernos siempre atentos a las posibles consecuencias que su implementación podría traer.
Es fundamental, por tanto, integrar en el gobierno corporativo un sistema de gobernanza para la IA y los algoritmos, que aborde cuestiones clave como la ética, la calidad de los datos, la seguridad y la privacidad de la información, entre otras. Estos elementos representan riesgos potenciales que las organizaciones deberán enfrentar en el futuro.