Técnicas Rumbo a una Inteligencia Artificial Responsable
Por Aldo Iván Ramírez Abarca, Consultor en IA Responsable en PIT Policy Lab
“La transparencia en los sistemas de IA es un pilar fundamental para una implementación ética y responsable. Al abrir la cortina sobre cómo se crean y operan estos sistemas, podemos garantizar que la tecnología contribuya positivamente a nuestra sociedad y respete los valores y derechos fundamentales de las personas.”
Esta es la respuesta que ChatGPT me arrojó ante la pregunta “¿puedes redactar un párrafo sobre la importancia de la transparencia en sistemas de IA como tú?” Una gran respuesta, pensé. Sin embargo, un paper reciente informó que ChatGPT tiene el peor ranking de transparencia—o de apertura—dentro de una lista de generadores de texto que se proclaman a sí mismos como de código abierto (open source).
Más que una hipocresía por parte de OpenAI—la compañía creadora de ChatGPT— esta disparidad entre el texto arrojado y la falta de transparencia de la herramienta revela un fenómeno interesante, un fenómeno sobre el estado actual de las campañas que abogan por la regulación, uso responsable, transparencia y explicabilidad de las tecnologías de IA: por un lado, se han escrito tantos artículos sobre la necesidad de estas cuatro nociones en el mundo de IA que los conjuntos de datos usados para entrenar los grandes modelos de lenguaje (LLM) detrás de ChatGPT, así como las técnicas de aprendizaje por refuerzo con retroalimentación humana (RLHF) que mejoran el rendimiento del generador, contienen la información necesaria para que la respuesta anotada arriba sea óptima; por el otro lado, las campañas que recalcan la importancia de la transparencia no están produciendo la respuesta institucional necesaria.
La pregunta obligada, entonces, es la siguiente: ¿qué medidas prácticas podemos tomar para fomentar—y eventualmente garantizar—un buen uso de la IA? Hay dos amplios niveles de ataque, cuya interacción conjunta significaría una victoria en el camino hacia la sistematización del uso responsable de la IA:
A nivel de desarrollo e implementación
Las propuestas actuales para tener un mayor control sobre el proceso de diseño, construcción, e implementación de la IA se enfocan, a grandes rasgos, en tres aspectos primordiales: (a) la transparencia sobre los objetivos y metodologías de desarrollo; (b) la explicabilidad de los algoritmos utilizados; y (c) la verificación sistemática de estos algoritmos.
El primer punto, la transparencia, se refiere a la divulgación efectiva de los usos deseados, limitaciones, y metodologías detrás de las tecnologías de IA. Dicha divulgación debería ser una responsabilidad en manos de las compañías desarrolladoras y de su personal de investigación. Aunque una accesibilidad absolutamente libre de obstáculos suena imposible cuando hablamos de tecnologías que frecuentemente siguen agendas corporativas dentro de un esquema de competitividad, la sociedad científica ha enfatizado la necesidad de crear organizaciones para auditar y monitorear la transparencia. En el caso específico de aquellas tecnologías cuyo objetivo primordial es promover algún bien social, tales medidas de monitoreo son esenciales.
El segundo punto, la explicabilidad, se refiere a fomentar la comprensión de la toma de decisiones realizada por una IA. Algunas tendencias recientes en tal esfuerzo apuntan a tres tipos de explicabilidad: (1) explicabilidad pre-modelación, que con análisis de datos busca describir minuciosamente los conjuntos de datos usados para entrenar los algoritmos de aprendizaje (machine learning), y con ello mitigar su posible parcialidad (bias), (2) modelación explicable, que busca limitar el uso de algoritmos a aquellos que sean inherentemente más fáciles de explicar y a desarrollar técnicas de IA híbrida, donde diversos algoritmos complejos se acoplan para generar modelos más simples o interpretables; y (3) explicabilidad post-modelación, que con técnicas matemáticas busca extraer a posteriori prominencias, tendencias y reglas de los algoritmos.
El tercer punto, la verificación sistemática, se refiere a un cúmulo de métodos para comprobar si una IA se acopla a ciertas especificaciones pre-establecidas (expresadas por reglas en lenguajes lógicos formales). Tales garantías aseguran que la toma de decisiones autónoma no se saldrá de un margen relevante, bajo la intuición de que con ello se incrementará el control y mantenimiento de los algoritmos que sostienen implementaciones regulares.
A nivel mediático, educativo e institucional
Aparte de los constantes llamados por parte de la prensa mundial al control sistemático de las tecnologías de IA, es importante difundir información veraz sobre la presencia cotidiana que estas tecnologías ya tienen en la sociedad de hoy en día. La interacción rutinaria con la IA no puede más que crecer en el futuro, por lo que es necesario incrementar la conciencia general sobre los mecanismos básicos detrás de ella, así como sobre sus usos deseados. De esta forma, se enriquecerán las discusiones y estaremos mejor preparados para enfrentar las consecuencias de la creciente incorporación de la IA en actividades humanas. A mayor conciencia, mayor efectividad de las exigencias que la sociedad emita sobre la creación y usos responsables y éticos de la IA.
De forma análoga, es claro que programas educativos sobre IA están proliferando en muchas instituciones escolares a lo largo del planeta. En esta línea de ataque, conviene promover la participación de expertos en IA, en ética, y en tecnologías para el bien público en el diseño de cursos que se apeguen a cierta normatividad en cuanto a políticas de buen uso. Por otro lado, también resulta útil impulsar conferencias, talleres, y paneles de discusión que involucren a diferentes sectores del desarrollo tecnológico (investigadores, inversionistas, empresarios, eruditos, gestores, políticos, etc.), pues de esta forma se acelerará la convergencia hacia acuerdos o pactos de normatividad que entreguen preceptos comunes con miras a garantizar usos responsables de la IA.
Finalmente, tal vez el rubro más importante en este nivel se refiere a la regulación institucional de la IA. Todo lo mencionado arriba podría colapsar sobre sí mismo sin la creación y establecimiento de políticas de regulación, logradas a base de acuerdos y campañas, cuyo objetivo sea vigilar y sancionar cada uno de los puntos descritos arriba, tanto en el nivel de desarrollo como en el nivel de la sociedad. Siguiendo el ejemplo de las regulaciones constantes sobre el manejo de datos, es necesario convenir pactos adaptables—con capacidad para evolucionar—basados en la respuesta social que la integración de tecnologías de IA genere.
Es indudable que la IA es una poderosa herramienta. En mi opinión, una metáfora que convendría adoptar en el clima actual es la de una herramienta de doble filo. Es crucial, entonces, que afilemos aquella arista que puede ayudarnos a impulsar el bienestar público, y que lijemos aquella arista que puede causar daño a nuestra sociedad. Este pequeño ensayo es una exploración de posibles caminos para hacerlo.
¡Sigamos la conversación en: LI: Aldo Ivan Ramirez Abarca / IG: @aldoivra!
Comments