...

De los principios a la práctica: IA responsable en acción

La combinación de rápidos avances en inteligencia artificial y medidas para integrarla en una variedad de sistemas críticos para el negocio ha puesto de relieve el uso responsable de la tecnología. 27ª Encuesta Anual Global de CEOs de PwC captura la combinación de entusiasmo palpable y cautela comprensible que sienten los líderes con respecto a la nueva ola de innovación en IA: la IA generativa (GenAI). Casi un tercio de los encuestados dijo que sus organizaciones ya habían implementado esta tecnología incipiente y casi el 60% esperaba que mejorara los productos de su empresa en los próximos 12 meses. Sin embargo, también previeron un aumento de los riesgos asociados. Aunque la ciberseguridad encabezó la lista de preocupaciones, los directores ejecutivos también expresaron preocupación por la amenaza de responsabilidades legales y de reputación y por controlar la difusión de información errónea.

Abordar estos desafíos requiere un marco de IA responsable que ayude a las empresas a aprovechar el valor de la IA y al mismo tiempo mitigar sus desventajas (ver cuadro: “Un marco de IA responsable proporciona una base para prácticas de generación de confianza”). Sin embargo, para comprender verdaderamente la esencia de estos principios, es instructivo ver cómo se implementan en escenarios del mundo real. Para obtener esta perspectiva, colaboramos con un grupo diverso de ejecutivos que asistieron a la conferencia de IA de la Cumbre Mundial de Otoño de 2023 en Ámsterdam. Cada líder con el que hablamos aborda la IA responsable desde un punto de vista único, ya sea como un profesional de la tecnología que se enfrenta a desafíos prácticos, un ejecutivo de negocios que formula una estrategia o un emprendedor que busca ofrecer herramientas críticas de mitigación de riesgos de IA a las empresas.

Construyendo los cimientos

La IA responsable comienza con la redacción de un conjunto básico de principios que se basan en los valores de la empresa, o al menos están claramente alineados con ellos. Khagesh Batra, jefe de ciencia de datos de la empresa de servicios de recursos humanos Adecco Group, se basa en los principios éticos establecidos por su organización para guiar su trabajo con la IA. “Las corporaciones ofrecen capacitación cuando estás incorporado”, dijo Batra. “La mayoría de la gente tiende a leerlos, pero en realidad contienen esos principios rectores. ¿Cuáles son los valores de su empresa? ¿Qué es la discriminación? No los indican explícitamente para los científicos de datos, pero siento que se puede inferirlo automáticamente”.

Marc Mathieu, jefe de transformación de la IA en Salesforce, estuvo de acuerdo en que incorporar la IA responsable en los valores organizacionales sienta las bases. “Es en gran medida parte de nuestros valores. Nuestra cultura se impulsa desde arriba y en toda la organización. La IA confiable es realmente uno de los elementos centrales en los que Salesforce se ha centrado”.

Impulsar la responsabilidad

Mathieu continuó explicando que las empresas no pueden quedarse ahí. “Los principios son fantásticos, pero es en la implementación donde las cosas salen mal”, afirmó Mathieu.

“Tenemos un equipo de ética que ha creado directrices para asegurarnos de dar una estrella polar a los clientes, socios y (empleados) internamente sobre cómo implementar estrategias e implementaciones de IA de una manera responsable y ética. Pero al mismo tiempo, está el equipo de producto que está desarrollando las soluciones técnicas reales para asegurarse de que podamos garantizar la confianza en la IA generativa. Nos aseguramos de que estos equipos estén muy sincronizados (entre sí), así como con nuestro equipo de investigación. A menudo decimos que la confianza no es sólo una capa; es una hoja de ruta. Desarrolle ese músculo de una IA ética y confiable ahora, porque la hoja de ruta, en todo caso, se volverá cada vez más compleja a medida que avancemos hacia una IA autónoma”.

La confianza no es sólo una capa; es una hoja de ruta. Desarrolle ese músculo de una IA ética y confiable ahora, porque la hoja de ruta se volverá cada vez más compleja a medida que avancemos hacia una IA autónoma”.

La responsabilidad se extiende más allá de la ética y el equipo de producto, hacia los tecnólogos que están a la vanguardia del desarrollo de la IA, como aquellos que obtienen los datos utilizados para entrenar la IA generativa y otros modelos de IA. Como nos dijo Batra, “La IA responsable es primordial, porque al final del día, podrías estar tratando con datos confidenciales que podrían tener un gran impacto”.

Poner en práctica los principios para la privacidad, la seguridad y la mitigación de prejuicios

En la práctica, uno de los desafíos para los profesionales de datos es recopilar datos que representen a una población diversa y que no introduzcan (ni perpetúen) sesgos. Sarah Porter, asesora de la ONU sobre armas autónomas y derechos humanos, y fundadora de Inspired Minds, una comunidad tecnológica emergente global de 200.000 miembros, articuló el desafío particular que plantean los grandes modelos lingüísticos que sustentan los sistemas generativos. “Uno de los problemas que tenemos con los grandes modelos lingüísticos es que los estamos entrenando con conjuntos de datos históricos masivos”, dijo. “Se puede decir que estamos recreando lo peor de la historia. Necesitamos asegurarnos de que la información que introducimos en estas máquinas represente los resultados que queremos en términos de diversidad, lo cual es difícil de lograr”.

En ocasiones, esto requiere que los profesionales de la ciencia de datos hagan concesiones. “Queremos utilizar variables que tengan un impacto en el modelo, pero que no discriminen”, dijo Batra. “Así que a veces tengo que tomar una decisión consciente para dejar de lado algún desempeño y decir: 'No voy a tratar con variables como la raza o el género en mi modelo porque perpetúan la diferenciación que han visto los datos, y eso continuar si los construí en el modelo'”.

Hay formas de erradicar los prejuicios que también abordan otros desafíos, como garantizar la privacidad de los datos. Uno de estos enfoques es el equipo rojo, que en el contexto de la IA se refiere a un proceso en el que un grupo intenta deliberadamente desafiar, atacar o explotar un sistema de IA para identificar sus vulnerabilidades o su potencial de uso indebido. Mathieu dijo: “Estamos utilizando algunos métodos muy interesantes como el equipo rojo, no solo por motivos de privacidad, sino también por toxicidad, inclusión y prejuicios para asegurarnos de que realmente nos esforzamos en generar confianza”.

Las soluciones que permiten a los tecnólogos extraer el valor de los datos confidenciales y al mismo tiempo anonimizar la información personal ofrecen otra opción para fortalecer la privacidad de los datos. Un ejemplo de este tipo de solución provino de Patricia Thaine, quien fundó Private AI, una empresa que detecta datos confidenciales y los despoja de identificadores personales antes de compartirlos con un modelo de IA. “El lenguaje natural contiene parte de la información más sensible que se puede producir. Puedes, por ejemplo, determinar si alguien tiene una condición médica basándose en su forma de hablar”, explicó. “Lo bueno de los datos no estructurados es que gran parte del valor está alrededor la información personal. Por ejemplo, para extraer la información más importante de una conversación o el sentimiento hacia un producto, no es necesario conocer al orador”.

También es importante evitar entrenar un modelo con datos que contengan material claramente dañino, como imágenes violentas. Pero esto es más fácil decirlo que hacerlo. Los modelos de IA generativa requieren entrenamiento en conjuntos de datos que contienen millones de puntos de datos. Clasificarlo todo para garantizar la seguridad de cada ápice no es una tarea fácil. El jefe de ingeniería de soluciones de Stability AI, Tom Mason, nos dijo que su empresa utiliza conjuntos de datos de entrenamiento que están fuertemente filtrados para eliminar contenido explícito e ilegal. La empresa también recurre cada vez más a la propia IA para ayudar a confirmar que el contenido generado es seguro. “En el punto de generación de imágenes, construimos un clasificador de imágenes que utiliza un modelo de visión por computadora para clasificar la imagen”, dijo Mason. “Si alguien logra generar una imagen de desnudo, por ejemplo, el modelo detecta el desnudo y lo difumina”.

Diseñar para la confianza

Todo marco de IA responsable debe hacer hincapié en la confianza desde el diseño, lo que significa incorporar las mejores prácticas en todos los procesos de desarrollo e implementación de la IA. Esto implica ir mucho más allá de examinar los datos que pasan por un modelo. Y es un área en la que la mayoría de las empresas están lamentablemente rezagadas, a pesar de la presencia de crecientes regulaciones.

“Hay mucho por hacer, incluso para el cumplimiento del RGPD, que aún no se ha hecho”, dijo Thaine, refiriéndose al Reglamento General de Protección de Datos de la Unión Europea destinado a la privacidad de la información. “Se puede pensar en el RGPD como una regulación aspiracional, que definitivamente no teníamos la tecnología para cumplirla cuando salió. Todavía no lo hacemos, pero estamos trabajando para lograrlo”, dijo.

“Actualmente, el proceso (para las empresas) es una especie de manual; ese es el problema”, nos dijo el Dr. Pavol Bielik, CTO y cofundador de LatticeFlow. “Cuando hablamos con las empresas, la gente normalmente asiente y dice: 'Sí, este es el problema que tengo en mi pila de IA, y las herramientas esencialmente se están quedando atrás'. Llevamos diez años trabajando en esto y, desde un punto de vista tecnológico, no son cosas triviales”. LatticeFlow es uno de varios actores que buscan llenar el vacío tecnológico con una plataforma que pueda identificar las causas fundamentales de los problemas de modelos y datos de forma automatizada durante todo el proceso de construcción e implementación.

“Con seguridad y confianza hay que hacerlo desde el principio”, continuó explicando el Dr. Bielik. “En la situación actual, cuando trabajamos con muchos bancos, por ejemplo, quieren hacer auditorías. Es un análisis post mortem. La pregunta es: ¿cómo puedes moverlo al principio, donde en el momento en que comienzas a trabajar con IA, ya estás siguiendo las mejores prácticas, ya estás siguiendo las pautas y, en cada paso, recibes señales de alerta que dicen ” No, ¿no es así como deberías hacerlo?”

El Dr. Bielik reconoce que es un esfuerzo importante, pero que vale la pena realizar. “Es simplemente una gran inversión. Cuando hablamos con empresas más maduras, saben que lo necesitan porque aprendieron por las malas. Donde se necesita más educación es con quienes adoptan la IA en sus primeras etapas, quienes aún no han visto los problemas resultantes y ven esto como una inversión adicional. Pero cuando llegas a cierta escala, simplemente no puedes arreglártelas sin esto. A largo plazo, te hace más rápido, incluso si a corto plazo dedicas más tiempo a asegurarte de que todo funcione”.

Lo mismo puede decirse de la IA responsable en términos más generales. Las empresas se sienten presionadas a actuar rápidamente para aprovechar la eficiencia y la innovación que ofrece la IA, pero hacerlo sin las medidas de seguridad adecuadas puede, en última instancia, frenarlas o, peor aún, causar un daño social significativo. Incorporar una IA responsable en la mentalidad de la empresa y en el conjunto de herramientas de los profesionales puede allanar el camino hacia la seguridad y el éxito.

Abrir chat
1
¿Cómo te puedo ayudar?
Hola 👋
¿Cómo te puedo ayudar?
Seraphinite AcceleratorBannerText_Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.