Cómo desarrollar tecnologías IA de forma ética y responsable

La velocidad a la que las tecnologías de inteligencia artificial (IA) han mejorado en competencia y han pasado del laboratorio a las aplicaciones principales ha sorprendido incluso a los expertos en IA más experimentados. Simplemente en la última década, según Statista, el número de patentes relacionadas con esta tecnología se ha incrementado en prácticamente un 200%, mientras que un estudio similar de Market Research Future estima que, a nivel mercado, este segmento podría alcanzar un valor aproximado de $25,000 millones de dólares para 2027.

A pesar de este rápido progreso, la práctica de la Inteligencia Artificial aún es nueva y difícil de realizar, lo que crea una dinámica interesante: los profesionales del aprendizaje automático han comenzado a aprender nuevas habilidades de IA mientras crean aplicaciones basadas en esta tecnología, generando más oportunidades para aprender y mejorar.

Empresa de IA busca talento en Guadalajara. ¡Postúlate aquí!

Si bien por principio toda solución de Inteligencia Artificial debería provenir de la aspiración de diseñar sistemas de acuerdo con objetivos de equidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad, esto es solo un punto de partida.

La ética en IA debe ser un eje que horizontal que cubra a todas las áreas involucradas, desde la ingeniería y el desarrollo hasta la interacción con el usuario final.

Para lograrlo, es importante tener en cuenta los siguientes lineamientos:

  1. Evaluar y preparar: Analizar los beneficios del producto, la tecnología, los riesgos potenciales y el equipo.
  2. Diseñar, construir y documentar: Revisar los impactos, las características particulares y la práctica de registrar los avances y decisiones.
  3. Validar y dar soporte: Seleccionar los procedimientos de prueba y soporte para garantizar que los productos funcionen según lo previsto.

Aunque estas etapas ayudan a sumar elementos clave para desarrollar soluciones más intuitivas, abiertas e incluyentes, el trabajo de Inteligencia Artificial es una labor constante de evolución y transformación. Uno de los desafíos que enfrentan los profesionales de este sector, tanto experimentados como inexpertos, es que los daños pueden surgir sin darse cuenta en las aplicaciones y los sistemas de IA.

Cómo desarrollar tecnologías IA de forma ética y responsable

Los comportamientos adversos y las influencias de las aplicaciones de Inteligencia Artificial pueden variar de triviales a muy importantes. Las fallas pueden permanecer ocultas o solo descubrirse después de implementar las aplicaciones, porque se esconden en algoritmos, modelos, datos e incluso suposiciones. Puede ser una carrera contra el tiempo para mitigar los problemas.

Si bien ha habido un número creciente de herramientas y plataformas disponibles para ayudar a los profesionales a crear aplicaciones de IA, los instrumentos para ayudar a los ingenieros a descubrir qué podría salir mal son escasos. Esfuerzos destinados a optimizar estas tareas se han reforzado en los últimos años, especialmente en el segmento de código abierto, donde las capacidades de investigación e ingeniería para desarrollar herramientas robustas y accesibles que puedan ser adoptadas por quienes más las necesitan.

Nota relacionada: La Unesco adopta un marco ético para el uso de la inteligencia artificial

Algunos de estos recursos incluyen soluciones orientadas al análisis y diagnóstico de errores, evaluación y mitigación de problemas de equidad, modelos de aprendizaje automático para la depuración de datos e inferencias, análisis para depurar predicciones individuales, deliberación sobre los efectos de las acciones en el mundo mediante la inferencia causal, así como una guía para los equipos a través de la creación de experiencias colaborativas fluidas y responsables entre humanos e IA.

Pasar de los principios a las prácticas es difícil dadas las complejidades, los matices y la dinámica de los sistemas y aplicaciones de Inteligencia Artificial. No existen soluciones rápidas ni instantáneas que aborden todos los riesgos con aplicaciones de este tipo de tecnologías, pero podemos avanzar a través de aprovechar lo mejor de la investigación y la ingeniería para crear herramientas destinadas al desarrollo y despliegue responsable la innovación, con el objetivo de disminuir y mitigar todo tipo de sesgo plasmado en la tecnología.

Por: Enrique Perezyera, Director General de Microsoft México.

One Reply to “Cómo desarrollar tecnologías IA de forma ética y responsable”

Comments are closed.