No cabe duda de que los sesgos humanos pueden influir en los algoritmos de inteligencia artificial (IA) y dar lugar a resultados discriminatorios. Sin embargo, es difícil discernir cuán generalizados son estos sesgos en las tecnologías que desarrollamos y utilizamos en nuestra vida. Aunque mitigar el sesgo en IA puede ser un reto para algunos modelos y sistemas automatizados de toma de decisiones, es imperativo reducir la probabilidad de resultados indeseables. Nuestra sociedad continúa evolucionando con la rápida innovación de las tecnologías emergentes, especialmente la IA.
La industria, la academia, los gobiernos y los consumidores tienen la responsabilidad compartida de asegurar que los sistemas de IA sean debidamente probados y evaluados ante la posibilidad de sesgos.
Además, cualquier acción o práctica prohibida por la legislación antidiscriminatoria vigente también debería aplicarse. Para respaldar las estrategias de mitigación de sesgo en IA, las organizaciones deben trabajar para crear, implementar y poner en práctica los principios éticos de la IA y garantizar una gobernanza adecuada para una revisión y supervisión continua.
IBM cree que, para aprovechar el potencial transformador de la IA, es necesario el compromiso activo de desarrollarla y usarla de manera responsable, para prevenir resultados discriminatorios que podrían perjudicar a las personas y a sus familias. Un aspecto crítico del desarrollo responsable de la IA es el enfoque en la identificación y mitigación del sesgo en IA.
IBM nos presenta cinco prioridades para fortalecer la adopción de pruebas, evaluaciones y estrategias de mitigación de los sesgos en los sistemas de IA:
- 1. Reforzar el conocimiento y alfabetización en IA para toda la sociedad. Una mayor comprensión sobre qué es la IA, sus beneficios potenciales y cómo interactuar con los sistemas podría acelerar su crecimiento y la confianza en ellos. Además, el desarrollo y la implementación de una agenda nacional de IA puede promover un ecosistema más inclusivo y diverso, así como apoyar la erradicación de conceptos equivocados. En esta línea, el aumento de la inversión en educación para incluir IA en los planes de estudio y el incremento del financiamiento para la investigación pueden garantizar una gama más diversa de partes interesadas que guíen la planificación, desarrollo y aplicación de los sistemas de IA en el futuro. Los ministerios y organismos de ciencia y tecnología también deben dar prioridad al establecimiento de alianzas que promuevan la equidad en IA.
- 2. Requerir evaluaciones y pruebas para los sistemas de IA de alto riesgo, centrándose en proteger a los consumidores, al tiempo que permite la innovación. Esto significa exigir pruebas y mitigación de sesgo en IA -realizadas de forma sólida y transparente- para sistemas de IA como los utilizados en la justicia. Estos sistemas también deben monitorearse y probarse de forma continua. Además, centrar los requisitos de evaluación antes de la implementación para los sistemas de IA de alto riesgo que presentan el mayor potencial de perjuicio; documentar los procesos de evaluación, hacerlos auditables y conservarlos durante un periodo mínimo de tiempo; convocar y realizar foros nacionales e internacionales para acelerar el consenso para una IA confiable; proporcionar recursos y experiencias para ayudar a todas las organizaciones a garantizar IA responsable; aumentar la inversión en investigación y desarrollo para pruebas y mitigación de sesgo en IA; y apoyar la capacitación acelerada de los desarrolladores sobre reconocimiento de sesgos.
- 3. Exigir transparencia en la IA a través de la divulgación. Los desarrolladores y propietarios deben informar a los usuarios cuando interactúan con tecnologías de IA con poca o nula participación humana, así como cuando se utiliza un sistema de IA de alto riesgo. Además, en el caso de los sistemas automatizados de toma de decisiones, como mínimo, debe comunicarse al usuario por qué y cómo se tomó una decisión particular utilizando IA.
- 4. Solicitar mecanismos para la revisión y retroalimentación de los consumidores. Los operadores de aplicaciones de alto riesgo deben poner a disposición canales de comunicación (por ejemplo, correo electrónico, número de teléfono o dirección postal) para recibir las preguntas, preocupaciones o quejas de los usuarios. Los propietarios deben actuar de forma responsable al realizar revisiones continuas de las inquietudes planteadas por los consumidores y, cuando sea necesario, trabajar en cuestiones sistémicas.
- 5. Establecer limitaciones universales al uso de la IA y adoptar prácticas responsables de licenciamiento. Para evitar que los sistemas se aprovechen para usos ilegales, irresponsables y perjudiciales, IBM solicita el establecimiento de limitaciones universales al uso de aplicaciones de IA de alto riesgo para prohibir su empleo en vigilancia masiva, discriminación racial y la violación de los derechos humanos y las libertades básicas. También, ampliar el desarrollo, la educación y la adopción de términos de licencia responsables para el software de código abierto y las aplicaciones basadas en IA.
Se avecinan nuevas leyes, marcos normativos y directrices para mitigar los sesgos en los sistemas de IA. Si se elaboran sobre la base de las prioridades mencionadas, estas medidas pueden proporcionar a la industria y a las organizaciones requisitos claros de prueba, evaluación, mitigación y educación para aumentar la confianza y la seguridad del consumidor en la inteligencia artificial.
Por: Anjelica Dortch, Ejecutiva de Políticas de Tecnología, IBM Government & Regulatory Affairs; y Dra. Stacy Hobson, Directora de Tecnologías Responsables e Inclusivas, IBM Research