¿La inteligencia artificial sustituirá al ser humano? ¿La falta de cuestiones éticas de la IA podría volverse contra sus creadores? ¿Representa un peligro para la especie humana?
Éstas son solo algunas de las preguntas que han suscitado el debate público y han sacudido a los medios de comunicación desde el despliegue masivo de herramientas de IA generativa y las declaraciones sensacionalistas de algunos personajes públicos. Sin embargo, por muy interesantes que sean las especulaciones desde un punto de vista filosófico, la mayoría de los expertos coinciden en que son un tanto prematuras.
Es cierto que la inteligencia artificial tiene un enorme potencial. Es una tecnología que va a permitir automatizar un amplio abanico de tareas, crear nuevos servicios y, en definitiva, hacer más eficientes las economías. La IA generativa marca una nueva etapa en esta tendencia subyacente, cuyas múltiples aplicaciones apenas estamos empezando a explorar.
No debemos perder de vista que, a pesar de sus notables prestaciones, los sistemas de IA son esencialmente máquinas, nada más que algoritmos integrados en procesadores capaces de asimilar grandes cantidades de datos.
Se nos ha dicho que estas nuevas herramientas serán capaces de superar la prueba de Turing. Probablemente sea cierto, pero ese test -que anteriormente se creía capaz de trazar la línea divisoria entre la inteligencia humana y la inteligencia artificial– hace tiempo que dejó de tener un valor real. Estas máquinas son incapaces de inteligencia humana, en el sentido más amplio del término (es decir, que implique sensibilidad, adaptación al contexto, empatía…), reflexividad y conciencia, y probablemente lo serán por mucho tiempo. Uno no puede evitar pensar que quienes imaginan que estas herramientas tendrán pronto esas características se están dejando influir demasiado por la ciencia ficción y por figuras míticas como Prometeo o el gólem, que siempre han ejercido cierta fascinación sobre nosotros.
Si adoptamos un punto de vista más prosaico, nos damos cuenta de que las cuestiones éticas de la IA planteadas por la creciente importancia de la inteligencia artificial no son nada nuevo y que la llegada de ChatGPT y otras herramientas simplemente las ha hecho más apremiantes. Aparte del tema del empleo, estas cuestiones se refieren, por una parte, a la discriminación creada o amplificada por la IA y los datos de entrenamiento que utiliza y, por otra, a la propagación de información errónea (ya sea deliberadamente o como resultado de «alucinaciones de la IA»). Sin embargo, estos dos temas preocupan desde hace tiempo a investigadores de algoritmos, legisladores y empresas del sector, que ya han empezado a aplicar soluciones técnicas y jurídicas para contrarrestar los riesgos.
Veamos, en primer lugar, las soluciones técnicas. Los principios éticos se están incorporando al propio desarrollo de las herramientas de IA. En Thales, por ejemplo, se han establecido directrices que garantizan que los sistemas sean transparentes y explicables. También minimizan los prejuicios (sobre todo de género y apariencia física) en el diseño de algoritmos, a través de los datos de entrenamiento que utilizamos y la composición de equipos.
En segundo lugar, las soluciones jurídicas. Aquí, la Unión Europea ha tomado indiscutiblemente la delantera. La Comisión Europea y el Parlamento Europeo llevan más de dos años trabajando en un proyecto de reglamento destinado a limitar por ley los usos más peligrosos de la inteligencia artificial.
Sin embargo, es también a través de la educación y de un verdadero cambio social como lograremos protegernos de los riesgos inherentes al mal uso de la IA. Las empresas unidas deben conseguir apartarse del tipo de cultura de la inmediatez que ha florecido con la llegada de la tecnología digital, y que probablemente se verá exacerbada por la difusión masiva de estas nuevas herramientas.
Como sabemos, la IA generativa permite producir fácilmente contenidos altamente virales, pero no necesariamente confiables. Existe el riesgo de que amplifique las deficiencias ampliamente reconocidas en el funcionamiento de las redes sociales, sobre todo en su promoción de contenidos cuestionables y divisivos, y en la forma en que provocan reacciones y enfrentamientos instantáneos.
Además, estos sistemas, al acostumbrarnos a obtener respuestas «listas para usar», sin tener que buscar, autentificar o contrastar fuentes, nos vuelven intelectualmente perezosos. Corren el riesgo de agravar la situación al debilitar nuestro pensamiento crítico.
Por tanto, aunque no sería razonable empezar a enarbolar la bandera roja de un peligro existencial para la raza humana, sí es necesario emitir una señal de alarma. Hay que buscar fórmulas para acabar con esa nociva propensión a la inmediatez que lleva casi dos décadas contaminando la democracia y creando un caldo de cultivo para las teorías de la conspiración.
Si abordamos este desafío, por fin podremos aprovechar el tremendo potencial que tiene esta tecnología para hacer avanzar la ciencia, la medicina, la productividad y la educación.
Por Patrice Caine, presidente y CEO del Grupo Thales