Inteligencia Artificial y sostenibilidad. ¿Aliados o enemigos?

Por: Xavier Catala Balta Director Barcelona en Protoplay

Actualmente a nadie se le escapa el tremendo potencial disruptivo de la Inteligencia Artificial. Podríamos decir que su despliegue afectará, y de hecho está afectando, a todos los campos de la actividad humana. Por poner solo un ejemplo cotidiano, los dispositivos más ubicuos del mundo, los smartphones, están cargados de aplicaciones y funciones que se basan en lo que actualmente clasificamos como IA.

Junto con las estimaciones multimillonarias de negocio o el natural sobre optimismo o catastrofismo ante una nueva disrupción tecnológica, empiezan a surgir no pocas voces preguntándose sobre el impacto de la IA en la sostenibilidad. Este artículo pretende ser una breve introducción al debate sobre algunos de los aspectos más relevantes de la sostenibilidad relacionados con la IA.

Dejando al margen la definición sobre qué es y qué no es IA o qué abarca o no la sostenibilidad, podríamos empezar y acabar cualquier discusión de este tipo con la socorrida y no por eso menos cierta afirmación que toda tecnología es por definición amoral y que somos las personas las que decidimos a través de su uso la bondad o maldad de sus aplicaciones. Sin embargo, si examinamos algunas de las características principales de IA podemos advertir su futurible impacto en el desarrollo sostenible.

Uno de los mayores potenciales de la IA es su capacidad para procesar grandes volúmenes de datos, integrando formatos y fuentes muy diversos. Esta característica se revela de gran utilidad, por ejemplo, para el seguimiento de un ecosistema, tarea altamente complicada y de difícil consecución por las personas debido a la multitud de aspectos a supervisar y a la complejidad de las interacciones que tienen lugar en la naturaleza. Con la ayuda de la IA, los expertos medioambientales provistos de sensores, drones y otros instrumentos de medida pueden realizar seguimientos de la evolución de un ecosistema y elaborar complejos modelos de previsión que integren en tiempo real (o casi) datos sobre la salud o los desplazamientos de las diferentes especies. Por supuesto este mismo despliegue se puede utilizar para la vigilancia y represión de la población, apoyo a operaciones militares o delictivas y otro sinfín de usos que difícilmente podemos catalogar como sostenibles.

Dentro del ámbito de la aplicación de la IA a aspectos relacionados con la gestión, existe un sinnúmero de polémicas relacionadas con la utilización de sistemas de aprendizaje automático o machine learning para la selección de personas, bien sea para la concesión de un crédito, juzgar su adecuación para un puesto o decidir su eventual puesta en libertad o la concesión de la custodia de menores. En este sentido debemos decir que el conjunto de algoritmos encargado de este proceso es completamente ignorante de las consecuencias de sus agrupaciones. Las funciones matemáticas funcionan igual para clasificar candidatos al premio Nobel o para determinar la lista del corredor de la muerte. Lo que sí que es cierto es que una vez establecidos los criterios y los inputs necesarios se libera una gran cantidad de tiempo a las personas responsables de dichos procesos, las cuales pueden decidir emplearlo en tareas donde la ética o el criterio “humano” esté presente, sin tener que pasar por la ingesta y tratamiento de miles de datos o expedientes. Además, por definición, los sistemas están libres de errores. Lo que consideramos un error no es más que una mala definición de la función base, con lo cual no se trata tanto de revisar la IA, sino más bien de la Inteligencia Humana. Dentro de este último aspecto, numerosos expertos en derechos civiles advierten del peligro de utilizar series históricas para alimentar el modelo, ya que estas contienen los diferentes sesgos y prejuicios, con lo que los nuevos algoritmos se calcularán en base a ellos y los reproducirán, dándoles una falsa capa de neutralidad y legitimidad.

Siguiendo con esta breve exposición sobre la ética de la IA y los recientes escándalos, nos puede venir a la mente el famoso algoritmo de reconocimiento de imágenes de Google que catalogaba como “gorilas” a fotografías de personas afroamericanas. Dejando al margen de que a nadie le guste ser clasificado como un animal en lugar de una persona y que llamar “gorila” o “mono” a una persona de raza negra es, evidentemente, un insulto racista, el caso merece una aproximación menos apasionada para comprender qué puede haberlo provocado. Por un lado, cualquier algoritmo de tratamiento de imágenes requiere grandes volúmenes de fotografías para ser desarrollado (la famosa fase de entrenamiento del aprendizaje automático). Dichas fotografías deben estar convenientemente etiquetadas y presentar un nivel de variabilidad lo suficientemente grande para que el algoritmo pueda desarrollar su función de clasificación. Tanto la cantidad como la variabilidad son críticas en este proceso. En este sentido cabría preguntarse si dicho algoritmo poseía un banco de imágenes suficientemente rico como para ser desplegado convenientemente. Por poner un ejemplo extremadamente simplista, si el conjunto de imágenes para desarrollar el modelo contiene mayoritariamente fotos de simios entre la penumbra mientras que los humanos aparecen a plena luz, una imagen de un humano a oscuras tiene una probabilidad alta de ser considerado como un simio. Hay que decir que en el caso de Google, tal como se aprecia en las imágenes, las personas eran claramente reconocibles como tales, por lo que el error tenía razones más profundas que jamás fueron dilucidadas.

Imágenes que acompañaban al tweet de Jacky Alcine, donde se aprecia una pareja afroamericana clasificada como “gorilas” por el algoritmo de reconocimiento de imágenes. ¿Incompetencia, racismo o falta de diversidad en los equipos de desarrollo? El tweet original de 29 de junio 2015 ya no está disponible.

Imágenes que acompañaban al tweet de Jacky Alcine, donde se aprecia una pareja afroamericana clasificada como “gorilas” por el algoritmo de reconocimiento de imágenes. ¿Incompetencia, racismo o falta de diversidad en los equipos de desarrollo? El tweet original de 29 de junio 2015 ya no está disponible.

Otro tema, y siguiendo con el ejemplo anterior, son los límites de la tecnología de captación y proceso imágenes, además del hecho que las diferentes etnias humanas poseen un número distinto de trazos característicos y apreciables por parte de las cámaras. Todo ello puede dar lugar a errores o “falsos negativos” debidos tanto a la calidad de los inputs utilizados para desarrollar los modelos, como a que los algoritmos no contemplan realmente las particularidades de las diferentes etnias. Las vías de mejora pasan tanto por el desarrollo de una mejor tecnología, como por aumentar la diversidad de los equipos de diseño y test de los algoritmos.

Al margen del tema tecnológico o de asegurarnos de la representatividad de las muestras de datos seleccionados, existen algunos campos en los que la IA presenta retos interesantes para aumentar los niveles de sostenibilidad. Los escándalos relacionados con la discriminación racial o de género proporcionan una excelente ocasión para abordar este espinoso tema. Poner de manifiesto estos sesgos y posteriormente corregirlos puede brindar la oportunidad de potenciar criterios de selección no basados en prejuicios, sino en características más objetivas. Además, la programación en base a reglas pone estas de manifiesto con lo que abre la puerta a medidas de corrección. Una vez realizado el algoritmo “neutral” y “equitativo” sabremos que siempre actuará bajo los criterios para los que ha sido programado, sin posteriores cambios de opinión ni sesgos circunstanciales. En este sentido el gran reto está en lograr un grado de explicabilidad y transparencia que asegure que los criterios utilizado son realmente los deseados, lo cual no siempre es evidente dada la complejidad de los algoritmos de machine learning.

Sin embargo, existen aspectos en los que la sostenibilidad del despliegue de la IA aún está pendiente de ser solucionado. Por un lado, tenemos su impacto en el empleo y la futurible reducción de puestos de trabajos que puede acarrear. Si bien es cierto que algunos empleos se verán liberados de tareas repetitivas, peligrosas o simplemente desagradables, también lo es que algunos puestos pueden virtualmente desaparecer, dejando desempleadas a multitud de personas. La historia nos muestra que los avances tecnológicos al final compensan estas pérdidas gracias al aumento generalizado de la riqueza y a la creación de nuevos empleos, pero la potencial velocidad con la que la IA puede ser desplegada y su alcance global pone sobre la mesa de los gobernantes un espinoso tema de difícil gestión.

Finalmente, el impacto ecológico de la IA en sí misma aún está por determinar. Los grandes centros de tratamiento de datos requieren gigantescos volúmenes de energía eléctrica, al tiempo que el despliegue de los múltiples sensores para captar la información necesaria no hace más que agravar el problema. Además, existe la cada vez más conocida cuestión sobre el origen y tipo de extracción de los materiales en los que se basan estos nuevos dispositivos. Las materias primas como el litio, cobalto, indio, lantano, itrio y en general los denominados minerales raros o tierras raras están en el punto de mira tanto ecológico como estratégico por sus limitaciones en el suministro y su impacto en la naturaleza y son del todo indispensables para la creciente digitalización de nuestra sociedad.

Así pues, como resumen, podríamos decir que la IA presenta una gran oportunidad para la mejora de la sostenibilidad, pero no está exenta de importantes retos la mayoría de los cuales provienen no tanto de la tecnología per se, si no de otros aspectos circundantes a ella y que deben ser objeto de vigilancia y seguimiento constante por parte de la sociedad para asegurar un presente y un futuro sostenible.

Artículo publicado en el perfil Linked In de Xavi Catalá Balta