Skip to main content

Mucho ChatGPT, pocos “algoritmos verdes”

por Gabriele Vestri

Prof. de Derecho Administrativo de la Universidad de Cádiz

Director del Observatorio Sector Público e Inteligencia Artificial

Hace unos días, en un salón con aproximadamente sesenta personas pregunté si conocían el ChatGPT. La totalidad de los presentes levantaron la mano. Pregunté también si conocían los que se denominan “algoritmos verdes”. Nadie levantó la mano. La proporción es muy fácil de entender: sesenta a cero.

Este dato me dio para reflexionar. Cuando hablamos de sistemas algorítmicos y de inteligencia artificial (IA) acostumbramos a tratarlos como si no tuvieran impacto medioambiental. Es algo parecido a lo que ocurre con los coches. Hasta hace relativamente poco a la sociedad le interesaba la posibilidad de desplazarse de un sitio a otro sin embargo, pocos se preocupaban por el coste medioambiental de la fabricación del coche y de su contaminación.

Hoy día, muchos son los debates sobre las grandes potencialidades, riesgos e impacto de la IA y de los sistemas algorítmicos pero, por el contrario, son muy escasos los diálogos que se mantienen sobre el impacto medio ambiental que provoca la creación, el entrenamiento y el almacenamiento de estos sistemas y de los datos que ocupan.

Lo ideal sería medir masivamente el estado del debate sobre el impacto medioambiental y de consumo de energía y recursos de los sistemas algorítmicos y de IA y posteriormente incorporarlo al debate general. Así, en los distintos foros y de forma transversal, hablaríamos de transparencia algorítmica, sesgos, alfabetización digital y también de algoritmos verdes en contraposición a los algoritmos rojos (algoritmos que se valoran solo por su rendimiento, aunque su entrenamiento y funcionamiento produzca un consumo energético y de recursos excepcional).

No partimos de cero. Existen grupos de investigación que dedican muchas horas a este problema. Sólo a modo de ejemplo, el Centro de Investigación en Tecnologías de la Información y las Comunicaciones (CITIC) de la Universidad de A Coruña, estudia y analiza la creación de algoritmos verdes.

En este mismo sentido, España ha puesto de manifiesto el problema y el interés para la materia que nos ocupa. Así, a finales de 2022, el Gobierno aprobó el Plan Nacional de Algoritmos Verdes (PNAV) como medida para aprovechar la digitalización e impulsar la transición ecológica. En realidad, ya la misma Ley 7/2021, de 20 de mayo, de cambio climático y transición energética, en su artículo 6c) establecía: “Emplear el potencial de nuevas tecnologías, como la Inteligencia Artificial, para transitar hacia una economía verde, incluyéndose, entre otros aspectos, el diseño de algoritmos energéticamente eficientes por diseño”.

Las herramientas mencionadas nos permiten verificar diferentes aspectos que, en nuestra opinión, pueden resultar de cierto interés. Vamos a empezar por definir y por lo tanto intentar entender el concepto de algoritmo verde especialmente aplicado a la IA. Se trata de algoritmos diseñados para reducir el impacto ambiental de la IA y mejorar su eficiencia energética. Es decir, es necesario crear algoritmos que minimicen la huella de carbono de los sistemas. Esto es posible mediante el uso de técnicas de computación más sostenibles y eficientes, incluyendo la optimización del uso de los recursos y por ende, reduciendo el consumo de energía. Esto sin embargo, no parece ser lo usual y común de las empresas que se dedican a la creación de IA.

Sólo a modo de ejemplo, según el estudio de David Patterson et al., “Carbon Emissions and Large Neural Network Training” (Vid. https://arxiv.org/ftp/arxiv/papers/2104/2104.10350.pdf), el conocido ChatGPT-3, durante su entrenamiento, consumió 1.287 GW/h, que equivale, aproximadamente, al consumo medio anual de unos ciento veinte hogares.

Además, las granjas de servidores en las que se entrenan los algoritmos y se almacenan los datos que los alimentan, necesitan ser refrigeradas debido a las altas temperaturas que alcanzan. La refrigeración se desarrolla a través de agua potable (utilizan también aire siempre y cuando la temperatura exterior no supere los 25º). Recientemente, hemos conocido el caso de la macro granja de servidores de Microsoft en Hollandse Kroon (Países Bajos). Según datos reportados por Microsoft: “refrigeramos nuestros centros de datos holandeses principalmente con aire exterior. Podemos hacerlo aproximadamente el 95% del año, dependiendo de la temperatura in situ”. (Vid. https://bit.ly/45eM0bo short url). Las granjas de servidores no desmienten el uso de agua potable, sin embargo, en el caso mencionado y según el proyecto inicial, Microsoft debería consumir entre 12 y 20 millones de litros de agua potable anuales. En realidad, según señala Techzine, el consumo anual ascendió, en 2021, a 84 millones de litros (84 mil metros cúbicos es decir 33 piscinas olímpicas, Vid. https://bit.ly/3IurJVB short url).

Queda patente la insostenibilidad medioambiental de los sistemas de IA que de manera abrupta consumen grandes cantidades de recursos.

Así, podemos proponer una pregunta: ¿Qué hacer?

El PNAV, como ha sido mencionado anteriormente, introduce ciertas informaciones de interés. Específicamente, establece cuatro ejes estratégicos:

  • Fomentar la investigación en materia de inteligencia artificial verde,
  • Fomentar el uso de infraestructuras y servicios eficientes,
  • Integrar la inteligencia artificial verde y Blockchain en el tejido productivo,
  • Dinamizar el mercado español a través de la inteligencia artificial verde.

El primer escenario asume la importancia de generar conocimiento sobre el tema a través de la multidisciplinariedad y la transversalidad. Debo decir que ésta aproximación no debería ser propia solo de la disciplina que nos ocupa en esta reflexión. Hoy día, deberíamos abordar los distintos temas de investigación de manera holística. Es cierto que en el ámbito de la IA esta aproximación es más novedosa. Los equipos de investigación suelen trabajar por separado (por ejemplo, los ingenieros computacionales en sus laboratorios, los juristas debatiendo en foros jurídicos y los sociólogos reproduciendo sus investigaciones en revistas especializadas). Bien, buenas noticias. Cada vez son más los equipos de investigación que introducen especialistas de diferentes disciplinas y esto sin duda genera un valor añadido a toda la investigación. También es cierto que en este sentido debemos reclamar que a la hora de valorar los proyectos de investigación multidisciplinarios, los evaluadores lo hagan de manera adecuada. En ocasiones, para los evaluadores, un proyecto investigador multidisciplinario pierde atractivo cuando el investigador principal quiere contar con especialistas de un área distinta a la suya y esto es totalmente contrario a lo que quiere implantar el PNAV.

El segundo escenario es uno de los más complejos. Señala el PNAV: “Es necesario, por ello, generar una corriente de autoconsciencia hacia las implicaciones que las decisiones de negocio tomadas en la ejecución de servicios de tecnologías de la información, y más concretamente inteligencia artificial, tienen sobre el medio ambiente, que contribuya a dirigir dichas decisiones a adoptar soluciones cada vez más respetuosas con el medio ambiente”. Quizá sea pesimista pero, sinceramente, apostar por la autoconsciencia medioambiental me parece poco real, por lo menos en este ámbito. En el año 2015, Bruce Tranter y Kate Booth, publicaron un trabajo titulado: “Scepticism in a changing climate: A cross-national study (en Global Environmental Change Vol. 33, July 2015, págs. 154-164 https://bit.ly/2Dayfyd short url). El estudio establece un ranking de escepticismo climático por países. La lista señala:  Australia, donde el 17% de la población niega el cambio climático, seguida de Noruega (15%), Nueva Zelanda (13%) y Estados Unidos (12%). Esto significa que muchas personas, a nivel mundial, son escépticas acerca de la existencia de una relación entre las actuaciones humanas, el medio ambiente y el cambio climático. Los algoritmos son el producto de la actividad humana así que parece poco contundente esperar que personas y empresas produzcan algoritmos más sostenibles cuando no hay unanimidad —aunque evidentemente debería de haberla— sobre las cuestiones medio ambientales. Esto se enfatiza más si consideramos que en algunos países la cuestión medio ambiental no está precisamente entre las prioridades políticas nacionales. Naturalmente el PNAV indica los escenarios de especial aplicación al caso español sin embargo, el cambio climático y las cuestiones medio ambientales trascienden confines de modo que sería necesaria una estrategia supraestatal sobre el tema.  

El tercer escenario entra de pleno en el tejido económico y productivo del país. Para lograr la integración de la inteligencia artificial verde y Blockchain en el tejido productivo, el PNAV señala las acciones necesarias: Integración de la Inteligencia Artificial en las cadenas de valor, desarrollo de misiones I+D+i Green Tech y creación del fondo NextTech. En otras palabras se trata de dotar al sector productivo de partidas económicas suficientes que permitan cambiar el sistema productivo. Sin duda un plan necesario que podrá ser evaluado, positiva o negativamente, a largo plazo.

Por último, el cuarto escenario: los desafíos green. Son competiciones entre personas y equipos de investigación y tienen el propósito de estimular a todos los involucrados para que sigan mejorando sus investigaciones y creen nuevas líneas de investigaciones proactivas. Debo decir que los grupos de investigación siempre intentan mejorarse.

Ahora bien, en nuestra opinión, debatir sobre estos temas plantea, en realidad, un debate más amplio. Esta afirmación parte de una pregunta: ¿necesitamos de todos los algoritmos y sistemas de IA actualmente en producción y uso? En Italia, el pasado 30 de marzo de 2023, el Garante per la Protezione dei Dati (equivalente a la Agencia Española de Protección de Datos), limitó y de alguna manera prohibió temporalmente que se siguiera utilizando el ChatGPT. Los italianos sin duda alguna siguieron con sus vidas y la sociedad siguió adelante sin ningún problema. Existen sistemas de IA que pueden salvar vidas. En el Hospital Universitario Reina Sofía de Córdoba, se utiliza la aplicación de IA Transpara que asigna un valor a las lesiones que se detectan durante una mamografía. A un valor elevado le corresponde un alto porcentaje de que la lesión sea maligna. La máquina consigue detectar lesiones muy pequeñas. Tras la correspondiente biopsia los médicos determinan la malignidad y proceden con el correspondiente tratamiento adelantándose a mayores complicaciones.

Esto hace cuestionarnos acerca de la necesidad de un decrecimiento tecnológico-disruptivo. No se trata de eliminar el avance en materia de IA sino más bien de apostar por la IA que resuelve problemas y que nos hace vivir mejor. Esto implica que quizá ya no necesitaremos de aquellas aplicaciones de IA que se han convertido en una red social más.

No queda muy claro si la popularización de la IA —que en algunos casos se hace pasar como democratización tecnológica—sea en realidad positiva como nos quieren convencer.