Tener modelos más pequeños y mejores chips y apostar por la energía renovable son factores que ayudan. Pero también lo hace utilizar la IA sólo cuando es necesario.
Reguladores, inversores, clientes e incluso empleados presionan a las empresas para que minimicen el impacto climático de sus iniciativas de IA. Todo puede ayudar, desde los centros de datos geotérmicos hasta las unidades de procesamiento gráfico (GPU) más eficientes. Pero los usuarios de IA también deben superar el impulso de utilizar los modelos de IA más grandes y más poderosos para resolver todos los problemas si realmente quieren luchar contra el cambio climático.
La preocupación de que la IA contribuya al calentamiento global surge de las estimaciones de que las GPU utilizadas para desarrollar y mantener en funcionamiento los modelos de IA consumen cuatro veces más energía que las que sirven a las aplicaciones convencionales en la nube, y que la IA podría estar en camino de consumir tanta electricidad como Irlanda.
En respuesta a esta situación, los reguladores de Europa y EE.UU. están exigiendo a los grandes usuarios de IA que informen sobre su impacto ambiental. Las agencias de calificación crediticia y los clientes están prestando más atención a las cuestiones medioambientales, sociales y de gobernanza (ESG), como las emisiones de carbono, afirma Faith Taylor, vicepresidenta de sostenibilidad global y responsable de ESG en el proveedor global de servicios de infraestructura Kyndryl. Además, la portavoz afirma: «Los empleados, sobre todo los de la generación más joven, dicen que no van a trabajar en una empresa que no tenga ciertos objetivos medioambientales. Lo vemos como un factor de contratación y retención».
En este contexto en el que los esfuerzos en pro de la sostenibilidad se convierten en una prioridad, aportamos cuatro formas de que las empresas racionalicen sus esfuerzos en materia de IA.
Utilizar procesos y arquitecturas más eficientes
Boris Gamazaychikov, director senior de reducción de emisiones del proveedor de SaaS Salesforce, recomienda utilizar modelos de IA especializados para reducir la potencia necesaria para entrenarlos. «¿Es necesario que un modelo que también puede escribir un soneto escriba código para nosotros?», se pregunta. «Nuestra teoría es que no. Nuestro enfoque ha sido crear modelos específicos para casos de uso concretos en lugar de un modelo de propósito general.»
También recomienda recurrir a la comunidad de código abierto en busca de modelos que puedan preentrenarse para diversas tareas. Como ejemplo, cita Llama-2 de Meta, del que dice que se han creado más de 13.000 variantes. «Todos esos 13.000 nuevos modelos no requirieron ningún preentrenamiento», afirma. «Piense en la cantidad de ordenadores y carbono que eso ha ahorrado». El equipo de investigación de IA de Salesforce también ha desarrollado métodos como el paralelismo máximo, añade, que divide las tareas de cálculo intensivo de forma eficiente para reducir el uso de energía y las emisiones de carbono.
En lugar de entrenar el modelo con todos los datos de aprendizaje a la vez, Salesforce lo hace en múltiples «épocas» en las que una parte de los datos se modifica ligeramente en cada una basándose en los resultados del entrenamiento anterior. Esto supone una reducción del consumo de energía, afirma.
Algunos hiperescalares ofrecen herramientas y consejos para hacer la IA más sostenible, como Amazon Web Services, que ofrece recomendaciones sobre el uso de tecnologías sin servidor para eliminar recursos ociosos, herramientas de gestión de datos y conjuntos de datos. AWS también tiene modelos para reducir el procesamiento y almacenamiento de datos, y herramientas para «dimensionar correctamente» la infraestructura para la aplicación de IA. Si se utilizan correctamente, estas herramientas pueden ayudar a minimizar los recursos informáticos necesarios para la IA y, por tanto, su impacto medioambiental.
Utilizar menos datos
Reducir el tamaño del conjunto de datos utilizado para entrenar un modelo es una de las formas más eficaces de minimizar el uso de energía y las emisiones de carbono que conlleva la IA. «Se puede reducir el tamaño de muchos modelos de IA en un orden de magnitud, y sólo se pierde entre un dos y un tres por ciento de precisión», afirma la profesora Amanda Stent, directora del Instituto Davis de Inteligencia Artificial del Colby College. «Estas técnicas son bien conocidas, pero no se utilizan tanto como podrían porque la gente está enamorada de la idea del tamaño». También está la cuestión de toda la atención que han recibido los modelos masivos en la prensa.
Gamazaychikov afirma que la última versión del modelo CodeGen de Salesforce, que permite a los usuarios generar código ejecutable mediante lenguaje natural, funciona igual de bien que modelos del doble de su tamaño. Como regla general, afirma que una reducción del tamaño del 50% supone una reducción equivalente de las emisiones de carbono.
En el servicio de streaming de vídeo y música Plex, el jefe de ciencia de datos Scott Weston reduce el tamaño de sus datos de entrenamiento centrándose en una necesidad específica. «No sólo queremos encontrar a los usuarios que se suscribirán o abandonarán la plataforma, sino a los que deberían suscribirse y cómo asegurarnos de que lo hacen», afirma. La formación de modelos es más sencilla porque el conjunto de datos está más centrado y circunscrito al problema empresarial concreto que trata de resolver, añade. «Además, el entorno sale ganando porque no tenemos que utilizar toda esta informática adicional para entrenar los modelos», indica.
Weston utiliza el modelado ascendente, ejecutando una serie de pruebas A/B para determinar cómo responden los clientes potenciales a diferentes ofertas, y luego utiliza los resultados de esas pruebas para construir el modelo. El tamaño de los conjuntos de datos está limitado por cuestiones empresariales. «Tenemos cuidado al realizar pruebas de gran tamaño, ya que no queremos interrumpir el flujo de comunicación habitual con nuestros clientes».
Utilizar energía renovable
Alojar las operaciones de IA en un centro de datos que utilice energía renovable es una forma sencilla de reducir las emisiones de carbono, pero no está exenta de contrapartidas.
El servicio de traducción online Deepl realiza sus funciones de IA desde cuatro instalaciones de coubicación: dos en Islandia, una en Suecia y otra en Finlandia. El centro de datos islandés utiliza energía geotérmica e hidroeléctrica 100% renovable. El clima frío también elimina el 40% o más de la energía total del centro de datos necesaria para refrigerar los servidores, ya que abren las ventanas en lugar de utilizar aire acondicionado, dice Guido Simon, director de ingeniería de Deepl. El coste es otra gran ventaja, afirma, con precios de cinco céntimos por KW/hora frente a los 30 céntimos o más de Alemania.
La latencia de la red entre el usuario y un centro de datos sostenible puede ser un problema para las aplicaciones sensibles al tiempo, dice Stent, pero sólo en la fase de inferencia, en la que la aplicación proporciona respuestas al usuario, y no en la fase de entrenamiento preliminar.
Deepl, con sede en Colonia (Alemania), descubrió que podía ejecutar tanto la formación como la inferencia desde sus instalaciones remotas de coubicación. «Nos encontramos con unos 20 milisegundos más de latencia en comparación con un centro de datos más cercano», afirma Simon. «Durante el proceso de inferencia, realizar la conexión inicial con el motor de IA puede llevar 10 viajes de ida y vuelta, lo que supone aproximadamente un retraso de 200 a 300 milisegundos debido a la distancia, pero se puede optimizar la aplicación para reducir ese tiempo inicial».
La velocidad de la conexión a Internet del sitio remoto puede, por supuesto, mitigar los problemas de latencia. Verne Global Iceland, uno de los proveedores islandeses de Deepl, afirma ser el sitio de interconexión de todos los sistemas de cable submarino hacia y desde Islandia, con conectividad de fibra redundante y de alta capacidad a Europa y Estados Unidos.
Otra consideración, dice Stent, es si un centro de datos «renovable» utiliza las últimas y más eficientes GPU o unidades de procesamiento tensorial (TPU). Si no es así, puede acabar consumiendo más energía que un centro de datos convencional, pero más moderno. Sin embargo, esto no es un problema para Deepl, ya que alberga sus propios servidores «de última generación» en sus instalaciones de coubicación, afirma Simon.
No utilizar la IA en absoluto
Aunque la IA genera expectación entre empleados y clientes, puede resultar excesiva si existen otros enfoques más fáciles de aplicar y con menor impacto en el medio ambiente. «Pregunte siempre si la IA/ML es adecuada para su carga de trabajo», recomienda AWS en sus directrices de sostenibilidad. «No hay necesidad de usar IA computacionalmente intensiva cuando un enfoque más simple y sostenible podría tener éxito igual de bien. Por ejemplo, usar ML para enrutar mensajes IoT puede no estar justificado; puedes expresar la lógica con un motor de reglas».
Además de las consideraciones medioambientales, Plex no puede dedicar millones de dólares a la formación de los modelos más grandes. «Se trata de ser creativo y asegurarte de que lo piensas todo y no te limitas a invertir dinero en el problema», afirma Weston.
La empresa de juegos online Mino Games utiliza DataGPT, que integra análisis, una base de datos en caché y procesos de extracción, traducción y carga (ETL) para agilizar las consultas, como qué nuevas funciones ofrecer a los jugadores. Diego Cáceres, responsable de análisis de datos, pide cautela a la hora de utilizar la IA. «Plantee el problema de negocio con cuidado y determine si unas simples matemáticas son lo suficientemente buenas», afirma.
Retos pendientes
Además del coste de implementar IA sostenible dentro de una carga de trabajo distribuida basada en la nube, averiguar qué carga de trabajo está consumiendo energía es un problema, afirma Yugal Joshi, socio de la consultora Everest Group. Como resultado, dice, la mayoría de las empresas se centran primero en los resultados empresariales de la IA, y sólo después en la sostenibilidad.
Otro reto, según Gamazaychikov, de Salesforce, es obtener información de los desarrolladores sobre la huella de carbono de sus modelos básicos de IA. Con una mayor regulación de fuentes como la Unión Europea y la Comisión del Mercado de Valores de EE.UU., «si las empresas no revelan ya las cifras, tendrán que empezar a hacerlo pronto», asegura.
Otra es el atractivo de los espectaculares avances de la IA, sea cual sea el coste para el medio ambiente. «Algunas empresas dicen ‘quiero ser sostenible’, pero también quieren ser conocidas por la excelencia de su IA, y sus empleados quieren hacer algo transformador», afirma Stent, del Colby College. «Hasta que las presiones financieras obliguen a sus esfuerzos de IA a ser más eficientes», dice, «siempre habrá algo que les alejará de la sostenibilidad«.
Fuente: https://www.ciospain.es/liderazgo–gestion-ti/cuatro-caminos-hacia-la-ia-sostenible