La demanda de cálculo informático condicionará el futuro de la high-tech


Jamás la humanidad realizó inversiones tan colosales en período de paz como las sumas siderales que consagra al desarrollo de la inteligencia artificial (IA). Después de haber destinado casi 100.000 millones de dólares hasta que comenzó la pandemia de Covid, en 2019, movilizó 91.500 millones en 2022 y otros 89.000 millones en 2023, sin contar las inversiones en infraestructura, según el Human-Centered AI de la Universidad de Stanford. Este año, los cuatro colosos de la alta tecnología (Amazon, Meta, Microsoft y Google) proyectan invertir una nueva fortuna de 200.000 millones de dólares en nuevas instalaciones y servicios básicos, de acuerdo con una previsión del gabinete McKinsey. Esa escalada no terminó. Debido a los precios astronómicos que alcanzan los procesadores especializados, como los que produce el líder de semiconductores Nvidia, solo las inversiones privadas en servers dedicados a la IA aumentarán de 25.000 a 125.000 millones de dólares por año (+500% entre 2022 y 2025).

¿Qué razones explican ese fenómeno? “La demanda de cálculo informático para la IA se multiplicó por un millón en los últimos 6 años y aumenta a un ritmo anual de 10%”, aseguró el CEO de Google, Sundar Pichai, el 14 de mayo. Esa frase induce a pensar en millones de pichones con el pico abierto, inmediatamente después de la eclosión, esperando el momento de saciar su voracidad.

La escalada sin límites lanzada por la IA, especialmente en los últimos 10 años, no se limita a una carrera tecnológica para reducir el volumen de los procesadores y aumentar la capacidad de los semiconductores a fin de responder a la demanda de la industria de criptomonedas y la generalización de la tecnología telefónica 5G. También implica una febril búsqueda tecnológica destinada a lograr algoritmos más eficientes, semiconductores más rápidos y poderosos, y construir nuevos CPD (centros de procesamiento de datos o data centers) menos voraces en energía. Como ninguna revolución tecnológica e industrial tiene un “costo” ecológico neutro, esta vertiginosa transición tampoco está exenta de inconvenientes.

En apariencia, un data center es solo un enorme edificio o un alineamiento de módulos prefabricados que alojan baterías de computadoras gigantes que archivan información crítica y procesan los algoritmos al ritmo de millones de cálculos por segundo. Para asegurar un funcionamiento seguro y eficiente, la American Society of Heating, Refrigerating and Air-Conditioning Engineers (Ashrae) aconseja mantener la temperatura óptima de esas granjas electrónicas en un rango de 24°C ± 2°C.

Se calcula que hasta 2020 el parque mundial de data centers tenía una capacidad de más de 1400 exabytes (un exabyte equivale aproximadamente a mil millones de gigabytes). Su volumen se duplica cada dos o tres años, lo que significa que su capacidad de almacenamiento oscila actualmente entre 4500 y 5600 exabytes. Para visualizar ese volumen solo hay que imaginar que la capacidad de almacenamiento total de los 8000 data centers que existen en el mundo equivale a unos 43.750 billones de smartphones (5468 teléfonos por habitante, incluyendo los bebés).

Como integrantes del sector information technology (IT), los data centers se convirtieron en una de las áreas más dinámicas de la economía mundial. Ese mercado colosal, que en verdad emergió hace menos de 20 años, pesaba 215.800 millones de dólares en 2023 y, según la consultora de mercado Grand View Research, espera un crecimiento anual de 10% de 2024 a 2030. Solo los cinco top players (Amazon Web Services, Microsoft Azure, Google Cloud, Equinix y Digital Realty) tuvieron el año pasado una facturación de 196.000 millones de dólares.

El problema es que ese desarrollo vertiginoso y la demanda previsible para el próximo cuarto de siglo requieren nuevas inversiones y la construcción de gigantescas obras de infraestructura a fin de responder, por ejemplo, a la demanda de electricidad: los data centers consumieron el año pasado entre 800-1000 TWh (teravatios), cifra actualmente equivalente a 1,3% de la demanda mundial de electricidad, según tres fuentes coincidentes: el anuario estadístico de energía de BP, la Agencia Internacional de Energía (AIE) y el Enerdata’s Global Energy Statistical Yearbook. Algunos expertos, sin embargo, desechan esos cálculos de un revés de la mano y estiman que las tecnologías digitales movilizan en realidad el 10% de la producción eléctrica global, y llegarán al 20% antes de 2030. Como el 60% de ese total se origina a partir de energías fósiles, un informe del Foro Económico Mundial (WEF) de Davos estima que la generalización de la inteligencia artificial provocará un salto de las emisiones de efecto invernadero de 6-8% del total mundial en la actualidad a 9-10% en 2030.

El impacto también es muy fuerte, aunque menos visible, durante el proceso industrial. Cuanto más pequeños son los componentes, más significativa es su huella técnica. Fabricar un circuito integrado de 2 gramos requiere –por ejemplo– 32 kilos de materias primas. El Global E-waste Monitor del WEF evaluó que en 2023 la industria de high-tech acumuló 146 millones de toneladas de residuos electrónicos, metales y desechos de producción que son casi imposibles de reciclar. Esa cifra no incluye algunos materiales “invisibles”, como los 1,3 millones de kilómetros de cables submarinos depositados en los fondos oceánicos, por donde transita el 97% del tráfico mundial de internet.

“Lejos de liberarnos de las limitaciones del mundo físico, la tecnología digital nos deja el basurero más gigantesco de la historia, que en gran parte será imposible de reciclar”, escribió John Perry Barlow en Declaración de independencia del ciberespacio, publicado en 1996.

El mayor problema, sin embargo, reside en que el funcionamiento de cada server se convierte en una verdadera estufa que genera hasta 60 grados de calor. Una planta de medianas dimensiones requiere sistemas de refrigeración que exigen un consumo suplementario de energía y unos 600.000 metros cúbicos de agua por año. Gracias a la permanente miniaturización de placas y semiconductores diminutos que desarrollan Nvidia y los otros líderes de la high-tech fue posible, hasta ahora, limitar el consumo eléctrico y la producción de altas temperaturas, que contribuyen a agudizar el calentamiento climático. Esas empresas, además, han comenzado a utilizar un arsenal de nuevos métodos de refrigeración, como el llamado free cooling, el liquid cooling o la inmersión de contenedores en el fondo del océano, un procedimiento inventado por el holandés Asperitas. Gracias al aporte de Naval Group, especialista en tecnologías submarinas, Microsoft hizo una primera experiencia con un cilindro con 864 servidores sumergido a 100 metros de profundidad. El gigante chino Alibaba estudia fondear una parte de sus servidores en aceite. Otras empresas optaron por construir data centers en los países nórdicos para aprovechar sus bajas temperaturas.

La última idea consiste en apelar a la misma tecnología que buscan alcanzar los científicos para refrigerar las computadoras cuánticas, que deben funcionar a temperaturas cercanas al cero absoluto (-273°C). “Refrigerar un data center es una verdadera ciencia. Puede ser que de allí venga la próxima revolución del cálculo informático”, predice Jean-Michel Rodriguez, experto de IBM. Es el gran desafío porque para funcionar, antes que la potencia de cálculo, el futuro de la informática depende –ante todo– de un cable y un enchufe.

Especialista en inteligencia económica y periodista

Conocé The Trust Project

COMENTARIOS