El cerebro de Gemini: Así funciona la vanguardista infraestructura de IA de Google con TPUs y un enfoque en la sostenibilidad (+CARACTERISTICAS)


 La infraestructura detrás de Google Gemini es un pilar fundamental de la estrategia de inteligencia artificial de Google. Su funcionamiento se distingue por el uso de hardware especializado y un enfoque intensivo en la eficiencia energética, todo dentro de una vasta red global de centros de datos. Gemini, el modelo de IA más avanzado de Google, es un testimonio de la innovación en el procesamiento de datos a gran escala y la sostenibilidad.




Funcionamiento y Procesadores: La clave de las TPU

El corazón del rendimiento de Gemini reside en el hardware personalizado de Google, diseñado específicamente para cargas de trabajo de IA: las Unidades de Procesamiento Tensorial (TPU).

  • TPU (Tensor Processing Units): A diferencia de otros modelos de IA que se basan principalmente en las GPU (Unidades de Procesamiento Gráfico) de empresas como NVIDIA, Gemini fue entrenado completamente en los chips de IA propietarios de Google. Las TPU son circuitos integrados específicos para aplicaciones (ASIC) diseñados desde cero para ejecutar las complejas matemáticas de machine learning y deep learning de forma mucho más rápida y eficiente que las CPUs y GPUs tradicionales para estas tareas.

  • Ventaja en Eficiencia: Las TPU están optimizadas para el entrenamiento y la inferencia de modelos grandes (como Gemini), lo que permite a Google operar sus capacidades de procesamiento de IA con una mayor eficiencia energética y, según estimaciones de analistas, a un costo inferior en comparación con infraestructuras basadas en GPU.

  • Escalabilidad (Pods): Para entrenar un modelo masivo como Gemini, Google utiliza "pods" de TPUs, que son clusters de miles de chips TPU estrechamente integrados que trabajan en conjunto a través de un sistema de interconexión de alta velocidad y baja latencia (ICI o Inter-Chip Interconnect), permitiendo una escalabilidad masiva.

  • Gemini y la Multimodalidad: La arquitectura de Gemini, siendo un modelo multimodal, requiere esta infraestructura especializada para procesar e interconectar eficientemente texto, imágenes, código y otros tipos de datos de forma simultánea.


↓ Continúa la lectura ↓


TE PUEDE INTERESAR: ¡Meta le gana la partida! Threads supera a X (Twitter) de Elon Musk en usuarios activos diarios


Consumo y Sostenibilidad: El costo de cada consulta

Google ha comenzado a revelar datos específicos sobre el consumo energético de sus modelos de IA, incluido Gemini, en el contexto de la sostenibilidad:

  • Consumo de Electricidad: Según un informe de Google, una consulta de texto o un prompt a Gemini consume aproximadamente 0,24 vatios-hora (Wh) de electricidad. Esto es comparable al consumo de un microondas encendido durante un segundo o ver nueve segundos de televisión en un aparato tradicional.

  • Consumo de Agua: Google también ha revelado que una consulta a Gemini consume el equivalente a unas cinco gotas de agua. Esta agua se utiliza principalmente para enfriar los centros de datos, aunque Google implementa estrategias de enfriamiento consciente del clima y busca reponer más agua de la que consume.

  • Eficiencia de Centros de Datos: Google opera sus centros de datos con una eficiencia energética superior al promedio de la industria. Su flota global tiene un PUE (Power Usage Effectiveness) promedio bajo (alrededor de 1,09), lo que significa que utiliza menos energía de la red para tareas no informáticas (como refrigeración e iluminación) por cada unidad de energía utilizada para alimentar el hardware (TPUs, servidores, etc.).

  • Energía Libre de Carbono: Google tiene el objetivo de operar con energía libre de carbono (CFE) las 24 horas del día, los 7 días de la semana, en todas sus regiones para 2030, y continuamente trabaja en la reubicación de cargas de trabajo de cómputo a momentos y lugares donde las fuentes de energía libre de carbono (solar, eólica, etc.) están más disponibles en la red local.


Gemini

Localidades de Servidores

Gemini, al ser un servicio global de Google, se ejecuta y se entrena en la vasta red global de centros de datos de la compañía, así como en su infraestructura de Google Cloud.

  • Centros de Datos Globales: Google opera múltiples centros de datos a gran escala a nivel mundial. Las ubicaciones exactas y el número de servidores específicos dedicados a Gemini no se revelan por seguridad y estrategia, pero la infraestructura se extiende por continentes clave:

    • América del Norte: Ubicaciones clave en EE. UU. (ej. Iowa, Carolina del Sur, Oregon, Virginia) y Canadá.

    • Europa: Ubicaciones en países como Finlandia, Bélgica y Países Bajos.

    • Asia: Ubicaciones en Singapur, Taiwán y Japón.

    • América del Sur: Ubicaciones en Chile.

  • Google Cloud Regions: Los servicios de Gemini también están disponibles para desarrolladores a través de Google Cloud (Vertex AI), utilizando las regiones de la nube de Google, que se encuentran distribuidas geográficamente para garantizar baja latencia y el cumplimiento de regulaciones de datos locales.

En resumen, Google Gemini se apoya en una infraestructura de vanguardia centrada en sus TPUs personalizadas para lograr un alto rendimiento con una notable eficiencia energética. Esta infraestructura está distribuida globalmente a través de los centros de datos y regiones de Google Cloud, con un fuerte enfoque en la sostenibilidad para mitigar el impacto ambiental del creciente consumo de energía de la IA, una ambición tecnológica tan impresionante como el nuevo puente más alto del planeta en China.




↓ Sigue más contenido ↓



 
Paperblog