Por años Google ha construido los centros de datos más poderosos y avanzados del mundo, logrando tener uno de los más eficientes en consumo de recursos energéticos. ¿Cómo lo hizo posible? Veamos la tecnología que se encuentra detrás del gigante de internet.
Una de las más grandes innovaciones lograda por Google es la capacidad de poder alimentar al 100% todos sus centros de datos con energía renovable, logrando reducir a cero las emisiones de carbono de sus recursos informáticos, volviéndolo doblemente eficiente reduciendo el consumo de energía y a su vez consumiendo energía limpia.
Por ello cuentan con paneles solares y molinos de viento ubicados alrededor del mundo.
Las cargas de trabajo para el aprendizaje automático requieren de cálculos complejos que consumen mucha energía, para ello Google diseño sus propias unidades de procesamiento tensorial (TPU), es un chip ASIC diseñado desde cero pensado en obtener mayor capacidad de procesamiento a un menor costo energético.
Uno de los principales usos de la energía en un centro de datos es la refrigeración, un centro de datos típico utiliza enfriadores o aire acondicionado, requiriendo un 30% a 70% más de energía, en cambio un centro de datos de Google utiliza un sistema denominado "Free Cooling" donde la planta de enfriamiento recibe agua caliente desde el piso del centro de datos y agua fría de las torres de enfriamiento, transfiriendo el calor residual del agua caliente al agua fría.
El agua enfriada regresa al piso del centro de datos para extraer más calor de los servidores, y el agua caliente fluye a las torres de enfriamiento para enfriarse. Esto les permite utilizar el enfriamiento gratuito proporcionado por el clima.
En algunos centros de datos ubicados en zonas con temperaturas muy bajas, se bombea agua fría de mar a las instalaciones del centro de datos para hacer un intercambio de calor.
Un servidor típico desperdicia hasta un tercio de energía utilizada, antes de que esta energía alcance las partes que realizan la computación real.
La mayor parte de la energía en un servidor se pierde en la fuente de alimentación al convertir el voltaje de corriente alterna a voltaje de corriente continua, luego pierden mucho más en la regulación del voltaje.
Al construir su propio hardware, Google ha logrado mejorar el consumo energético eliminando cualquier componente innecesario de los servidores, como conectores de periféricos, chips y tarjetas de video, manteniendo sólo lo necesario para que las aplicaciones funcionen.
Mediante el uso de reguladores de voltaje altamente eficientes se garantiza que la energía se destine a los componentes que realizan la computación real.
Asimismo cada servidor está diseñado para consumir poca energía cuando espera una tarea, en lugar de acaparar cuando hay menos trabajo por hacer.
Mediante el uso de aprendizaje automático y datos históricos recopilados por miles de sensores dentro de los centros de datos (sensores de temperatura, potencia, velocidades de bombeo, etc), entrenaron un conjunto de redes neuronales para predecir la temperatura y la presión del centro de datos durante las siguientes horas, lo que permite reducir un 40% la cantidad de energía utilizada para la refrigeración.
Recuerde que cuando elige Google Cloud Platform para ejecutar sus aplicaciones o almacenar su información está recibiendo la mayor eficiencia en el uso de los recursos informáticos y a su vez ayudando a reducir las emisiones de carbonos en el medio ambiente.