Novedades | News

Encienda la nube: Desbloquee los secretos de los centros de datos de Google

 
Logo KW
Encienda la nube: Desbloquee los secretos de los centros de datos de Google
de System Administrator - miércoles, 15 de marzo de 2017, 17:15
Grupo Colaboradores / Partners

Encienda la nube: Desbloquee los secretos de los centros de datos de Google

por Caroline Donnelly

En la conferencia Google Cloud Next de San Francisco, el gigante de la búsqueda en internet abrió sus puertas sobre cómo asegura, opera y prueba el estrés de su creciente flota de centros de datos en la nube.

El gran número de usuarios y servicios que los centros de datos de los gigantes de la nube a hiper escala tienen que soportar ha llevado a muchos proveedores a desgarrar el libro de reglas de diseño sobre cómo distribuir y conectar la enorme cantidad de instalaciones que operan en todo el mundo.

En lugar de construir instalaciones singulares e independientes que son respaldadas en un centro de datos en otro lugar, favorecen la creación de granjas de servidores múltiples, enormes, parecidas a las del campus, que carecen de puntos de falla para protegerse contra el tiempo de inactividad.

Los operadores a hiperscala a menudo optan por hardware hecho a medida diseñado con cargas de trabajo específicas en mente, el cual se compra en grandes cantidades para garantizar –a medida que más usuarios acuden a sus servicios– que tienen una capacidad aparentemente infinita para hacer frente a la demanda.

Durante varios días en la conferencia de Google Cloud Next en San Francisco, el gigante de la búsqueda en internet compartió una serie de ideas claras sobre el trabajo que se lleva a cabo para garantizar que sus propios centros de datos se ejecuten de forma sostenible, eficiente y con un desempeño veloz.

El trabajo de Google en torno a la sostenibilidad de los centros de datos está bien documentado, con 2017 ya vinculado como el año que llegará a su promesa de uso de energía 100% renovable para sus propiedades de centros de datos.

Como lo informó Computer Weekly, publicación hermana de SearchDatacenter en Español, la compañía también se abrió recientemente a hablar sobre cómo utiliza la experiencia de inteligencia artificial de su división Deepmind para reducir los números de la eficiencia de uso de potencia (PUE) de sus flotas de centros de datos.

Otro compromiso que está a punto de cumplir es la promesa de abrir una nueva región de centro de datos por mes durante 2017. En Google Cloud Next, también anunció planes para construir más en los Países Bajos, Canadá y California durante este año y 2018.

En el momento en que éstos estén completos, la compañía tendrá 16 regiones geográficas de centros de datos operando en todo el mundo, compuestas por alrededor de 50 zonas de disponibilidad, así como más de 100 puntos de presencia.

Alojamiento de servicios centrados en el consumidor

Además de impulsar la Google Cloud Platform y sus herramientas de productividad empresarial, G Suite, estos centros de datos son también los mismos que albergan sus servicios centrados en el consumidor, como la búsqueda y YouTube, que forman la columna vertebral de la experiencia de casi todos los usuarios de internet.

Por esta razón, la infraestructura de los centros de datos de la compañía está diseñada para asegurar que los usuarios puedan ser lo más productivos posible en todo momento, dijo Urs Hölzle, vicepresidente senior de infraestructura tecnológica de Google Cloud, durante la conferencia del segundo día.

"Diseñamos cada elemento de nuestra infraestructura para que ustedes puedan ser excepcionalmente productivos y que disfruten del desempeño que creamos", dijo.

"Hay que optimizar cada elemento. Desde centros de datos eficientes hasta servidores personalizados, hasta equipos personalizados de redes hasta una estructura global definida por software, hasta circuitos integrados específicos de aplicaciones (ASIC) especializados para el aprendizaje automático".

La compañía ha invertido $30.000 millones de dólares en los últimos tres años para construir una infraestructura resistente y sensible, que está respaldada por una enorme capacidad de networking.

"Los analistas ponen el tráfico de nuestra red entre el 25-40% del tráfico mundial de usuarios de internet. Como cliente de la solución de buenas prácticas clínicas (GCP) o de G Suite, usted se beneficia de esta red porque su tráfico viaja en nuestro backbone privado de alta velocidad con una latencia mínima", dijo Hölzle.

"Para llevar este tráfico a casi todo el mundo, también tenemos que cruzar los océanos. Hace nueve años, Google se convirtió en el primer operador no-telco en construir un cable submarino. Conectaba a Estados Unidos a Japón, y desde entonces hemos construido o adquirido capacidad de fibra submarina prácticamente en cualquier parte del mundo, por lo que tenemos una columna vertebral redundante en casi cualquier lugar".

Conduciendo el rendimiento del hardware

Joe Kava, vicepresidente de centros de datos de Google, presentó una sesión en el penúltimo día de la feria que ofreció a los asistentes un vistazo tras bambalinas a cómo la compañía construye sus granjas de servidores.

Si bien sería lógico asumir que la compañía debe adoptar un enfoque único para las compilaciones de centros de datos, la verdad no podría ser más diferente, ya que cada ubicación del centro de datos influye enormemente en el diseño y la configuración.

"Hemos promovido y desarrollado avances en sistemas de enfriamiento a base de agua, tales como refrigeración de agua de mar, refrigeración de aguas grises recicladas, captura y reutilización de aguas pluviales, recolección de agua de lluvia, uso de agua de canal industrial y almacenamiento de energía térmica".

"También hemos diseñado centros de datos que no requieren ninguna agua para su enfriamiento en absoluto. En cambio, se enfrían con aire fresco al aire libre. El punto es que no hay un modelo único para todos. La totalidad de nuestros diseños de centros de datos son hechos a medida para sus regiones específicas con el fin de obtener la mejor eficiencia", agregó.

Al igual que muchas otras empresas de nube a híper escala, la compañía favorece el uso de hardware a medida por razones de costo y rendimiento, con Kava haciendo alusión al hecho de que sin hacerlo la compañía tendría dificultades para satisfacer la demanda de sus servicios.

"Casi toda nuestra infraestructura está diseñada a la medida y diseñada específicamente para nuestras propias necesidades de computación, todas trabajando conjuntamente y optimizadas para proporcionar el máximo rendimiento, con el menor costo total de propiedad en cualquier lugar", dijo.

"Nuestros servidores no tienen componentes innecesarios, como tarjetas de video, chipsets o conectores periféricos, que pueden introducir vulnerabilidades, y nuestros servidores de producción ejecutan una versión personalizada de Linux. Nuestros servidores y sistema operativo están diseñados con el único propósito de alimentar solamente los servicios de Google".

Como se mencionó durante la conferencia de prensa del segundo día, la compañía es también el primer proveedor de nube en el mundo que despliega los procesadores Xeon de Intel, conocidos coloquialmente como Skylake, en su infraestructura, con Hölzle aclamando el movimiento como muestra del compromiso de la compañía con las mejoras para el desempeño.

"Estamos empujando el envoltorio en tantas direcciones respecto al rendimiento, lo que significa que tenemos que trabajar de manera muy diferente, y Skylake ofrece un gran rendimiento para las cargas de trabajo de computación intensiva", dijo.

Infraestructuras en la nube personalizadas

Cuando se unió a la compañía hace nueve años, Kava admitió sentirse perplejo de por qué la compañía necesitaba un grado tan alto de personalización en su infraestructura para entregar sus servicios.

"Pronto aprendí que pasamos por un esfuerzo tan extraordinario porque lo que necesitábamos a nuestra escala no existía cuando empezamos", dijo.

"Para lograr los objetivos de rendimiento, eficiencia y precio, tuvimos que construir nuestros propios servidores, así como desarrollar y crear el hardware, el software y la cultura de fiabilidad para hacer que Google tenga éxito".

Desde marzo de 2016, Google ha participado activamente en la iniciativa de Open Compute Project (OCP) respaldada por Facebook, y ha contribuido con diseños relacionados con los sistemas de bastidores de 49 voltios con los que distribuye sus sitios.

"También invertimos mucho en la innovación robótica en nuestros centros de datos. Cada uno de nuestros datacenters tiene entornos totalmente automatizados de borrado de disco que permiten una gestión de inventario más rápida, de mayor rendimiento, más eficiente y mejor", agregó.

Eso no quiere decir que los seres humanos no tienen un papel que desempeñar en mantener las cosas en marcha en el centro de datos de Google, dijo Kava, ya que la organización tiene soporte manual las 24 horas en cada uno.

"Tenemos nuestro propio equipo de Googlers, que han estado íntimamente involucrados desde el diseño, a través de la construcción, puesta en marcha y operaciones. Son los mejores y más brillantes ingenieros y operadores disponibles en cualquier lugar", dijo.

"Muchos de ellos han venido de entornos de misión crítica, como el programa de submarinos nucleares de la marina, donde los errores pueden ser catastróficos. Ellos entienden la misión crítica."

Dada la proximidad del evento de Google con la reciente interrupción del servicio de almacenamiento simple (S3) de Amazon Web Services (AWS) a finales de febrero de 2017, el cual fue ocasionado por un error de entrada de ingeniería, Kava también estaba interesado en señalar cómo la infraestructura de Google está protegida contra errores humanos.

"En el lado de la infraestructura, la norma de la industria es que el error humano explica la abrumadora mayoría de los incidentes", dijo.

"Debido a nuestros diseños y personal altamente calificado, sólo una pequeña fracción de los problemas están relacionados con errores humanos, y ninguno de ellos ha causado tiempo de inactividad en nuestros datacenters".

Bloqueo del centro de datos

Cada vez que los opositores consideran oportuno poner en tela de juicio la seguridad ofrecida por las compañías de nube pública, una réplica común a menudo compara los recursos financieros y de personal que los proveedores tienen a su disposición con los de una organización empresarial más pequeña y cotidiana.

Es un enfoque que Google ha considerado conveniente seguir en el pasado, y un enfoque que Hölzle reforzó durante la conferencia magistral, donde reveló que un centro de datos operado por la empresa tiene 175 guardias de seguridad en servicio 24 horas al día, siete días a la semana.

Esto, a su vez, está respaldado por cámaras, sensores de movimiento, escáneres de iris y sistemas de detección de intrusos basados ​​en láser, los cuales están diseñados para mantener fuera a las personas que no deberían estar allí.

Este compromiso de mantener a la gente afuera se extiende al hardware físico también; Hölzle aprovechó el keynote para presentar el chip Titan de Google, que está instalado en todos los nuevos servidores de centro de datos de la empresa.

"Ponemos un chip de seguridad en todas nuestras nuevas máquinas para servir como base de confianza para la identidad de esa máquina. Este chip está diseñado por Google, y ayuda a proteger a los servidores de la manipulación, incluso a nivel de BIOS", dijo.

"Nos ayuda a autenticar el hardware y, además, nos ayuda a autenticar los servicios, como cuando se llaman entre sí, deben probar mutuamente su identificación".

La compañía también tiene una nueva forma de garantizar que sus defensas de seguridad están a la altura del trabajo, reveló Kava, durante una sesión de preguntas y respuestas al final de su presentación.

Lo que hace la empresa es reclutar encubiertamente a empleados existentes de Google, y les asigna la tarea de romper sus defensas de seguridad del centro de datos para asegurarse de que pueden resistir amenazas internas.

"Si alguien sabe dónde están las debilidades y cómo explotarlas, son sus propios empleados. No le dicen a ninguno de sus colegas que fueron reclutados, y tratan de hacer cosas que no se supone que puedan hacer", dijo.

"Si alguna vez hay una vulnerabilidad expuesta a causa de eso, se corrige en todo el mundo", dijo Kava. "Si nunca hay nuevos exploits encontrados, tal vez baste. Todavía no hemos llegado a ese punto. Siempre hay algo más que podemos hacer."

Link: http://searchdatacenter.techtarget.com