Computación en la nube: aliada necesaria para escalar

En los últimos 15 años, la gente comenzó a escuchar el concepto de Computación en la nube. Los avances tecnológicos, como el auge de los teléfonos móviles «inteligentes» y la última ola de la revolución digital, han provocado que la mayoría de las personas genere mucha información, y que la nube sea el espacio elegido para almacenar todo ese material. tan importante y sensible.

Esto, que para muchos usuarios desprevenidos o casuales puede ser un mero recurso, en realidad es un pilar tecnológico clave para las empresas. Y, sin duda, parte de una tendencia cada vez más creciente.

De acuerdo con él Instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST, según sus siglas en inglés), el acceso a una nube te permite tomar los recursos que están en el hardware, tener esos recursos a pedido de los usuarios, tener una amplia red de acceso a los datos o a la solución, escalar o bajar dinámicamente en función de la necesidad de la demanda de esos recursos y medir todo ese consumo para poder cobrar o pagar esos recursos, según el caso.

¿Qué significa esto para una organización? Implica que, en general, se puede lograr un nivel de automatización de recursosen el propio centro de cómputo, con datos claros de consumo, tanto tecnológico como económico.

Todo ello, con las herramientas que aportan la flexibilidad necesaria para, llegado el momento, trasladar recursos a nubes públicas, como AWS de Amazon, Azure de Microsoft o GCP de Google, entre otros.

Esta acción convierte un nube privada en un híbrido. Así, habrá recursos accesibles, tanto en su propio centro de cómputo como en el de terceros, dando servicio en tiempo real a usuarios y clientes.

La computación en la nube ha estado de moda durante más de una década.

La computación en la nube ha estado de moda durante más de una década.

Nubes para diferentes propósitos.

Una nube híbrida estará compuesta por al menos una nube privada y una nube pública. En otras palabras, podría tener una nube privada, compuesta por uno o más centros de datos, y un proveedor de nube pública, como AWS de Amazon o GCP de Google.

Por su parte, la nube pública es una red de centros de cómputo distribuidos en muchos lugares, con una capacidad de crecimiento constante y, para los clientes, ilimitada.

El concepto de nube híbrida empieza a cobrar más protagonismo frente al resto de clasificaciones y muchos expertos consideran que 2023 será el año de su explosión.

Las razones son varias: las empresas hicieron grandes inversiones de dinero, tiempo y capacitación en infraestructura localdentro de sus propios centros de datos, y eso implica que tendrán la posibilidad de segmentar las operaciones entre ambos entornos, aprovechando así la inversión ya realizada dentro de sus propios espacios, más la potencia, escalabilidad y flexibilidad de una nube pública.

¿Cuándo implementar una nube híbrida?

Puede haber diferentes razones para optar por un modelo de nube híbrida; desde bajar el consumo de recursos y costos operativos, o tener la capacidad de escalar con los recursos de hardware de los centros de datos distribuidos en el mundo de las empresas que brindan servicios en la nubey solo paga por ese consumo en tiempo real.

Es decir, que, ante una necesidad de mayor consumo de recursos, que no es constante pero sí frecuente y esperada, podemos tener que capacidad de escalar rápidamente y pagar los costos de esa escalada específica.

Hay diferentes tipos de computación en la nube.

No es como en otros tiempos en los que hubiera sido necesario salir a comprar nuevo hardware que, al final, estaría inactivo durante muchas horas y/o días.

éste es uno de principales beneficios de una nube pública: pague sobre la marcha, escale según la demanda y, una vez satisfecha esa demanda, no pague más hasta que vuelva a necesitarla.

Soluciones que se pueden subir a nubes híbridas

En la práctica, casi todo se puede subir a la nube. Eso no quiere decir que sea lo correcto, ya que, por ejemplo, subiendo grandes aplicaciones monolíticas y ingentes volúmenes de datos o de procesamiento necesarios para las mismas, nos podemos encontrar pagando cantidades desorbitadas de dinero.

Y no solo la cuestión de los costes, también estaríamos llevándonos a la nube viejos problemasdiseños antiguos y/o falencias que por estar en nuestro propio centro de datos se acumularon con el tiempo, encareciendo e ineficientemente la experiencia en la nube.

El modulación y distribución de nuestras aplicaciones y la reorganización del consumo de recursos nos dará la posibilidad de subir rápidamente a la nube partes o aplicaciones enteras gracias a las ventajas que ya hemos enumerado, con mejoras en costes y recursos y capacidad de escalar bajo demanda, para ofrecemos disponibilidad constante de nuestros servicios.

Para una aplicación exitosa, es clave concentrarse en DevOps y Metodologías ágiles de desarrollo. De lo contrario, nos encontraríamos con muchos problemas al tratar de administrar esos recursos con estructuras de administración en silos. En definitiva, estaríamos multiplicando nuestros problemas operativos en lugar de solucionarlos.

Rodrigo Garay.

En el aspecto técnico, se puede afirmar que si nuestras aplicaciones son contenidas, automatizadas y escalables con Kubernetes o turno abierto, que funcionan tanto on-premise como en la nube, sabremos disponer y acceder a nuestros datos con distintos tipos de bases de datos, relacionales y no relacionales. Todo esto sumado nos da una buena oportunidad de tener una nube privada y movernos hacia y desde la nube pública sin demasiados problemas.



Con información de Telam, Reuters y AP

Salir de la versión móvil