Si usted contrata una plataforma de streaming cuyo servidor está en la India, su servicio será mucho más lento que si estuviera en Argentina. De eso se trata el Edge Computing, tendencia que gracias al 5G va en alza este año: tener centrales de datos lo más cerca del usuario final; algo que favorece especialmente a industrias como la minería, finanzas y el mundo gamer. Las AWS de Amazon, que están llegando a Chile, son un buen ejemplo.
Hoy día todo está conformado por datos. Desde las más simples imágenes estáticas en internet hasta los videojuegos en línea con la mayor cantidad de acciones en tiempo real. Tratándose de un juego de disparos, cada tiro es información pura y que debe de procesarse en la menor cantidad de tiempo posible para que los cibernautas puedan ver en simultáneo alguna acción ejecutada. Un segundo de demora puede marcar un antes y un después muy negativo. Incluso una fracción de segundo. Y ante eso, las grandes compañías de telecomunicaciones y tecnología están tratando de acercar y acortar cada vez más esa distancia para el usuario final, para que los ciudadanos y empresas puedan tener experiencias mas vívidas en las distintas plataformas, redes y sus propias herramientas. El Edge Computing —computación al borde, en español— es una respuesta a ello; una tendencia que comenzó a tomar vuelo hace unos años. El término alude a un tipo de arquitectura tecnológica que facilita a las distintas compañías procesar y distribuir de mejor manera datos e información. Básicamente, acorta las distancias entre las aplicaciones o herramientas con respecto al dónde están ubicados los repositorios de datos a los que estas deben recurrir. En simple: si hay una plataforma de streaming que tiene su servidor en India, la carga de ese contenido podría demorar más frente versus si ese mismo centro está en Argentina. Pero eso es mucho más notorio cuando se habla de usos o aplicaciones en tiempo real. Sin ir más lejos, si en minería se utilizaran camiones de forma remota para la extracción de minerales o cualquiera sea el caso, lo que se necesita es una latencia ínfima, que permita maniobrar de eficiente y con fluidez, facilitando las operaciones y con ello también tomar mejores decisiones.
Con eso en mente, hacia fines de 2022 Claro empresas anunció su alianza junto a Amazon Web Services para lanzar en Chile las AWS Local Zones en el país, que se suman a una tendencia de expansión de la compañía de Jeff Bezos en distintas zonas de la región desde el trimestre pasado. “Observamos cómo cada vez más nuestros clientes requieren latencias muy bajas, de milisegundos para sus usuarios finales. Por ello la alianza que tenemos con AWS responde a necesidades de compañías de segmentos como la minería, financiera, de petróleo y gas, además de otras como las de entretenimiento y contenido multimedia. Porque lo que permite la infraestructura es acceder a servicios en la nube de forma rápida y local, con la subsiguiente menor latencia. En la práctica, con las AWS Local Zones, los clientes pueden ejecutar fácilmente diversas acciones en la nube, que van desde la creación de contenido multimedia y de entretenimiento hasta sofisticados sistemas de inteligencia artificial para industrias como la financiera, con una conexión segura, y alto ancho de banda”, explica Francisco Guzmán, director de Claro empresas. Pero, ¿Qué es la Computación al Borde? El término, comenta Ginés Guerrero, director e investigador del Laboratorio Nacional de Computación de Alto Rendimiento (NHLPC), se basa en la idea de que el cómputo esté lo más cerca posible de donde se obtienen los datos, y supone un cambio de paradigma que, pudiendo ser complementado con la tecnología Cloud, se presenta como uno de los principales pilares de la industria 4.0.
En los años 60, comenta, se comenzaron a usar los denominados “supercomputadores”, que ofrecían servicios compartidos y centralizados. En las siguientes dos décadas surgieron microcomputadores y PC’s personales, que permitían un uso individual y personalizado. En los noventa ganó fuerza el cómputo en la nube, volviéndose a emplear de forma centralizada en laptops. “A partir de 2010 el uso del término ‘Edge Computing’ ha ido aumentado paulatinamente por la necesidad de ejecutar aplicaciones de manera descentralizada y con mayor velocidad de respuesta que la nube, necesidades que vienen de la mano de los avances en el Internet de las cosas”, dice el experto español. Destaca tres de las principales ventajas: los usuarios y empresas pueden tomar decisiones de forma mucho más rápida, incluso en tiempo real, ya que el cómputo está cerca; si se requiere cómputo adicional, se puede filtrar y reducir el envío de datos; esto último también impacta en la seguridad de estos últimos, puesto que la información sensible podría ser consultada solo de forma local y sin requerir almacenamiento.

Instantaneidad de los datos

Luciano Ahumada, director de la Escuela de Informática y Telecomunicaciones de la Universidad Diego Portales (UDP), recalca que existen algunos casos en que se necesita acceso rápido a los datos. Es ahí donde muchas veces llegar a un data center o servidor, que además está ubicado a muchos centros o países de distancia, puede ser muy costoso en términos del tiempo que se requiere para obtener esa información. “Cuando nos conectamos a internet no llegamos en un solo tramo al servidor donde se alojan esos datos, sino que pasamos por nuevos intermedios: la idea es trabajar datos con la menor cantidad de saltos posibles en aplicaciones que requieran de una respuesta rápida y así tener aplicaciones con baja latencia”, dice el docente de la UDP. En un ejemplo más cercano, plantea que el Edge Computing sería como requerir información, pero que el servidor estuviese “en la pieza de al lado”. “Pero si esa información estuviera en Brasil, van a ser varios saltos o tramos que recorrer para yo poder acceder a esos datos y podría demorar en esa labor”, asegura. El mundo gamer, dice, lo tiene más que claro. “Cuando tratan de jugar en un servidor local, la latencia es mucho menor porque está más cerca, pero si voy a jugar en un servidor internacional, por tener que atravesar muchos saltos, voy a tener problemas al jugar, porque cuando se reciba la señal de que yo ya hice una acción, quizá ya voy a haber perdido”, ejemplifica. Y menciona también el caso en que se controlen vehículos autónomos de forma remota. “Si desde el auto tienen que acceder a una central en Timbuktú, por muy rápida que sea la red o 5G que tengan, igual hay que llegar a unos datos que están lejos y es un tramo muy lento para una decisión que debe ser tomada muy rápida”, comenta.
Sobre el mismo ejemplo, Ginés Guerrero, investigador del NHLPC, dice que ellos deben procesar una gran cantidad de datos, como señales de tráfico, información de otros autos cercanos, obstáculos, etc. “Si estos datos se enviaran a la nube, los tiempos de respuesta provocarían que no fueran viables y, volviendo al punto del 5G y sus bajas latencias de comunicación, la toma de decisiones de estos vehículos se podría potenciar con la información que reciban de otros medios”, acota. Otro ejemplo podría ser el sector de la salud, donde el procesamiento en tiempo real de toda la información relativa a un paciente pueda servir para la detección temprana de ciertos riesgos, afirma. Luciano Ahumada, de la UDP, ejemplifica. “Cuando hablamos de redes 5G que comprometen latencia de un milisegundo, si se hace un ping a un servidor en EE.UU, probablemente será mayor a cien milisegundos y esos tiempos son demasiado altos para ciertas aplicaciones o usos en tiempo real”, propone. “Si uno quisiera hacer una cirugía de forma remota y controlar un robot, no me puedo dar el lujo de tardar unos 200 milisegundos: debe ser un retardo mínimo y la solución está en acercar la red y la nube a las instalaciones del cliente”, desarrolla. Otros sistemas que pueden beneficiarse con el Edge Computing son aquellos que utilicen cámaras de seguridad y que apliquen algoritmos de inteligencia artificial, en plantas industriales donde también se deben tomar acciones para operar maquinaria; en el Internet de las Cosas (IoT) pueden requerirse alarmas o sensores ante alguna situación y todo eso requiere que se almacenen datos. Con el tremendo crecimiento del IoT, se espera que para 2025 el volumen de datos alcance los 175 zettabytes, dice Ginés Guerrero. “Hoy la gran mayoría de datos —alrededor del 90%— son almacenados de forma centralizada y, debido a lo que supone que esa cantidad de datos sea procesada de esa manera, el Edge Computing irá ganando mayor presencia y relevancia”, comenta. Asegura que con la implantación del 5G se potencia esta tecnología, ya que permite conectar más de un millón de dispositivos en un kilómetro cuadrado, a muy baja latencia y altas velocidades.