Inicio / Tecnología / “Mejor cuanto más cerca”: la nueva filosofía en el procesamiento de datos

“Mejor cuanto más cerca”: la nueva filosofía en el procesamiento de datos

Frente a la tendencia habitual de enviar la información recogida por sensores, robots o cámaras de seguridad a gigantescos centros de datos, las empresas comienzan a apostar por analizarlos cerca de donde se generan, lo que permite mejoras en tiempo, costes y seguridad.

Frente a la tendencia habitual de enviar la información recogida por sensores, robots o cámaras de seguridad a gigantescos centros de datos, las empresas comienzan a apostar por analizarlos cerca de donde se generan, lo que permite mejoras en tiempo, costes y seguridad.

Archivo EFEfuturo. Un espejo refleja una pantalla de ordenador que muestra un código binario. EFE/RITCHIE B. TONGO

Es lo que se conoce como “edge computing” o computación en el borde, es decir, que el procesamiento se haga en servidores próximos al dispositivo, lo que cobra importancia en un mundo como el actual, donde en 2020 habrá, según la consultora Gartner, 20.000 millones de objetos conectados y la información transmitida crecerá exponencialmente.



La rapidez, clave del ‘edge computing’


“Uno de los motivos claves para implementar esta tecnología es la rapidez. Cada vez necesitamos tiempos de respuesta más cortos. Si cuando quiero que me responda la aplicación, está muy lejos de donde me estoy conectando, al final hay un retardo”, explica a Efe la directora de Estrategia Corporativa de Redes Móviles en Nokia, Gloria Touchard.


“La mayor ventaja es la posibilidad de hacer mucho más eficiente y seguro el procesamiento y la toma de decisiones en tiempo real, sin depender de agentes externos como conectividad, almacenamiento o procesamiento que son, por definición, limitados para el volumen de dispositivos a los que hay que dar servicio”, apunta Ulises Arranz, director gerente en Accenture Digital.


Esa rapidez, clave para el desarrollo de tecnologías como el Internet de las Cosas (IoT) o la realidad virtual, es básica en servicios como la conducción autónoma, las operaciones quirúrgicas en remoto o la producción industrial en fábricas automatizadas.




Se trata, por ejemplo, de que la imagen de un semáforo no tenga que viajar, ida y vuelta, hasta el centro de datos que tiene una compañía en otro continente para que un algoritmo de identificación interprete que está en rojo y el coche sepa que debe detenerse, sino que ese procesamiento de la información se haga de forma local.



O que la producción en una planta industrial no se pare porque al sistema de reconocimiento de los objetos que pasan por una cinta transportadora no le da tiempo a hacerlo antes de que pase el siguiente objeto, explica el director de Estrategia de Ericsson España, Iván Rejón.


Pero hay más beneficios, como la reducción del ancho de banda requerido para transmitir los datos y, en consecuencia, del coste del transporte, lo que es relevante en caso de señales pesadas, como pueden ser las imágenes o el vídeo.



Más operativo y seguro


Si se piensa en las imágenes captadas por cámaras de seguridad para vigilar la llegada de narcotraficantes a una playa, resulta muy caro e inoperativo enviar toda la grabación, pero el “edge computing” permite filtrarla en origen, con algoritmos de reconocimiento de imagen, y transmitir al centro de datos sólo lo relevante, por ejemplo, cuando comienza a llegar una lancha.




Netflix, por su parte, cuenta ya con miles de pequeños servidores donde almacena el contenido más visto en cada región para reducir la distancia entre sus usuarios y el contenido, explica Arranz.



El “edge computing” también permite abaratar algunos equipos, como pueden ser los robots de un centro logístico cuya capacidad de procesamiento de la información para tomar decisiones en tiempo real dispara su coste, que puede reducirse trasladando parte de esa inteligencia a un servidor próximo.


Otra de las ventajas es el aumento de la seguridad, que por defecto es mayor cuanto más corto es el camino que tienen que recorrer los datos.


El uso de esta tecnología es aún incipiente y los expertos prevén que su adopción masiva irá de la mano del 5G, que reduce la latencia al entorno del milisegundo, lo que debe ir acompañado de rapidez en el procesamiento.


“Imagina un doctor que está operando de forma remota: no sólo la capa de la transmisión debe ser rápida, también el procesamiento de la información. Y eso no lo cubre el 5G, sino que depende del ‘edge computing'”, explica Aitor García, del equipo de Radio de Vodafone.


Una vez desarrollado, el analista de IDC Gabriele Roberti estima que esta tecnología beneficiará a todos los sectores, desde la industria y la salud a la distribución y la banca.


Un sector especialmente interesado en su desarrollo es el de las de las telecomunicaciones, ya que las operadoras cuentan con la ventaja de tener “emplazamientos justo donde hace falta”, como destaca Tourchard, y ven en el edge computing una nueva vida para sus tradicionales centrales.

(Sin votaciones)
Cargando…