Si bien ya se conocen muchos aspectos del edge computing, el
panorama general continúa evolucionando rápidamente. Por ejemplo,
el “edge computing” abarca los sistemas distribuidos de las sucursales
de tiendas minoristas que han existido durante décadas. Este término
también comprende todo tipo de sistemas informáticos locales de
fábricas y proveedores de telecomunicaciones, aunque de una manera
más conectada y menos propietaria de la que solía predominar.
El edge computing ayuda a los líderes empresariales y de TI a
resolver problemas a medida que proliferan los datos provenientes de
los sensores y del machine learning.
Sin embargo, aunque en algunas implementaciones de edge
computing se perciban rastros de antiguas arquitecturas, también se
observan tendencias del edge en desarrollo que son verdaderamente
nuevas o al menos muy diferentes de lo que existía anteriormente.
Estas tendencias están ayudando a los líderes empresariales y de TI a
resolver problemas en sectores que van desde el de
telecomunicaciones al automotriz a medida que proliferan los datos
provenientes de los sensores y el machine learning.
Las tendencias del edge computing que debería
tener en cuenta
Los expertos en edge analizan seis tendencias a las que los líderes
empresariales y de TI deberían prestar atención en 2022:
- Las cargas de trabajo en el edge aumentan
Uno de los cambios importantes que estamos viendo es que, en el
edge, hay más informática y más almacenamiento. A menudo los
sistemas descentralizados existían más para disminuir la dependencia
de los enlaces de red que para realizar tareas que no podían hacerse
en la práctica en una ubicación central mediante comunicaciones
razonablemente confiables. Pero eso está cambiando.
El IoT, por definición, siempre ha involucrado la recolección de datos.
No obstante, lo que supo ser un goteo se ha convertido en un aluvión
dado que los datos que necesitan las aplicaciones de machine
learning (ML) fluyen de un sinnúmero de sensores. Pero aun cuando
los modelos de entrenamiento se desarrollen con frecuencia en un
centro de datos centralizado, la aplicación continua de esos modelos
generalmente se traslada al borde de la red. Esto reduce los requisitos
de ancho de banda de la red y permite accionar más rápidamente a
nivel local, como apagar una máquina en respuesta a una lectura
anómala de un sensor. El objetivo es aportar información para adoptar
medidas en el momento preciso.
- RISC-V va ganando terreno
Se sabe que las cargas de trabajo que hacen un uso intensivo de los
datos y los recursos informáticos necesitan hardware en el cual
ejecutarse. Los rasgos específicos varían en función de la aplicación y
del equilibrio requerido entre rendimiento, potencia y costo, entre
otros. Las opciones suelen circunscribirse a algo personalizado, ARM
o x86. Ninguna es del todo abierta, aunque ARM y x86 con el tiempo
han desarrollado un enorme ecosistema de hardware y software de
soporte impulsado, en gran parte, por los principales diseñadores de
componentes de procesadores.
Pero RISC-V es una arquitectura de conjunto de instrucciones de
hardware abierta nueva e intrigante.
¿Por qué es intrigante? Así lo explica Yan Fisher, evangelizador global
de tecnologías emergentes de Red Hat: “Lo que distingue a RISC-V es
que su proceso de diseño y su especificación son genuinamente
abiertos. Su diseño refleja las decisiones de la comunidad basadas en
la experiencia y la investigación colectivas.”
Este enfoque abierto y el ecosistema activo que lo acompaña ayudan
a promover las ventajas del diseño de RISC-V en todos los sectores.
Calista Redmond, CEO de RISC-V International, comenta lo siguiente:
“Con este giro hacia el edge computing, observamos una gran
inversión en RISC-V en todo el ecosistema, desde empresas
multinacionales como Alibaba, Andes Technology y NXP hasta
empresas emergentes como SiFive, Esperanto Technologies y
GreenWaves Technologies, que diseñan soluciones RISC-V
innovadoras para el edge y la AI”. - Las redes de acceso de radio virtuales (vRAN)
han pasado a ser un caso de uso del edge cada
vez más importante
Como parte de las implementaciones de 5G, las operadoras están
optando por un enfoque vRAN más flexible.
Una red de acceso de radio es responsable de habilitar y conectar
dispositivos como smartphones o dispositivos del Internet de las
Cosas (IoT) con una red móvil. Como parte de las implementaciones
de 5G, las operadoras están optando por un enfoque vRAN más
flexible en el cual los componentes lógicos importantes de la RAN se
desagregan mediante el desacople del hardware y el software y
también mediante el uso de tecnología de nube para lograr una
colocación de cargas de trabajo, implementaciones y escalamientos
automatizados.
Hanen Garcia, gerente de soluciones de telecomunicaciones de Red
Hat, e Ishu Verma, evangelizadora de tecnologías emergentes de Red
Hat, observan lo siguiente: “Un estudio indica que la
implementación de soluciones de RAN virtuales (vRAN)/Open RAN
(oRAN) logran reducir el costo total de propiedad de la red hasta en un
44% en comparación con las configuraciones de RAN
distribuidas/centralizadas tradicionales.” Además: “A través de esta
modernización, los proveedores de servicios de comunicaciones
(CSP) pueden simplificar las operaciones de red e incrementar la
flexibilidad, disponibilidad y eficiencia, al mismo tiempo que prestan
servicio a un número de casos de uso cada vez mayor. Las soluciones
de RAN nativas de la nube y de los contenedores reducen los costos,
simplifican las actualizaciones, las modificaciones y la capacidad de
escalarse horizontalmente, con menos dependencia del proveedor que
con las soluciones basadas en máquinas virtuales”.
- La escalabilidad impulsa enfoques operativos
Una arquitectura de edge computing puede diferir de una arquitectura
que solo se implementa dentro del recinto de un centro de datos en
muchos aspectos. Los dispositivos y las computadoras pueden tener
una seguridad física endeble y no contar con personal de TI en el
lugar. La conectividad de la red puede no ser confiable. No se
garantiza tener un buen ancho de banda o baja latencia. Pero muchos
de los desafíos más apremiantes tienen que ver con la escalabilidad;
pueden existir miles (o más) de puntos finales de red.
“Hay que estandarizar sin piedad y minimizar la superficie operativa”.
Kris Murphy, ingeniero de software sénior principal de Red Hat,
identifica cuatro pasos básicos que se deben dar para manejar la
escalabilidad: “Hay que estandarizar sin piedad, minimizar la superficie
operativa, priorizar los pulls por sobre los pushes y automatizar las
pequeñas cosas”.
Por ejemplo, Kris recomienda hacer actualizaciones transaccionales,
es decir, atómicas, para que el sistema no termine actualizándose
parcialmente y quede mal definido. Al realizar actualizaciones,
conviene que sean los puntos finales los que soliciten las
actualizaciones dado que es más factible que haya “conectividad de
salida” disponible. También sugiere limitar las cargas máximas no
realizando las actualizaciones al mismo tiempo.
[ ¿Desea conocer más sobre la implementación del edge
computing? Lea el blog: Cómo implementar una infraestructura
de edge de manera escalable y mantenible. ]
- El edge computing necesita certificación
En vista de los escasos recursos disponibles en el borde, las opciones
pragmáticas que se deben tener en cuenta son las que requieren
pocos o nulos recursos locales. Una vez más, el enfoque que se
adopte debe ser sumamente escalable, de lo contrario, sus usos y
beneficios se verían muy reducidos. Una de las opciones que se
destaca es el proyecto Keylime. “Se debería tener en cuenta las
tecnologías como Keylime, capaces de verificar que los dispositivos
informáticos arranquen y continúen en un estado de funcionamiento
confiable en función de las necesidades, para las grandes
implementaciones, especialmente en entornos con recursos limitados”,
dice Ben Fischer, evangelizador de tecnologías emergentes de Red
Hat.
Keylime ofrece la certificación de arranque remoto y de tiempo de
ejecución mediante una Arquitectura de Medición de Integridad (IMA)
y utiliza los Módulos de Plataforma Confiables (TPM) que son
comunes a las placas madres de la mayoría de las laptop, desktop y
servidores. De no haber TPM de hardware, se pueden cargar TPM
virtuales o vTPM que aporten la funcionalidad TPM necesaria. La
certificación de arranque y de tiempo de ejecución es la forma de
verificar que el dispositivo de borde arranque hasta alcanzar un estado
confiable conocido y lo mantenga durante su funcionamiento. En otras
palabras, si ocurre algo imprevisto, como un proceso fraudulento, el
estado previsto cambiará. Esto se verá reflejado en la medición y
desconectará el dispositivo porque habrá asumido un estado no
confiable. Este dispositivo será objeto de investigación, tras la cual se
lo corregirá y pondrá nuevamente en funcionamiento en un estado
confiable. - La computación confidencial es más
importante en el borde
Más información sobre el edge computing
Cómo explicar el edge computing en lenguaje sencillo
Edge computing versus cloud computing: ¿cuál es la diferencia?
La transformación digital y el edge computing: siete formas de
combinarlos
Ebook: La empresa automatizada
Ebook: La portabilidad multinube para principiantes
La seguridad en el borde requiere una preparación más exhaustiva.
Los recursos disponibles, como la conectividad de la red, la
electricidad, el personal, el equipamiento y la funcionalidad, varían
mucho, pero son muchos menos de los que habría disponible en un
centro de datos. Estos recursos limitados restringen las capacidades
de garantizar la disponibilidad y la seguridad. Además de cifrar el
almacenamiento local y las conexiones a sistemas más centralizados,
la computación confidencial ofrece la capacidad de cifrar los datos
mientras los utiliza el dispositivo de edge computing.
Esto protege los datos durante su procesamiento y el software que
procesa los datos evitando su captura o manipulación. Fischer
sostiene que “la computación confidencial en los dispositivos de edge
computing se convertirá en la tecnología de seguridad base de la
computación en el borde debido a los recursos de borde limitados”.
Según el informe del Consorcio de Computación Confidencial (CCC)
realizado por el grupo Everest, La computación confidencial: la
próxima frontera en seguridad de los datos, “la computación
confidencial en una red de borde distribuida también puede ayudar a
lograr nuevas eficiencias sin afectar la privacidad de los datos o de la
IP al construir una base segura donde escalar los análisis en el borde
sin comprometer la seguridad de los datos”. Asimismo, la computación
confidencial “garantiza que los dispositivos de edge e IOT solo
ejecuten los comandos y códigos autorizados. El uso de la
computación confidencial en los dispositivos de IOT y de edge y en el
backend ayudan a controlar la infraestructura crítica al impedir que se
manipule el código de los datos que se transmiten entre las
interfaces”.
Las aplicaciones de la computación confidencial en el borde abarcan
desde vehículos autónomos hasta la recopilación de información
confidencial.
Aplicaciones disímiles entre industrias
La diversidad de estas tendencias del edge computing refleja la
diversidad y la escalabilidad de las cargas de trabajo en el edge.
Existen algunos denominadores comunes —múltiples espacios físicos,
el uso de tecnologías nativas de la nube y de los contenedores, un
mayor uso de machine learning. Sin embargo, las aplicaciones de
telecomunicaciones a menudo tienen poco en común con los casos de
uso industriales del IoT, que a su vez difieren de aquellos de la
industria automotriz. Pero, independientemente de en qué sector se
concentre, descubrirá que en 2022 ocurrirán cosas muy interesantes
en el borde.