Seis tendencias del edge computing a las que prestar atención en 2

Si bien ya se conocen muchos aspectos del edge computing, el
panorama general continúa evolucionando rápidamente. Por ejemplo,
el “edge computing” abarca los sistemas distribuidos de las sucursales
de tiendas minoristas que han existido durante décadas. Este término
también comprende todo tipo de sistemas informáticos locales de
fábricas y proveedores de telecomunicaciones, aunque de una manera
más conectada y menos propietaria de la que solía predominar.
El edge computing ayuda a los líderes empresariales y de TI a
resolver problemas a medida que proliferan los datos provenientes de
los sensores y del machine learning.


Sin embargo, aunque en algunas implementaciones de edge
computing se perciban rastros de antiguas arquitecturas, también se
observan tendencias del edge en desarrollo que son verdaderamente
nuevas o al menos muy diferentes de lo que existía anteriormente.
Estas tendencias están ayudando a los líderes empresariales y de TI a
resolver problemas en sectores que van desde el de
telecomunicaciones al automotriz a medida que proliferan los datos
provenientes de los sensores y el machine learning.


Las tendencias del edge computing que debería
tener en cuenta
Los expertos en edge analizan seis tendencias a las que los líderes
empresariales y de TI deberían prestar atención en 2022:

  1. Las cargas de trabajo en el edge aumentan
    Uno de los cambios importantes que estamos viendo es que, en el
    edge, hay más informática y más almacenamiento. A menudo los
    sistemas descentralizados existían más para disminuir la dependencia
    de los enlaces de red que para realizar tareas que no podían hacerse
    en la práctica en una ubicación central mediante comunicaciones
    razonablemente confiables. Pero eso está cambiando.
    El IoT, por definición, siempre ha involucrado la recolección de datos.
    No obstante, lo que supo ser un goteo se ha convertido en un aluvión

dado que los datos que necesitan las aplicaciones de machine
learning (ML) fluyen de un sinnúmero de sensores. Pero aun cuando
los modelos de entrenamiento se desarrollen con frecuencia en un
centro de datos centralizado, la aplicación continua de esos modelos
generalmente se traslada al borde de la red. Esto reduce los requisitos
de ancho de banda de la red y permite accionar más rápidamente a
nivel local, como apagar una máquina en respuesta a una lectura
anómala de un sensor. El objetivo es aportar información para adoptar
medidas en el momento preciso.

  1. RISC-V va ganando terreno
    Se sabe que las cargas de trabajo que hacen un uso intensivo de los
    datos y los recursos informáticos necesitan hardware en el cual
    ejecutarse. Los rasgos específicos varían en función de la aplicación y
    del equilibrio requerido entre rendimiento, potencia y costo, entre
    otros. Las opciones suelen circunscribirse a algo personalizado, ARM
    o x86. Ninguna es del todo abierta, aunque ARM y x86 con el tiempo
    han desarrollado un enorme ecosistema de hardware y software de
    soporte impulsado, en gran parte, por los principales diseñadores de
    componentes de procesadores.
    Pero RISC-V es una arquitectura de conjunto de instrucciones de
    hardware abierta nueva e intrigante.
    ¿Por qué es intrigante? Así lo explica Yan Fisher, evangelizador global
    de tecnologías emergentes de Red Hat: “Lo que distingue a RISC-V es
    que su proceso de diseño y su especificación son genuinamente
    abiertos. Su diseño refleja las decisiones de la comunidad basadas en
    la experiencia y la investigación colectivas.”
    Este enfoque abierto y el ecosistema activo que lo acompaña ayudan
    a promover las ventajas del diseño de RISC-V en todos los sectores.
    Calista Redmond, CEO de RISC-V International, comenta lo siguiente:
    “Con este giro hacia el edge computing, observamos una gran
    inversión en RISC-V en todo el ecosistema, desde empresas
    multinacionales como Alibaba, Andes Technology y NXP hasta
    empresas emergentes como SiFive, Esperanto Technologies y
    GreenWaves Technologies, que diseñan soluciones RISC-V
    innovadoras para el edge y la AI”.
  2. Las redes de acceso de radio virtuales (vRAN)
    han pasado a ser un caso de uso del edge cada
    vez más importante

Como parte de las implementaciones de 5G, las operadoras están
optando por un enfoque vRAN más flexible.
Una red de acceso de radio es responsable de habilitar y conectar
dispositivos como smartphones o dispositivos del Internet de las
Cosas (IoT) con una red móvil. Como parte de las implementaciones
de 5G, las operadoras están optando por un enfoque vRAN más
flexible en el cual los componentes lógicos importantes de la RAN se
desagregan mediante el desacople del hardware y el software y
también mediante el uso de tecnología de nube para lograr una
colocación de cargas de trabajo, implementaciones y escalamientos
automatizados.
Hanen Garcia, gerente de soluciones de telecomunicaciones de Red
Hat, e Ishu Verma, evangelizadora de tecnologías emergentes de Red
Hat, observan lo siguiente: “Un estudio indica que la
implementación de soluciones de RAN virtuales (vRAN)/Open RAN
(oRAN) logran reducir el costo total de propiedad de la red hasta en un
44% en comparación con las configuraciones de RAN
distribuidas/centralizadas tradicionales.” Además: “A través de esta
modernización, los proveedores de servicios de comunicaciones
(CSP) pueden simplificar las operaciones de red e incrementar la
flexibilidad, disponibilidad y eficiencia, al mismo tiempo que prestan
servicio a un número de casos de uso cada vez mayor. Las soluciones
de RAN nativas de la nube y de los contenedores reducen los costos,
simplifican las actualizaciones, las modificaciones y la capacidad de
escalarse horizontalmente, con menos dependencia del proveedor que
con las soluciones basadas en máquinas virtuales”.

  1. La escalabilidad impulsa enfoques operativos
    Una arquitectura de edge computing puede diferir de una arquitectura
    que solo se implementa dentro del recinto de un centro de datos en
    muchos aspectos. Los dispositivos y las computadoras pueden tener
    una seguridad física endeble y no contar con personal de TI en el
    lugar. La conectividad de la red puede no ser confiable. No se
    garantiza tener un buen ancho de banda o baja latencia. Pero muchos
    de los desafíos más apremiantes tienen que ver con la escalabilidad;
    pueden existir miles (o más) de puntos finales de red.
    “Hay que estandarizar sin piedad y minimizar la superficie operativa”.
    Kris Murphy, ingeniero de software sénior principal de Red Hat,
    identifica cuatro pasos básicos que se deben dar para manejar la
    escalabilidad: “Hay que estandarizar sin piedad, minimizar la superficie

operativa, priorizar los pulls por sobre los pushes y automatizar las
pequeñas cosas”.
Por ejemplo, Kris recomienda hacer actualizaciones transaccionales,
es decir, atómicas, para que el sistema no termine actualizándose
parcialmente y quede mal definido. Al realizar actualizaciones,
conviene que sean los puntos finales los que soliciten las
actualizaciones dado que es más factible que haya “conectividad de
salida” disponible. También sugiere limitar las cargas máximas no
realizando las actualizaciones al mismo tiempo.
[ ¿Desea conocer más sobre la implementación del edge
computing? Lea el blog: Cómo implementar una infraestructura
de edge de manera escalable y mantenible. ]

  1. El edge computing necesita certificación
    En vista de los escasos recursos disponibles en el borde, las opciones
    pragmáticas que se deben tener en cuenta son las que requieren
    pocos o nulos recursos locales. Una vez más, el enfoque que se
    adopte debe ser sumamente escalable, de lo contrario, sus usos y
    beneficios se verían muy reducidos. Una de las opciones que se
    destaca es el proyecto Keylime. “Se debería tener en cuenta las
    tecnologías como Keylime, capaces de verificar que los dispositivos
    informáticos arranquen y continúen en un estado de funcionamiento
    confiable en función de las necesidades, para las grandes
    implementaciones, especialmente en entornos con recursos limitados”,
    dice Ben Fischer, evangelizador de tecnologías emergentes de Red
    Hat.
    Keylime ofrece la certificación de arranque remoto y de tiempo de
    ejecución mediante una Arquitectura de Medición de Integridad (IMA)
    y utiliza los Módulos de Plataforma Confiables (TPM) que son
    comunes a las placas madres de la mayoría de las laptop, desktop y
    servidores. De no haber TPM de hardware, se pueden cargar TPM
    virtuales o vTPM que aporten la funcionalidad TPM necesaria. La
    certificación de arranque y de tiempo de ejecución es la forma de
    verificar que el dispositivo de borde arranque hasta alcanzar un estado
    confiable conocido y lo mantenga durante su funcionamiento. En otras
    palabras, si ocurre algo imprevisto, como un proceso fraudulento, el
    estado previsto cambiará. Esto se verá reflejado en la medición y
    desconectará el dispositivo porque habrá asumido un estado no
    confiable. Este dispositivo será objeto de investigación, tras la cual se
    lo corregirá y pondrá nuevamente en funcionamiento en un estado
    confiable.
  2. La computación confidencial es más
    importante en el borde
    Más información sobre el edge computing
    Cómo explicar el edge computing en lenguaje sencillo
    Edge computing versus cloud computing: ¿cuál es la diferencia?
    La transformación digital y el edge computing: siete formas de
    combinarlos
    Ebook: La empresa automatizada
    Ebook: La portabilidad multinube para principiantes
    La seguridad en el borde requiere una preparación más exhaustiva.
    Los recursos disponibles, como la conectividad de la red, la
    electricidad, el personal, el equipamiento y la funcionalidad, varían
    mucho, pero son muchos menos de los que habría disponible en un
    centro de datos. Estos recursos limitados restringen las capacidades
    de garantizar la disponibilidad y la seguridad. Además de cifrar el
    almacenamiento local y las conexiones a sistemas más centralizados,
    la computación confidencial ofrece la capacidad de cifrar los datos
    mientras los utiliza el dispositivo de edge computing.
    Esto protege los datos durante su procesamiento y el software que
    procesa los datos evitando su captura o manipulación. Fischer
    sostiene que “la computación confidencial en los dispositivos de edge
    computing se convertirá en la tecnología de seguridad base de la
    computación en el borde debido a los recursos de borde limitados”.
    Según el informe del Consorcio de Computación Confidencial (CCC)
    realizado por el grupo Everest, La computación confidencial: la
    próxima frontera en seguridad de los datos, “la computación
    confidencial en una red de borde distribuida también puede ayudar a
    lograr nuevas eficiencias sin afectar la privacidad de los datos o de la
    IP al construir una base segura donde escalar los análisis en el borde
    sin comprometer la seguridad de los datos”. Asimismo, la computación
    confidencial “garantiza que los dispositivos de edge e IOT solo
    ejecuten los comandos y códigos autorizados. El uso de la
    computación confidencial en los dispositivos de IOT y de edge y en el
    backend ayudan a controlar la infraestructura crítica al impedir que se
    manipule el código de los datos que se transmiten entre las
    interfaces”.

Las aplicaciones de la computación confidencial en el borde abarcan
desde vehículos autónomos hasta la recopilación de información
confidencial.
Aplicaciones disímiles entre industrias
La diversidad de estas tendencias del edge computing refleja la
diversidad y la escalabilidad de las cargas de trabajo en el edge.
Existen algunos denominadores comunes —múltiples espacios físicos,
el uso de tecnologías nativas de la nube y de los contenedores, un
mayor uso de machine learning. Sin embargo, las aplicaciones de
telecomunicaciones a menudo tienen poco en común con los casos de
uso industriales del IoT, que a su vez difieren de aquellos de la
industria automotriz. Pero, independientemente de en qué sector se
concentre, descubrirá que en 2022 ocurrirán cosas muy interesantes
en el borde.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *