Obrovské příležitosti přinese Edge pro poskytovatele služeb, o slovo se přihlásí hybridní aplikační cloudy pro okraj sítě a prosadí se zde i umělá inteligence.
V odvětví telekomunikací začali poskytovatelé služeb využívat nativně cloudové nasazení svých základních síťových aplikací a digitálních služeb pro sítě 5G. Na cloudové RAN (rádiové přístupové sítě) bude v roce 2023 kladen větší důraz, spolu se snahou o zdokonalení multi-cloudových partnerství a strategií pro edge computing, předpovídá Ian Hood, hlavní stratég pro globální průmyslová odvětví ve společnosti Red Hat. Mnoho poskytovatelů služeb bude i nadále sledovat strategii, která jim umožní urychlit nasazování 5G a zároveň nabídnout inovativní služby edge computingu podnikovým zákazníkům v klíčových průmyslových odvětvích, jako jsou výroba, automobilový průmysl, energetika a maloobchod. Očekáváme, že poroste využívání umělé inteligence a strojového učení (AI/ML) pro optimalizaci efektivity sítě a hybridních edge cloudů.
Existují významné příležitosti k růstu výnosů a poskytovatelé služeb i nadále stojí před výzvou, jak jich dosáhnout při současném snižování provozních nákladů, vyřešení rostoucího množství a intenzity kyberbezpečnostních hrozeb a plnění cílů udržitelnosti. Poskytovatelé služeb budou nadále zdokonalovat své zabezpečení prostřednictvím přístupu nulové důvěry a pečlivě zkoumat svůj dodavatelský řetězec softwaru, včetně požadavků na softwarový kusovník (SBOM), aby bylo možné sledovat původ veškerého softwaru a digitálních podpisů pro sledování a kontrolu změn v průběhu životního cyklu návrhu a nasazování softwaru.
Proces digitální transformace s cílem modernizovat aplikace a přejít na nativně cloudové mikroslužby nebyl tak rozšířený, jak mnozí očekávali. A to zejména proto, že poskytovatelé služeb využívají mnoho aplikací od třetích stran. Rostoucí provozní složitost, omezená dostupnost kvalifikovaných zdrojů a zvýšené náklady na migraci přiměly poskytovatele služeb poohlédnout se po inovacích s využitím open source. V následujícím roce se budou snažit rozšířit rozsah DevSecOps ve svých softwarově definovaných prostředích od vývoje aplikací až po konfiguraci síťové infrastruktury.
S pokračujícím zaměřením na distribuované aplikace a služby edge computingu v rostoucím měřítku očekáváme růst hyperautomatizace ve všech oblastech podniku, jako jsou IT, sítě, aplikace a infrastruktura. Již jsme zaznamenali počáteční využití zero-touch provisioningu a nasazení pro RAN, které se rozšíří na multi-access edge computing (MEC) i na podnikové služby a aplikace edge computingu.
Mnoho telekomunikačních organizací využívá služby od více poskytovatelů hyperškálovatelných služeb a zároveň buduje své lokální implementace na podporu různých oblastí podnikání. Možnost bezpečné distribuce aplikací s přístupem k akceleraci dat a prostředkům GPU pro AI/ML, při současném splnění předpisů o suverenitě dat otevírá novou éru budování aplikačních cloudů nezávislých na základní síťové infrastruktuře.
Edge AI
V roce 2023 se očekává i významný přenos inference umělé inteligence z cloudu na okraj sítě, říká Salim Khodri, Edge go-to-market specialista pro oblast EMEA ve společnosti Red Hat a vysvětluje proč bude v roce 2023 AI tak důležitá pro edge computing: Dnes jsou technologie umělé inteligence (AI) nebo strojového učení (ML) rozšířeny spíše v centralizovaných datacentrech nebo ve veřejném cloudu. Ale nové trendy Průmyslu 4.0, s výrazným nárůstem inteligentních zařízení internetu věcí (IoT) nasazených na okraji sítě, jsou prostředkem ke změně, aby se inference, tedy odvozování závěrů ze získaných dat, prováděly blíže ke koncovému uživateli, protože na okraji sítě roste potřeba zpracování dat v reálném čase. Vezměme si jako příklad samořídící automobily, kde by nekonzistentní latence mohla výrazně zvýšit riziko jejich nehod.
Inferencování v centralizovaném cloudu navíc vyžaduje přesun dat mezi výpočetními prvky. To stojí nejen čas a peníze, ale je to také spojeno s problémy s omezenu šířkou pásma. Kromě problémů s latencí a šířkou pásma jsou dalším faktorem, pokud jde o zpracování a analýzu velkého množství dat v cloudu, také náklady. Využití umělé inteligence a strojového učení k řešení potřeb v téměř reálném čase na okraji sítě proto vyžaduje přesunutí inferencí AI z cloudu na okraj sítě, aby bylo možné využít nízké latence a úspory šířky pásma sítě v rámci edge computingu.
Inferencování AI na okraji sítě ale není snadné
I když očekáváme, že v roce 2023 se bude mnoho organizací zabývat Edge AI, existují některé jedinečné problémy s inferencováním na okraji sítě, které je třeba vzít v úvahu. Zaprvé, správa AI na okraji sítě může být časově náročná a nákladná, pokud máte desítky nebo tisíce zařízení, která je třeba instalovat a udržovat. Další výzvou je také zabezpečení architektury edge computingu s více lokalitami, které mohou mít minimální nebo žádné kapacity IT. Zabezpečení přitom musí být řešeno komplexně (end-to-end), tedy od cloudu až po okraj sítě. U umělé inteligence zpracovávané na okraji sítě musí být vždy chráněny i podnikové aplikace pracující s duševním vlastnictvím a důvěrnými daty získanými ze senzorů. Organizace, které chtějí využívat Edge AI, budou navíc muset spravovat vysoký počet lokalit rozptýlených po celém území. Budou muset hledat nějaký způsob, jak tyto aplikace AI trénovat, implementovat a provozovat na okraji sítě a využívat možností automatizovaného nasazení a správy životního cyklu, které jsou obecně dostupné v on-premise prostředí nebo ve veřejném cloudu.
Řízení AI na okraji sítě je především o kontrole
Podle dříve popsaných výzev je řízení umělé inteligence na okraji sítě tak dobré, jak dobrou kontrolu nad ní máte. Provozování aplikací umělé inteligence na okraji sítě bude vyžadovat určitou hloubkovou kontrolu, aby bylo možné je provozovat bezpečně a ve velkém měřítku, abyste měli jistotu, že ať se stane cokoli, poznatky, které jste shromáždili pro rozhodování založené na datech, jsou vždy k dispozici a bezpečně chráněné.
Lze tedy očekávat, že při úvahách o přechodu na Edge AI bude mnoho organizací hledat hybridní cloudovou platformu s centralizovanou správou a zabezpečením, která pomůže vytvářet, provozovat, řídit a škálovat nasazení AI na desítkách až tisících serverů provozovaných na okraji sítě. To podporuje ambice rychle zavést umělou inteligenci do sítí maloobchodních prodejen, skladů, nemocnic, továrních hal a dalších podobných míst. Kromě toho, že to pomůže zjednodušit provoz, bude mnoho organizací uvažovat o centralizované správě pro Edge AI, protože to může pomoci snížit náklady, a tím učinit AI na všech místech dostupnější a praktičtější.
Autoři:
Ian Hood, hlavní stratég pro globální průmyslová odvětví ve společnosti Red Hat
Salim Khodri, Edge go-to-market specialista pro oblast EMEA ve společnosti Red Hat