Fog i edge computing: alternatywa chmury?

Rosnący apetyt firm na mikro i edge computing to jeden z 10 trendów najbardziej wpływających na branżę IT

Edge computing to architektura rozproszonych zasobów IT, w ramach której dane są przetwarzane na obrzeżach sieci, możliwie najbliżej źródeł pochodzenia.

Ten model ma wiele zalet, m.in. pozwala odciążyć mocno już eksploatowane centra danych i łącza internetowe. Umożliwia też lokalne przeprowadzanie analiz danych. Czym różni się od fog computing (mgły obliczeniowej)? Czy tak zwane edge data centers znajdujące się na obrzeżach sieci – bliżej użytkowników i ich urządzeń – to odwrotny trend w stosunku do usług chmurowych?

Systemy mobilne, malejące koszty komponentów komputerowych oraz dynamicznie rosnąca liczba urządzeń i czujników podłączanych do internetu rzeczy (IoT) – to główne czynniki powodujące przesuwanie się przetwarzania danych na peryferia sieci.

W zależności od rodzaju wdrożenia, dane, dla których czas ma priorytetowe znaczenie, w przypadku  architektury edge computing mogą być przetwarzane niemal w czasie rzeczywistym bezpośrednio w miejscu pochodzenia przez inteligentne urządzenie lub wysyłane do pośredniczącego serwera, zlokalizowanego w bliskim sąsiedztwie klienta. Natomiast dane mniej czułe na błędy czasowe można przesyłać do chmury, by tam poddawać je analizie historycznej, analityce big data oraz długoterminowo przechowywać w pamięciach masowych.

Pojęcie „brzeg” (edge) używane dla określenia przetwarzania na obrzeżach sieci (edge computing) wywodzi się z graficznych schematów sieciowych, gdzie brzeg/krawędź na diagramie sieci oznaczany jest jako punkt, w którym ruch danych wchodzi lub opuszcza sieć. “Edge” jest również punktem, w którym może się zmieniać bazowy protokół związany z transmisją danych.

Na ile bezpieczna jest chmura?

Czy mgła obliczeniowa (fog computing) spowije krajobraz IT?

źr. i2ot.eu

Termin “fog computing” (polski odpowiednik to mgła obliczeniowa; inne określenia angielskie to fog networking lub fogging) służy do określenia zdecentralizowanej infrastruktury informatycznej, w której dane, ich przetwarzanie i przechowywanie oraz aplikacje są rozproszone w optymalnych lokalizacjach pomiędzy źródłem danych a chmurą. Fog computing zasadniczo rozszerza możliwości przetwarzania w chmurze i usług chmurowych na brzeg sieci, przybliżając korzyści i moce obliczeniowe chmury do miejsca, w którym powstają dane i są przetwarzane lokalnie. Wartość globalnego rynku fog computing do 2022 roku przekroczy 18 mld dolarów, według szacunków z najnowszego raportu 451 Research.

Fogging ma na celu poprawę wydajności i zmniejszenie ilości danych przesyłanych do chmury do przetwarzania, analiz i przechowywania. Może być również wykorzystywany ze względów bezpieczeństwa i konieczności spełniania wymogów wynikających z obowiązujących przepisów w zakresie przetwarzania danych.

Popularne aplikacje oparte na architekturze fog computing obejmują: inteligentną sieć (smart grid), inteligentne miasto (smart city), inteligentne budynki (smart building), pojazdy podłączone do sieci (connected car) i sieci definiowane programowo ( SDN- software defined networks).

Centra danych na brzegu sieci

Rosnący apetyt firm na mikro i edge computing to jeden z 10 trendów najbardziej wpływających na branżę IT, które wskazują eksperci firmy analitycznej Gartner. Wyraźnie zauważalna jest tendencja do umieszczania zasobów IT bliżej użytkowników i ich urządzeń. Chmura, internet rzeczy oraz mobilne urządzenia to główne siły napędowe rozwoju centrów danych na obrzeżach sieci.

Za budowaniem lokalnych data centers przemawiają niższe koszty ich budowy niż dużych centrów przetwarzania danych. Zapewniają one dodatkową ochronę prywatności, odporność i bezpieczeństwo. Ponieważ mniej danych jest przesyłanych do analiz do scentralizowanych platform cloud, zmniejsza się ruch w sieci i opóźnienia w transmisji danych.

Bramy IoT mogą komunikować się z lokalnymi centrami danych, gdzie  dane z czujników są wstępnie przetwarzane oraz poddawane analizie w czasie rzeczywistym, co pozwala na wykrywanie błędów w ramach monitorowania zabezpieczeń, a także optymalizację transmisji do głównych centrów danych.

Edge computing alternatywą dla chmury?

Czy lokalne centra danych na peryferiach sieci to antyteza scentralizowanego przetwarzania w chmurze? Większość specjalistów uważa, że przesuwanie analityki i przetwarzania danych na brzeg sieci bliżej użytkowników i urządzeń nie należy traktować w kategoriach „antychmurowych”, ale raczej jako uzupełnienie i rozszerzenie funkcjonalności środowiska cloud computing. Ponadto, dla wielu aplikacji biznesowych, funkcji operacyjnych i starszych systemów optymalne są scentralizowane chmurowe centra danych, zapewniające odpowiedni poziom bezpieczeństwa zasobów i informacji.

Ofensywa edge computing nie oznacza końca scentralizowanej chmury

Budowa lokalnych centrów danych na brzegu sieci może być obecnie zbyt kosztowna dla niektórych organizacji, podczas gdy chmura oferuje skalowalność i ekonomię skali. To, gdzie najlepiej lokalizować tzw. edge data centers w dużym stopniu zależy od rozkładu konkretnych obciążeń oraz rozmieszczenia urządzeń i czujników generujących dane.Popyt na edge data centers zwiększa również fakt, że wiele urządzeń i czujników IoT działa na obszarach o słabej łączności, a ważne jest, aby ich dostęp do danych był szybki i niezawodny. Wdrażanie rozwiązań SDN to kolejny czynnik napędzający stosowanie standardowego sprzętu IT na potrzeby edge computing.

Do rozwoju lokalnych centrów danych może przyczynić się też budowa sieci następnej generacji 5G, w ramach której raczej będą powstawać rozproszone chmury obliczeniowe niż wymieniane lub aktualizowane duże centra telekomunikacyjne. W przypadku 5G istnieje możliwość, że stacje bazowe będą zawierać mikro-centra danych (micro-datacentres), co jeszcze bardziej przybliży do użytkownika przetwarzanie, analizę i przesyłanie danych.

Tendencja do przenoszenia przetwarzania i analityki danych na brzeg sieci nie jest czymś, co doprowadzi do w pełni rozproszonego modelu, pozbawionego centralnego ośrodka obliczeniowego. Podstawowe centra danych nadal będą niezbędne, zapotrzebowanie na nie jest ogromne. Natomiast w ciągu najbliższych kilku lat na znaczeniu będą zyskiwać modele hybrydowe, umożliwiające przetwarzanie i przechowywanie danych wszędzie tam, gdzie uznane to zostanie za najwłaściwsze.

 

Poprzedni artykułBadanie: bankowość nr 1. w technologii
Następny artykułZebra: „Intelligent Enterprise Index”
Od 1994 r. pracuje w wydawnictwach branżowych poświęconych technologiom informatycznym i telekomunikacyjnym (IDG Poland: 1994-2012). Od 2015 roku prowadzi bloga B2B branży teleinformatycznej it-filolog.pl - Konwergencja IT, biznesu i ...humanistyki. Jego nazwa, założenia i zawartość wynikają wprost z “backgroundu” wydawniczo-filologicznego (wydawnictwo Ossolineum: 1988-1994) oraz ponad 20-letniego funkcjonowania przez autora w rolach: redaktora, autora tekstów i tłumacza w pismach i serwisach internetowych poświęconych technologiom teleinformatycznym. W latach 2003-2008 redaktor naczelny miesięcznika „Networld”. Obecnie współpracuje jako autor i redaktor z kilkoma pismami i serwisami ICT.