czyli rzeczy, które musisz wiedzieć o przetwarzaniu brzegowym i założeniach architektury rozproszonej

Architektura rozproszona, tzw. Internet Rzeczy oraz Internet Wszystkiego, są pojęciami, z którymi na pewno spotykałeś się niejeden raz. Na pozór proste, w rzeczywistości jednak bardziej skomplikowane niż myślisz. Właśnie dlatego przyszła pora, aby raz na zawsze uporządkować Twoją wiedzę na ich temat. Czym są? Jakie mają zastosowanie? I w ogóle, po co funkcjonują? Usiądź wygodnie i przygotuj się do lektury.

Zacznijmy od początku…

Historia oraz znaczenie pojęcia Edge Computing

Architektura rozproszonych zasobów IT, czyli Edge Computing jest stosunkowo młodym pojęciem, o którym ostatnio słyszy się coraz częściej. Bezpośrednio, termin ten pojawił się w powiązaniu z innym specjalistycznym pojęciem tzw. Internetu Rzeczy (IoT).

Dla niewtajemniczonych: Internet Wszystkiego (IoE) lub Internet Rzeczy (IoT) opiera się na koncepcji, według której jednoznacznie identyfikowalne przedmioty mogą pośrednio lub bezpośrednio gromadzić dane, wymieniać je, przetwarzać, ponadto dodając do tego inteligencję sieci, która umożliwia konwergencję, koordynację i widoczność w dotychczasowych systemach.

Brzmi skomplikowanie? W takim razie jeszcze raz, ale “po polsku” 😊.

Przykładowe zastosowania Internetu Rzeczy

Funkcjonalności Internetu rzeczy można odnieść do kilku obszarów oraz narzędzi, z którymi współpracuje. Mogą to być chociażby:

  • Sensory

Odpowiedzialne za przetwarzanie i przesyłanie informacji na temat temperatury, wilgotności, ciśnienia, wibracji czy też ruchu. Ich zadaniem jest nie tylko gromadzenie danych, ale również ich dystrybucja do podłączonych urządzeń.

  • Urządzenia analizujące i monitorujące

Wiele firm wykorzystuje systemy IoT do śledzenia zasobów. Urządzenia te bazują na funkcjonalnościach GPS lub częstotliwościach radiowych (RF) w celu śledzenia oraz monitorowania właściwości. Jest to doskonały sposób do przeprowadzania identyfikacji oraz weryfikacji aktywów rozlokowanych nawet w bardzo dużej odległości.

  • Urządzenia raportujące

W firmach produkcyjnych z kolei sprawdzają się one jako narzędzia do raportowania kluczowych danych pomiarowych, w tym takich, jak: wydajność sprzętu, dane telemetryczne.

Informacje te mogą być gromadzone dla aktywów znajdujących się w różnych lokalizacjach geograficznych. Wszystko za sprawą faktu, że połączonego rozwiązania fabrycznego można używać do podłączania, monitorowania, jak i sterowania zdalnymi urządzeniami przemysłowymi.

  • Urządzenia medyczne

Internet Rzeczy znajduje swoje zastosowanie również w branży opieki zdrowotnej. Technologię tę można bowiem wykorzystać chociażby do świadczenia wysokiej jakości usług medycznych.

Ten rodzaj technologii znany jest pod nazwą Internetu Przedmiotów Medycznych (IoMT), a jego kluczowymi funkcjonalnościami są przede wszystkim monitorowanie i wspieranie ważnych danych, które mogą pomóc w podejmowaniu decyzji klinicznych:

  • Zdalne monitorowanie pacjentów w czasie rzeczywistym(w tym informowanie lekarzy o wystąpieniu ataku astmy, niewydolności serca, jak i wielu innych poważnych zdarzeniach).
  • Gromadzenie danych, takich jak: ciśnienie krwi, poziom cukru, tlen, waga itp. Wszystkie informacje przechowywane są online i mogą być sprawdzone przez lekarza w dowolnym momencie.

IoT automatyzuje przepływ pracy, umożliwiając świadczenie skutecznych usług opieki zdrowotnej dla pacjentów.

Jeszcze prościej 😊? Wyjaśnienie IoT na praktycznym przykładzie.

Wyobraź sobie, że IoT jest linią kolejową, w której skład wchodzą tory, połączenia, pociągi, systemy monitorowania pogody, czujniki szynowe, tablice informacyjne, a nawet personel i klienci.

Internet wszystkiego łączy te na pozór oddzielne „rzeczy” w jedną spójną całość, umożliwiając tym urządzeniom z obsługą Internetu Rzeczy i podłączonym do nich ludziom na sprawną komunikację oraz wymianę danych w czasie rzeczywistym.

A gdzie w tym wszystkim miejsce dla Edge Computing?

Pomijając tysiące innych zastosowań, ogrom połączeń, łączności na żądanie, obliczeń, sieci i pamięci niezbędnej do umożliwienia Internetu Rzeczy jest nie lada wyzwaniem.

W klasycznej architekturze, aby poradzić sobie z ogromem połączeń, łączności na żądanie czy nawet koniecznych obliczeń, często stosowało się większe lub mniejsze centra danych (np. firmowe), do których dane trafiały w celu dalszej ich obróbki.

W późniejszym okresie część tego przetwarzania została przeniesiona do rozwiązań chmurowych (chociażby usługi Azure IoT). Jednak obecnie, z uwagi na gigantyczny wzrost mocy obliczeniowej, przy jednoczesnym obniżeniu kosztów architektury hybrydowej, modny staje się Edge Computing, czyli przetwarzanie na brzegu sieci.

Jak i gdzie sprawdza się przetwarzanie brzegowe?

Działanie to jest bezpośrednim wynikiem rosnącego zainteresowania Internetem Rzeczy, jak i Internetu Rzeczy. Odpowiada ono za działania zmierzające do przybliżania treści i aplikacji do ich użytkowników lub źródeł danych. Treści wymagających dużej przepustowości oraz aplikacji wrażliwych na opóźnienia.

Dzięki przetwarzaniu na krawędzi, specjaliści IT mogą zapewniać moc przetwarzania danych “na brzegu sieci” zamiast utrzymywać ją w chmurze. Model ten umożliwia bowiem szybkie lokalne analizy danych.

Przykłady zastosowania przetwarzania brzegowego

Rozwiązanie to sprawdzi się zwłaszcza w sytuacjach wymagających wykonania naprawdę szybkich obliczeń. Bowiem przetwarzanie na „brzegu” danej organizacji jest uważane za bardziej niezawodne i efektywne niż przetwarzanie w chmurze.

Czy przyszłość należy do Edge Computing? I tak i nie…

Podczas, gdy wiele informacji będzie nadal przesyłanych i przetwarzanych przez chmurę, niektóre aplikacje będą potrzebowały ultraszybkiego dostępu do danych. To naturalnie będzie wymagało użycia infrastruktury fizycznej, która będzie bliżej krawędzi, w porównaniu z miejscem, w którym dane są przechowywane centralnie.

Ponieważ jednak informacje są wymieniane między bardziej lokalnymi i scentralizowanymi centrami danych, należy wziąć pod uwagę wyzwania, które pojawią się w konsekwencji. Należą do nich m.in.: możliwe zakłócenia usług, a także problemy z opóźnieniami i niezawodnością sieci.

I tutaj do gry wchodzą mikrocentra danych

Przetwarzanie danych w pobliżu miejsca, gdzie dochodzi do ich powstawania, zamiast przesyłania ich “na około” do chmury lub większych centrów danych, pozwala na uzyskanie szeregu korzyści biznesowych. Pośród najważniejszych z nich należy wymienić przede wszystkim zmniejszenie zapotrzebowania na przepustowość, przybliżenie danych do użytkowników i systemów oraz możliwe uzyskanie ultra wydajności.

Zamiast dostarczać wszystkie dane z urządzeń IoT do chmury, przesyłane są tam tylko dane zagregowane, wartościowe z punktu widzenia dalszej analizy lub wymagające dalszej reakcji ze strony systemów centralnych. A to oszczędza, czas, pieniądze, jak i samą sieć.

Ma to szczególne znaczenie w aplikacjach wykorzystywanych w służbie zdrowia, przemyśle, systemach finansowych, telekomunikacji.

Nie mniej ważne są też preferencje samych użytkowników – przedsiębiorstw lub instytucji publicznych, które niezbyt chętnie chcą przesyłać poufne dane do rozwiązań chmurowych lub zewnętrznych operatorów.

Czy z zalet Edge Computing mogą korzystać tylko najwięksi gracze?

Ależ skąd! W związku z rozwojem rozwiązań technologicznych, przetwarzanie brzegowe staje się bardzo przystępne również dla małych i średnich przedsiębiorstw. W ramach infrastruktury micro datacenter, przedsiębiorstwa mogą bez problemów zbudować brzegowe centra danych złożone np. z redundantnych serwerów, których moc obliczeniowa osiągnęła poziomy, które w ramach jednego serwera o wysokości 1U mogą posiadać 16 slotów na dyski, 9TB pamięci RAM, interfejsy sieciowe 10GbE itd.

Dodatkowo, serwery te można łączyć z wydajnymi i ekonomicznymi kosztowo macierzami SSD lub też ultranowoczesnymi, samo kompresującymi się (bezstratnie) rozwiązaniami dyskowymi NVMe.

Jakie są możliwości integracyjne rozwiązań brzegowych?

W przypadku wirtualizacji można powiedzieć, że praktycznie nieskończone!

Już w najnowszych rozwiązaniach wirtualizacyjnych planowane jest stosowanie hybrydowych rozwiązań chmurowych (vSphere 7.0), odpowiadających za jeszcze większą integrację z chmurami publicznymi (np. Azure, AWS lub GCP). Jednym z lepszych przykładów jest tu także Disaster Recovery lub HA – pozwalający na płynne przełączanie i migrację zasobów do chmury i z powrotem.

Podobnie sprawa wygląda w przypadku zintegrowanej konteneryzacji. Kontenery zaczynają bowiem być głównym nurtem w branży, zapewniającym szereg niezrównanych korzyści, takich jak: niższy koszt zasobów oraz szybki czas przebudowy i wdrożenia.

Dzięki trendom obejmującym wiele chmur, kontenery zapewniają najlepszą platformę chmurową i rozwiązanie agnostyczne dla systemu operacyjnego, które pozwala firmom dysponować niezwykle elastyczną infrastrukturą ze swoimi aplikacjami. Wraz z szybkim wzrostem liczby wdrożeń Kubernetes i niektórych aplikacji (takich jak AWX Ansible, które są TYLKO dostępne jako kontener), możemy oczekiwać, że również rozwiązania wirtualizacyjne na brzegu przedsiębiorstw pójdą właśnie w tym kierunku.

Czy Edge Computing sprawdzi się w Twojej firmie?

Jako firma Vernity projektujemy i dostarczamy szereg rozwiązań – począwszy od bardzo klasycznych, a skończywszy na nowoczesnych wdrożeniach i integracjach wykorzystujących infrastruktury HCI/SDS/SDN, jak i rozwiązania czołowych dostawców chmurowych takich, jak AWS i Azure.
Skontaktuj się z nami, aby poznać szczegóły oraz otrzymać profesjonalne wsparcie IT.

 

 

 

 

 

 

Dariusz Michałek
Inżynier Systemowy