REKLAMA

Centrum danych to komputer

Według Philipa Griffithsa, dyrektora ds. partnerstw w regionie EMEA w firmie NetFoundry, najpierw należy określić strategię i cele w zależności od tego, do czego ma służyć centrum danych:

Czy chcesz zbudować hiperskalowalne data center? A może serwerownię dla lokalnego oddziału przedsiębiorstwa, przechowującego dane w danym kraju? A może, żeby zmniejszyć opóźnienia, chcesz przetwarzać dane lokalnie na brzegu sieci albo dane IoT, do czego wystarczy kilka serwerów kasetowych lub stelażowych do szaf rack? – mówił.

Według niego, wówczas klient powinien otrzymać dedykowane rozwiązania z uwzględnieniem wcześniej już wspomnianych aspektów, takich jak: ograniczanie zużycia energii, wykorzystanie automatyzacji, sztucznej inteligencji i rozwiązań definiowanych programowo (ang. software defined), co pozwoli do minimum ograniczyć konieczność wzywania serwisu i napraw ręcznych.

Ale tak naprawdę, kluczowym pierwszym krokiem jest określenie zasadniczego celu. Komu dostarczam swoje rozwiązania? Gdzie chcę zarabiać pieniądze? Niektórzy dostawcy usług data center, na przykład Equinix, przestawili się głównie na dostarczanie łączności między różnymi chmurami, zapewniając miejsca do których dane się relokowane – podsumował Griffiths.

Podejście holistyczne

Kevin Deierling, dyrektor ds. marketingu w Mellanox Technologies, zaproponował holistyczne podejście. W dawnych czasach zgodnie z prawem Moore'a można było liczyć na podwajanie wydajności komputerów co kilka lat, dzięki czemu procesory mogły po prostu absorbować całe oprogramowanie, co pozwalało... pisać nieefektywne aplikacje. W dawnych czasach router Cisco przekazywał pakiety za pomocą oprogramowania.

Dzisiaj dostarczamy przełączniki z portami 100 GbE czy 400 GbE. Potrzebujemy hybrydowego sprzętu i oprogramowania ASIC, aby przyspieszyć działanie maszyn wirtualnych i pracę firewalli oraz zrównoważyć obciążenia itp. – mówił Kevin Deierling.

Decyzje dotyczące polityk nadal muszą podlegać kluczowym zasadom zarządzania ruchem w sieci.

– Inteligencja wciąż musi być na najwyższym poziomie; i tak naprawdę to, o czym lubimy myśleć, to optymalizacja na poziomie centrum danych. Nie optymalizuj na poziomie pojedynczych urządzeń, ale na całej platformie obejmującej serwery, pamięci masowe, sieci i aplikacje. Myśl holistycznie. Centrum danych to komputer. Rozwiązuj rzeczy na tym poziomie – zalecał Deierling.

Kolejnym dyskutowanym tematem była kwestia migracji przetwarzania danych i inteligencji na brzeg sieci. Philip Griffiths podał przykład 5G IoT – „choć początkowo sugerowano, że wszystko zostanie połączone z chmurą, to zamiast tego stawia się na architekturę wielopoziomową obejmującą duże chmurowe centra danych, regionalne data center w chmurze oraz lokalne centra danych na brzegu sieci, a także bramy IoT realizujące lokalne operacje”.