Artykuł Centrum danych w drodze ku chmurze pochodzi z serwisu CRN.
]]>Do dyspozycji będzie miał najnowsze technologie, bo polskie centra danych w tym zakresie nie odstają od reszty świata. Przykładowo, rozpowszechnia się wykorzystywanie w nich automatyzacji i uczenia maszynowego. IDC przewiduje, że do 2022 r. połowa zasobów IT w centrach danych będzie działać autonomicznie dzięki wbudowanej w infrastrukturę inteligencji. Uczenie maszynowe może zoptymalizować wiele kluczowych operacji, m.in. planowanie, projektowanie i utrzymanie, a także zarządzanie zadaniami obliczeniowymi, dostępnością środowiska IT i kosztami. Może być również stosowane do kontrolowania zasilania i chłodzenia, a także równoważenia ruchu sieciowego.
Kolejny istotny trend, który będzie kształtować rynek centrów danych w najbliższej przyszłości, to przetwarzanie na brzegu sieci (edge computing). Na popularyzację tego modelu będzie wpływać technologia 5G, ale także coraz powszechniejsze używanie urządzeń Internetu rzeczy. Business Insider Intelligence szacuje, że już w przyszłym roku 5,6 mld urządzeń należących do przedsiębiorstw będzie wykorzystywać obliczenia brzegowe do gromadzenia i przetwarzania danych. Co ważne, ta metoda przetwarzania danych nie zastąpi chmury ani tradycyjnych centrów danych, bo będzie potrzebować ich wsparcia. Najlepszym przykładem takiej synergii są czujniki IoT w fabrykach.
– Część danych niezbędnych do podjęcia działań jest przetwarzana na brzegu sieci, czyli w samym czujniku, a dane o mniejszym znaczeniu lub wymagające pogłębionej analizy są przetwarzane w chmurze lub na serwerach zlokalizowanych w centrum danych – tłumaczy Adam Dzielnicki, kierownik produktu w Atmanie.
W najbliższych latach operatorzy centrów danych będą też uważnie przyglądać się nowoczesnym koncepcjom wykorzystywania alternatywnych źródeł energii i metod chłodzenia. Gwałtowne skoki cen i stała niepewność na rynku energii zmuszają bowiem do szukania sposobów obniżania kosztów operacyjnych, a przynajmniej trzymania ich pod kontrolą, rzecz jasna bez szkody dla jakości usług. W tej sytuacji nawet niewielkie podniesienie efektywności energetycznej oznacza znaczne oszczędności.
Jeżeli chodzi o rozwiązania sprzętowe, to jesteśmy świadkami ofensywy dysków w standardzie NVMe, których cena zaczyna być porównywalna z ceną SSD. W przypadku procesorów coraz większe zainteresowanie wzbudzają produkty AMD, jednak do przełamania dominacji Intela jeszcze daleka droga. Rośnie także wykorzystanie mikrousług (kontenerów) – technologii, która na przestrzeni ostatnich lat bardzo mocno się rozwinęła. Ich upowszechnienie się w centrach danych to duża szansa dla tych partnerów, którzy staną się biegli w ułatwianiu przedsiębiorstwom migracji tradycyjnych aplikacji do nowego rozwiązania.
Przyszłość rynku centrów danych kształtują przede wszystkim dwa zjawiska: równoległe korzystanie z usług chmurowych od wielu dostawców (multicloud)
oraz łączenie prywatnych środowisk wirtualnych z chmurami publicznymi (chmura hybrydowa). Obie dają szansę na przyspieszenie upowszechnienia rozwiązań chmurowych, po które w Polsce sięga wciąż (w porównaniu z zagranicą) niezbyt wielu klientów.
Zdaniem Adama Dzielnickiego strategie obejmujące korzystanie z wielu chmur mogą stać się wkrótce standardem firmowego środowiska IT. Hybrydowe rozwiązanie łączy bowiem bezpieczeństwo lokalnego centrum danych z elastycznością i szybką skalowalnością zasobów największych platform chmurowych. To sposób na optymalizację kosztów IT, a jednocześnie zachowanie zgodności z regulacjami prawnymi. Nad przechowywaniem i przetwarzaniem wrażliwych danych może czuwać lokalny operator, który spełnia surowe wymagania w zakresie bezpieczeństwa, opóźnień sieci oraz zgodności z wymogami różnych rynków i branż.
W opinii Mariusza Kochańskiego, dyrektora Działu Systemów Sieciowych i członka zarządu Veracompu, chmura publiczna sprawi, że resellerzy będą mieli większe możliwości sprzedaży swoich usług. Po pierwsze klient będzie potrzebował pomocy w wyborze chmury i integrator musi mu doradzić, z jakiego modelu cenowego i konfiguracji serwera warto skorzystać. Aby wybór okazał się korzystny dla użytkownika końcowego, niezbędna jest bowiem fachowa wiedza. Gdy zacznie się już uruchamianie aplikacji, zwłaszcza w kontenerach, potrzebna będzie bardzo staranna konfiguracja ustawień bezpieczeństwa, a to również wymaga sporych kompetencji. Zastosowanie standardowych ustawień nie wystarczy.
– Tworzy się więc potencjalnie duży obszar oferowania własnych usług. Nie tylko na etapie planowania i wdrażania, ale także późniejszego utrzymania rozwiązania. Oczywiście, model chmury publicznej nie będzie odpowiedni dla każdego klienta końcowego i każdej aplikacji – mówi przedstawiciel dystrybutora.
Tomasz Sobol, Chief Marketing Officer, Beyond.pl
Uniwersalna, spełniająca nawet specyficzne potrzeby każdego biznesu chmura obliczeniowa nie istnieje. Dlatego przyszłością jest multicloud i korzystanie z usług takiego dostawcy chmury, który nie tylko świadczy usługi, ale też wspiera klientów w dywersyfikacji ryzyka związanego z korzystaniem z jednej platformy chmurowej. Idealnie jest, gdy taki dostawca oferuje pomoc ze strony architektów i administratorów IT, którzy we wstępnej fazie projektu doradzą, jak stworzyć środowisko chmurowe gwarantujące realizację zakładanych celów biznesowych. A w razie potrzeby będzie partnerem, który wesprze klienta w drodze powrotnej, na przykład z chmur globalnych do lokalnych dostawców.
Adam Dzielnicki, kierownik produktu, Atman
Współpraca resellerów z operatorami przybiera obecnie różne formy, od prostej odsprzedaży usług po realizację złożonych zamówień. Integrator wchodzący w relację biznesową z centrum danych powinien mieć pewność, że wybrany przez niego partner to sprawdzony gracz na rynku i sprosta wszystkim wymogom jego klientów. Aby tę pewność uzyskać, najlepiej osobiście odwiedzić obiekt, zobaczyć, w jaki sposób operator rozwiązuje kwestie bezpieczeństwa i jaką technologią faktycznie dysponuje.
Karol Olszewski, Technical Account & Project Manager, Data Space
Przy wyborze zapasowego centrum danych należy upewnić się,co oferuje dostawca w zakresie łączy internetowych. Mechanizmy disaster recovery czy georeplikacja rozproszonych systemów plików muszą być realizowane przez wydzielone łącza L2/L3 między dwoma centrami danych. Ograniczone możliwości operatora w tym obszarze to duże utrudnienie. Warto zwrócić uwagę na dodatkowe usługi kolokacji, takie jak „zdalne ręce”, możliwość przechowywania swoich narzędzi serwisowych, a także szybkość reakcji zespołu wsparcia technicznego.
IDC zauważa, że wiodący gracze działający na polskim rynku usług chmur obliczeniowych, z których większość stanowią światowe firmy, stale zwiększają swój udział w rynku. Podobny trend obserwujemy na całym świecie – wszędzie Microsoft, AWS i Google umacniają swoją pozycję. Według prognoz w najbliższych latach udział trzech, czterech największych dostawców rozwiązań w chmurze publicznej przekroczy połowę wartości całego rynku.
– Dla pozostałych graczy oznacza to bardziej zaciętą walkę o klientów lub potrzebę znalezienia niszowej, wyjątkowej oferty, która nie będzie konkurować z ofertą największych dostawców. Ta druga droga, choć bardzo kusząca, wiąże się jednak z dużym wysiłkiem i ryzykiem – twierdzi Ewa Zborowska, analityk IDC.
Karol Olszewski, Technical Account & Project Manager w Data Space, sądzi, że lokalni operatorzy zawsze będą na naszyn rynku potrzebni. Owszem, klienci o niewielkich wymaganiach, którzy potrzebują czegoś „od zaraz”, będą wybierać chmurę publiczną dużego dostawcy. Jednak w przypadku większych, bardziej skomplikowanych i szytych na miarę rozwiązań, w których potrzebna będzie np. wydzielona sieć wewnętrzna o przepustowości 25 Gb/s oraz sprzęt idealnie dopasowany do potrzeb aplikacji, wybierane będzie lokalne centrum danych. Na razie jednak rywalizacja trwa.
– I jedni, i drudzy operatorzy walczą o klientów z każdego segmentu. Dostawcy chmury publicznej próbują startować w przetargach do dużych projektów infrastrukturalnych, a lokalni operatorzy centrów danych oferują tanie rozwiązania
dla mniejszych klientów – wyjaśnia Karol Olszewski.
Zdaniem integratora
Jakub Jagielak, dyrektor ds. rozwoju cyberbezpieczeństwa, Atende
Chmura publiczna jest tematem, którzy nasi klienci dość często poruszają w rozmowach z nami. Powodem są przede wszystkim ograniczenia posiadanych przez nich zasobów, tak dzieje się szczególnie w przypadku MŚP. Kolejnym zagadnieniem w rozważaniach dotyczących chmury publicznej w firmach jest bezpieczeństwo. Deklaracja dostawcy chmury, twierdzącego, że zdejmie kwestię ochrony zasobów z barków klienta i będzie za nią odpowiadał, wydaje się atrakcyjna. Jednakże decyzja o przejściu do chmury wiąże się z przekazaniem wszystkich danych operatorowi, wymaga więc zaufania i pogodzenia się z tym, że zostaną one wyprowadzone poza firmę, na co nie wszyscy chcą się zgodzić. Rozwiązaniem jest chmura hybrydowa – część zasobów pozostaje w firmie, część wychodzi na zewnątrz. W takim modelu widzę zdecydowanie większą szansę na biznes dla integratora.
Choć może się wydawać, że usługi globalnych i lokalnych dostawców są konkurencyjne, zdaniem Adama Dzielnickiego są komplementarne i uzupełniają się. Warunki dyktują firmy, które chcą korzystać z szerokiej oferty tradycyjnych usług IT, chmury publicznej, prywatnej lub wszystkich jednocześnie – w zależności od aktualnych potrzeb. Przedsiębiorstwa rozwijają się, inwestują w kolejne rozwiązania IT, a z czasem okazuje się, że coś, co sprawdzało się rok temu, już nie wystarcza. Łączenie rozwiązań to często wyjście najbardziej optymalne, gwarantujące największą elastyczność i efektywność kosztową.
– Klienci będą potrzebowali stałego doradztwa i pomocy w rozwijaniu i utrzymywaniu złożonych środowisk, na które składają się tradycyjne rozwiązania lokalne, usługi zlecane przez firmy zewnętrzne oraz usługi w chmurze. Dostawcy będą musieli utrzymywać zespoły ekspertów lub budować silne sieci partnerskie, aby oferować takie usługi – ocenia Ewa Zborowska.
Ale polski rynek to nie tylko prywatni dostawcy globalni i lokalni. Na jego kształt wpływać będzie także rządowa chmura obliczeniowa (projekt Ministerstwa Cyfryzacji i Centralnego Ośrodka Informatyki) dostarczająca mocy obliczeniowej dla państwowych systemów i rejestrów. Bez względu na to, kto zdominuje rynek w Polsce i w jakim modelu, można się spodziewać, że ciągły wzrost sprzedaży usług w chmurze przyczyni się do większego zainteresowania usługami wsparcia świadczonymi przez partnerów wszystkich operatorów działających na naszym rynku.
Coraz więcej chmury w Polsce
Zdaniem analityków IDC w 2018 r. usługi w chmurze stanowiły jeden z najbardziej dynamicznie rozwijających się sektorów polskiego rynku IT, rosnący kilkakrotnie szybciej niż inne segmenty. Wydatki na chmurę publiczną i prywatną wyniosły w 2018 r. 325,52 mln dol., co oznacza wzrost w stosunku do notowanych w 2017 r. o 26,6 proc. Dominuje chmura publiczna. Do niej należało w 2018 r. 91,9 proc. rynku, pozostałe 8,1 proc. należało do chmury prywatnej. W chmurze publicznej najwięcej sprzedaje się usług Software as a Service (64,8 proc.), drugie miejsce zajmują usługi Infrastructure as a Service (22,5 proc.), a trzecie Platform as a Service (12,7 proc.).
Jeśli chodzi o branże, najchętniej po chmurę obliczeniową sięgają w Polsce: przemysł (szczególnie w produkcji montażowej), handel detaliczny i hurtowy, firmy z branży usług profesjonalnych oraz telekomunikacja i media. Mimo nadal istniejących obaw dotyczących bezpieczeństwa i zgodności z obowiązującymi regulacjami, ubiegły rok przyniósł nowe projekty realizowane w placówkach administracji publicznej i w firmach branży finansowej.
Artykuł Centrum danych w drodze ku chmurze pochodzi z serwisu CRN.
]]>Artykuł Certyfikacja: przede wszystkim bezpieczeństwo pochodzi z serwisu CRN.
]]>Zmiana oczekiwań nastąpiła bardzo szybko, zwłaszcza w minionych kilkunastu miesiącach, ze względu na regulacje RODO oraz NIS (ustawa o cyberbezpieczeństwie). Stąd bardzo ważną kwestią dla przedsiębiorstw stało się potwierdzenie bezpieczeństwa danych, dostępności usług oraz ciągłości działania.
– Dla firm przetwarzających strategiczne dane lub działających w branżach regulowanych posiadanie przez operatora data center takiego certyfikatu jak ISO/IEC 27?001:2013 lub ISO 9001:2015 jest warunkiem niezbędnym do tego, by w ogóle rozpocząć rozmowy. Dotyczy to nie tylko dużych firm – twierdzi Adam Dzielnicki, kierownik produktu w Atmanie.
Po ubiegłorocznym wejściu w życie nowych unijnych regulacji w zakresie przetwarzania danych certyfikat ISO 27001, dotyczący bezpieczeństwa informacji, staje się dla klientów bardzo ważnym kryterium wyboru dostawcy. Potwierdza spełnienie standardów m.in. w zakresie polityki bezpieczeństwa, zgodności z przepisami, zarządzania systemami i sieciami, kontrolą dostępu, rozwoju oraz utrzymania systemów informatycznych, a także zarządzania incydentami związanymi z bezpieczeństwem informacji. Przy czym standard zarządzania jakością ISO 9001, choć najbardziej rozpoznawalny wśród klientów z różnych branż, nie jest wcale najważniejszy.
– Na rynku data center liczą się dwie certyfikacje: ANSI/TIA i Uptime Institute. Ze względu na globalne uznanie i rozpoznawalność są bardzo dobrze przyjmowane przez międzynarodowe koncerny. Około 90 proc. zapytań ofertowych klientów dotyczy tych dwóch certyfikatów – mówi Tomasz Sobol, dyrektor marketingu Beyond.pl.
Warto przy tym wspomnieć, że w naszym regionie – pod naciskiem UE – pojawiają się również certyfikaty EN50600, które są europejską wersją ANSI. Niemniej według operatorów DC w najbliższym czasie mają zyskiwać na znaczeniu takie certyfikaty jak: Uptime Institute (dostępność infrastruktury data center), PCI DSS (bezpieczeństwo przetwarzania danych związanych z kartami płatniczymi), SOC (kontrola systemu i organizacji) a także ISO 27001 i ISO27018 (bezpieczeństwo danych w chmurze). W tym kontekście wymienia się również CISPE (standard w zakresie udostępniania danych oraz jakości i ciągłości świadczenia usług). Ponadto może się okazać, że polscy użytkownicy będą coraz częściej szukać dostawców z logo Green Energy (potwierdzenie zasilania z odnawialnych źródeł).
W wyróżnieniu się na rynku ma pomóc też osiągnięcie unikalnych poziomów bezpieczeństwa lub dostępności, co oznacza spełnienie wyśrubowanych wymagań. Przykładowo Exea podkreśla w rozmowach z klientami, że mając centrum danych z niezależnym certyfikatem Tier III (jedynym w Polsce), udało się jej stworzyć unikalną ofertę.
O wartości certyfikacji, która przekłada się na kolejne kontrakty, może świadczyć przykład nowego data center Aruba Cloud pod Mediolanem. Obiekt, który zbudowano zgodnie z certyfikatem ANSI/TIA-942:2014 Rating 4 (najwyższy poziom bezpieczeństwa danych zarówno ochrony przed ich utratą, jak i nieautoryzowanym dostępem do nich), jeszcze przed uruchomieniem miał zarezerwowane 50 proc. zasobów, a w ciągu roku od rozpoczęcia działalności – 100 proc. Jednakże, aby spełnić związane z tym wymagania, przygotowania do certyfikacji należy rozpocząć już na etapie projektowania budynku.
Tak czy inaczej, dostawcy usług IT, którzy planują rozwój w nowych segmentach rynku, prawdopodobnie nie unikną starań o kolejne certyfikaty. Według organizacji normalizacyjnej ISO można spodziewać się także nowych standardów. Klienci zainteresowani sztuczną inteligencją, edge computingiem czy biometrycznymi rozwiązaniami bezpieczeństwa będą szukać firm, które posiadają w tym zakresie odpowiednie świadectwa.
Jacek Węgrzyk, wiceprezes IT Punkt
Dla klientów bardzo ważne jest bezpieczeństwo danych. Zwłaszcza po wprowadzeniu RODO często słyszymy pytania dotyczące tej kwestii. Dlatego zdecydowaliśmy się uzyskać certyfikat ISO 27001, jako potwierdzenie przestrzegania procedur bezpieczeństwa. Gdy ktoś chce wiedzieć, jak chronione są dane, i słyszy, że firma ma ISO 27001, to zazwyczaj kończy dyskusję. Mamy już pozytywną opinię zewnętrznego audytora. Uzyskanie certyfikacji to oczywiście także koszt, ale w sumie opłaca się nie tylko z uwagi na oczekiwania klientów. Spełnienie jej wymagań umożliwiło nam uporządkowanie pewnych procesów, co i tak warto było zrobić nie tylko dla papieru. Mam tutaj na myśli między innymi regulacje dotyczące zabezpieczeń rozwiązań mobilnych. Poza tym po wstępnej analizie firmy zewnętrznej okazało się, że w zasadzie nie trzeba było niczego zmieniać. Nawet nie mając formalnego potwierdzenia, przestrzegaliśmy wysokich standardów, bo po prostu inaczej trudno z powodzeniem funkcjonować w biznesie data center czy jako integrator systemów. Jeśli chodzi o certyfikację dużych centrów danych na poziomach typu Tier III czy IV, to dla ich klientów z pewnością ma to duże znaczenie. Niektóre przedsiębiorstwa wymagają najwyższego poziomu ochrony, a także odpowiednich procesów od dostawcy usług.
Co istotne, dotychczas oczekiwania dotyczące formalnych poświadczeń miały przede wszystkim duże przedsiębiorstwa. Od pewnego czasu także średni, a nawet mali klienci coraz częściej oczekują od dostawców odpowiednich papierów. Z obserwacji dostawców IT wynika, że zwłaszcza nowopowstałe firmy i startupy mają wysokie wymagania i poszukują rozwiązań, które umożliwią szybki rozwój biznesu bez obawy o ewentualne zawirowania związane chociażby z kwestiami cyberbezpieczeństwa oraz prawnymi. Generalnie jednak gwarancji bezpieczeństwa domagają się przede wszystkim instytucje publiczne, a także firmy z sektora finansowego i energetycznego.
Jak zauważali dostawcy, posiadanie certyfikatu nie jest jednak absolutnym gwarantem spełnienia określonych norm. Istotna jest weryfikacja za pomocą powtarzanych, zewnętrznych audytów, a z tym bywa różnie. Bez odpowiedniego nadzoru zdarzają się błędy w implementacji wymaganych certyfikacją rozwiązań albo nie są one właściwie rozwijane. Integratorzy powinni zwrócić uwagę na niezależność instytucji audytującej oraz charakter przyznanego certyfikatu.
– Czasem sama deklaracja spełnienia norm może okazać się niewystarczająca. Warto zweryfikować, kto audytował dany ośrodek i w jaki sposób. Niestety, ostatnie doświadczenia z krajowego rynku pokazują, że nawet duże i uznane marki mają problemy z utrzymaniem ciągłości działania. Oznacza to, że odpowiednie procedury są naprawdę istotne – podkreśla Łukasz Ozimek, dyrektor ds. operacyjnych w Exea Data Center. Przekonuje, że dla integratorów współpraca z certyfikowanym centrum danych jest dodatkowym atutem na rynku.
Adam Dzielnicki, kierownik produktu w Atmanie, zauważa, że integratorzy, którzy rozważają rozpoczęcie współpracy z centrum danych, powinni postarać się też o dobre zrozumienie działania oferowanego produktu czy usługi, bo wiele z nich ma swoją specyfikę. Certyfikaty potwierdzają spełnienie kluczowych wymagań, ale nie uwzględniają wszystkich detali.
– Certyfikacja to ocena przez pryzmat pewnych zdefiniowanych kryteriów. To nie zawsze w pełni oddaje jakość wszystkich elementów konkretnego rozwiązania, szczególnie w przypadku gdy jest ono zbudowane od podstaw zgodnie z indywidualnymi wymaganiami klienta – podsumowuje przedstawiciel Atmana.
Tomasz Sobol, dyrektor marketingu Beyond.pl
Certyfikacja to bardzo duża wartość dodana dla integratorów. Dzięki niej ich oferta staje się unikatowa. Umożliwia pozyskanie i utrzymanie klienta. Ze względu na rosnącą liczbę regulacji usług cyfrowych certyfikacje z każdym rokiem będą stanowić coraz ważniejszy wyróżnik. Wystarczy spojrzeć na polski rynek. W 2015 r. była tylko jedna serwerownia z certyfikatem. Dziś mamy już pięć takich obiektów: cztery ze standardem na poziomie 3 i Beyond.pl z klasą 4. Certyfikacje stały się szczególnie ważne ze względu na takie regulacje jak RODO i ustawę o cyberbezpieczeństwie. Na Zachodzie natomiast gwarantują niższe ceny ubezpieczeń dla biznesu, ponieważ zapewniają zmniejszenie ryzyka związanego z utratą lub niedostępnością danych, aplikacji oraz systemów.
Marcin Zmaczyński, dyrektor regionalny Aruba Cloud w Europie Środkowo-Wschodniej
Wraz ze wzrostem znaczenia danych coraz ważniejsza będzie gwarancja ich bezpieczeństwa i nieprzerwanego dostępu do firmowych zasobów. Dla wielu przedsiębiorstw, zwłaszcza działających na konkurencyjnych rynkach, przerwa w świadczeniu usług może oznaczać podkopanie zaufania klientów, a w konsekwencji ich odpływ do konkurencji. Dla małych i średnich firm, które zajmują się na przykład Big Data, dostępność mocy obliczeniowej za pośrednictwem chmury… to być albo nie być. Także kwestia ekologii będzie zyskiwała na znaczeniu. Wiele przedsiębiorstw będzie chciało pochwalić się, że korzystają z usług data center, które nie przyczynia się do zmian klimatycznych.
Artykuł Certyfikacja: przede wszystkim bezpieczeństwo pochodzi z serwisu CRN.
]]>Artykuł RODO: kolejne wyzwania, kolejne wdrożenia pochodzi z serwisu CRN.
]]>Szymon Dudek, dyrektor Działu Oprogramowania, pełnomocnik zarządu, Infonet Projekt
Mariusz Kochański, członek zarządu, dyrektor Działu Systemów Sieciowych, Veracomp
Marcin Serafin, szef Zespołu Ochrony Danych Osobowych oraz Zespołu Kontraktów IT, partner w kancelarii prawnej Maruta Wachta
Tomasz Sobol, dyrektor marketingu, Beyond.pl
CRN Niedługo minie rok od wejścia w życie unijnego rozporządzenia o ochronie danych osobowych. To dobry czas na podsumowanie pierwszych doświadczeń i analizę wniosków z dotychczasowego funkcjonowania nowych przepisów w praktyce. Jak wygląda sytuacja z perspektywy branży IT?
Mariusz Kochański Pozytywnym aspektem pojawienia się RODO było zwrócenie uwagi na kwestię ochrony danych osobowych. Wprawdzie obowiązywała już wcześniej ustawa o ochronie danych osobowych, ale wiedza o zawartych w niej regulacjach nie była powszechna. Dyskusje wokół RODO spowodowały olbrzymią zmianę w świadomości decydentów i obywateli. To przełożyło się również na zwiększone zainteresowanie narzędziami informatycznymi. Co nie zmienia faktu, że przed nami jeszcze dużo pracy. W przypadku tego rozporządzenia bowiem nie tylko treść jest ważna, ale i wykładnia. RODO można interpretować na różne sposoby i dojść do zupełnie różnych wniosków. Czekamy więc na doktrynę, na orzeczenia prezesa Urzędu Ochrony Danych Osobowych. W dobrym skądinąd poradniku dla dyrektorów szkół pojawiają się sformułowania typu „wydaje się, że dobrym rozwiązaniem będzie”, a nie stwierdzenia „dobrym rozwiązaniem będzie”. To pokazuje, że sam regulator jest jeszcze na początku drogi.
Marcin Serafin Od stycznia do października ubiegłego roku szefowie UODO zatrudnili 112 nowych pracowników, podczas gdy w grudniu 2017 roku pracowało w nim mniej niż 200 osób. Nastąpiła więc niemalże całkowita wymiana kadr. Tak samo jak wszystkie przedsiębiorstwa, również i ten urząd musiał się zmierzyć z trudnym problemem wdrożenia RODO. Największym wyzwaniem – zarówno po stronie administracyjnej, informatycznej, prawnej, jak i biznesowo-konsultingowej – jest obecnie brak dobrej kadry, która byłaby w stanie w sposób rzetelny i merytoryczny pomóc tym, którzy są zobligowani do przestrzegania przepisów.
CRN Dosyć powszechne są jednak oczekiwania, że UODO mogłoby być choć trochę bardziej aktywne, co by pomogło wszystkim zainteresowanym w dostosowywaniu się do wymogów RODO…
Marcin Serafin Od 25 maja do 21 lutego UODO wszczęło 50 kontroli i jednocześnie 1379 postępowań w sprawie naruszenia przepisów – na podstawie różnego rodzaju skarg lub informacji własnych pozyskanych przez urząd. Spośród 50 kontroli 44 zostały zakończone. Ogłoszony został również plan kontroli sektorowych na rok 2019. Widać więc, że wiele rzeczy już działa. Problem leży jednak w czym innym. Przed wejściem rozporządzenia w życie każdy z nas – każda firma czy instytucja – robił wiele, żeby wywiązać się z nałożonych nowymi przepisami obowiązków. I każdy dotarł po swojemu do momentu, w którym sam uznał określony stan za zgodny z RODO. Kłopot w tym, że jest on tak naprawdę nieuchwytny, nie da się go jednoznacznie zidentyfikować ani umiejscowić w czasie. To proces i zmienna, którą trzeba bez przerwy śledzić i waloryzować.
CRN Jak w praktyce firmy i instytucje radziły sobie z tą niejednoznacznością czy otwartą formułą nowych przepisów? Czy po zgłaszanych przez klientów potrzebach widać było, czy i jak rozumieją RODO? Czy dały się zauważyć jakieś trendy, na przykład zwiększone zapotrzebowanie na określone rozwiązania?
Szymon Dudek Z naszych doświadczeń wynika, że przedsiębiorstwa i urzędy interpretowały przepisy po swojemu. Z samego rozporządzenia nie wynikało bowiem wprost, co trzeba zrobić, żeby być z nim zgodnym. Nasi klienci robili więc zazwyczaj maksymalnie dużo, wszystko, co było w ich mocy, na co było ich stać, żeby w razie czego móc wykazać, że zrobili jak najwięcej, żeby sprostać wymogom RODO, że postarali się jak najbardziej dostosować swoje procedury i technologie do nowych przepisów. Po części zainteresowanie rozwiązaniami służącymi zapewnieniu zgodności z regulacjami nadal daje się zaobserwować, ale jest już znacznie, znacznie słabsze niż przed majem ubiegłego roku.
Tomasz Sobol Mimo niejednoznaczności zapisów RODO mogliśmy jednak dokonać podziału, kto jest administratorem danych, a kto procesorem. Zarówno jako zleceniodawcy, jak i zleceniobiorcy zdaliśmy sobie sprawę z różnych zakresów odpowiedzialności. To było do tej pory bardzo niejasne. W wielu przypadkach nadal zapewne takie pozostanie, ale istnieje już punkt odniesienia do określenia tych ról. W naszym przypadku to jest ogromne wyzwanie, by uświadomić klientom, co my – jako dostawca usług – im gwarantujemy, a za co oni sami są odpowiedzialni. Wiele rzeczy musimy razem z nimi wypracować. Przy czym zapewnienie zgodności z RODO to proces ciągły, ale nie można związanych z nim wymagań sprowadzać do absurdu, jak to się w niektórych miejscach działo czy dzieje. Działania nadmiarowe, wprowadzanie nieuzasadnionych obecnymi wyzwaniami rozwiązań nie przybliżą nas do ustalenia, co jest zgodne z RODO, a co nie, bo za chwilę wiele rzeczy może ulec zmianie.
CRN W jakim stopniu wprowadzenie nowych zasad ochrony danych osobowych wygenerowało zapotrzebowanie na nowe technologie i stało się faktycznie powodem nowych zamówień na rynku informatycznym?
Marcin Serafin W drugiej połowie 2017 roku były wielkie plany, wszyscy wkoło opowiadali, jakich to systemów nie będą wdrażać albo jakie powinny zostać wdrożone. Kiedy na początku 2018 roku zaczęto uświadamiać sobie, że do terminu wejścia w życie rozporządzenia pozostało już naprawdę niewiele czasu, wydawało się, że wszyscy rzucą się do szerokiego informatyzowania zasobów, automatyzowania procesów, uruchamiania programów klasyfikacji danych. W ostateczności okazało się, że wiele rzeczy jest nadal robionych „ręcznie”. Nowych systemów informatycznych, które zostały wdrożone z powodu RODO – a muszę podkreślić, że pracowałem dla ponad 100 klientów, pomagając im wdrażać unijne rozporządzenie – widziałem dosłownie dwa i oba dotyczyły zarządzania zgodami. Tak naprawdę dopiero teraz nadchodzi moment, kiedy będziemy mieli do czynienia z pojawianiem się przemyślanych wdrożeń IT służących ochronie danych osobowych zgodnie z regułami RODO.
Mariusz Kochański Inwestycje w rozwiązania informatyczne wprawdzie się pojawiły, ale nie wszystkie były bezpośrednio efektem RODO. Instytucje, które zawsze cechował wysoki poziom ryzyka związany z cyberzagrożeniami – bankowość, przedsiębiorstwa użyteczności publicznej, telekomy – musiały wykonać szereg prac związanych ze zmianą procedur czy procesów biznesowych. Nie zauważyłem tam jednak drastycznej zmiany architektur zabezpieczeń. Pojawiły się natomiast środki na narzędzia pozwalające zidentyfikować, kiedy i w jakich okolicznościach doszło do wycieku danych. Przyczynił się do tego nie tylko wymóg zgłaszania incydentów w ciągu 72 godzin. To jest również pochodna wielkich strat firm na rynku amerykańskim wskutek wycieków danych w dużych korporacjach. Jeśli chodzi o polskie banki czy telekomy, to RODO wywołało rewolucję prawną, procesową, ale nie technologiczną. Natomiast w sektorze publicznym, który od dawna zmaga się z brakiem funduszy, RODO spowodowało, że decydenci lepiej zaczęli rozumieć problem. Pojawiło się przekonanie, że jednak pieniądze na bezpieczeństwo trzeba wydać i nie można dalej stosować zasady „jakoś to będzie”.
Szymon Dudek Nowe przepisy skłoniły wiele firm do optymalizacji procesów przetwarzania danych. Zaczęto się zastanawiać, jak sprawdzić, jakimi danymi dysponujemy, czy wszystkie są nam faktycznie potrzebne, z których możemy zrezygnować, co wymaga dodatkowej inwentaryzacji. Średnio połowa naszych klientów dysponowała już potrzebnymi do tego systemami i stosowną infrastrukturą. Pozostali dopiero szukali rozwiązań w tym zakresie, co wiązało się często z zamówieniami na nowe narzędzia czy produkty, na przykład dodatkowy storage, system do zarządzania uprawnieniami czy zabezpieczenie styku z internetem. W większości przypadków były to w zasadzie działania na ostatnią chwilę, tuż przed terminem wejścia w życie RODO.
CRN Jak z niejednoznacznymi zapisami unijnego rozporządzenia radziła sobie branża IT? Przedsiębiorstwa informatyczne chciały być postrzegane przez swoich klientów jako ich wybawcy z kłopotu. Z jakimi wyzwaniami wiązało się przygotowanie oferty adekwatnej do wymogów RODO?
Mariusz Kochański Jako podmiot, który również przetwarza dane osobowe, zmagaliśmy się dokładnie z takim samym problemem jak kilkanaście lat temu, gdy wchodziło w życie rozporządzenie unijne dotyczące towarów podwójnego zastosowania. Wszyscy je znali w kontekście czołgów, broni, ale mało kto wiedział, że dotyczy to również produktów związanych z szyfrowaniem. Jako dystrybutor mozolnie edukowaliśmy resellerów odnośnie do konieczności wypełniania stosownych oświadczeń o przeznaczeniu końcowym produktu. Okres adaptacji do nowych warunków trwał około dwóch lat. W przypadku rozporządzenia o ochronie danych osobowych proces uświadamiania partnerów był już znacznie krótszy – zajął około dwóch, trzech miesięcy. Tyle czasu wymagało powszechne zrozumienie w kanale sprzedaży wyzwań związanych z RODO. Teraz rozmowa z resellerami dotyczy już innych aspektów. Nie trzeba chociażby tłumaczyć różnic między rolą administratora a procesora.
CRN A w jaki sposób pojawienie się RODO wpłynęło na współpracę firm informatycznych z użytkownikami rozwiązań IT?
Tomasz Sobol Dla nas to była dobra okazja do wytłumaczenia, czym jest chmura obliczeniowa. RODO spowodowało, że klienci chcieli bardzo dokładnie poznać, zrozumieć, jak jest skonstruowany i jak logicznie działa cloud computing. To było potrzebne chociażby do precyzyjnego rozdzielenia odpowiedzialności za przetwarzanie danych – za co bierzemy odpowiedzialność my, a za co musi odpowiadać klient. Często bowiem kontrahenci wyobrażają sobie, że jak kupują usługę, to automatycznie uwalniają się od odpowiedzialności. A prawda jest taka, że odpowiedzialność musi być współdzielona. To spowodowało, że klienci zaczęli zwracać większą uwagę również na rozwiązania, które mają wdrożone w firmach. Uświadomili sobie, że mogą istnieć luki w zabezpieczeniach także po ich stronie, co w wielu przypadkach skutkowało na przykład inwestycjami w narzędzia do monitorowania przetwarzanych danych. Przedsiębiorstwa zaczęły wprowadzać szyfrowanie, wiele odkryło, że może mieć specjalne szyfrowane łącza między lokalizacjami, tj. VPN. Dzięki RODO biznes zyskał szanse na odrobienie lekcji z zakresu bezpieczeństwa: jak najlepiej zaprojektować i zbudować swoją infrastrukturę, żeby nie narażać się na niepotrzebne zagrożenia? Okazało się również, że czynnik ludzki też można trzymać w ryzach dzięki wprowadzonym procedurom.
Marcin Serafin Pod adresem firm informatycznych pojawiły się jednak także nadmiarowe oczekiwania czy wymagania. Widać to na przykładzie umów powierzenia przetwarzania danych. Wielu klientów wychodziło z założenia, że gdy nie wiadomo, co zrobić, to lepiej na wszelki wypadek zawrzeć umowę, chociaż nie zawsze było to uzasadnione. W przypadku standardowych usług kolokacji umowa na powierzenie przetwarzania danych osobowych nie jest potrzebna, gdyż przy prostej kolokacji usługodawca nie ma w ogóle dostępu do danych osobowych. W wielu innych sytuacjach firmy chciały nakładać na swoich partnerów biznesowych różne wymogi i obowiązki, na przykład narzucać stosowanie określonych rodzajów środków technicznych czy żądać kar umownych za niespełnienie tego rodzaju warunków. To ani nie miało uzasadnienia w samych przepisach, ani nie wynikało z istoty rozporządzenia czy faktycznej sytuacji firmy. Chodziło raczej o szukanie za wszelką cenę sposobów zabezpieczenia się przed ewentualnymi zarzutami niedopełnienia wymogów prawnych.
Tomasz Sobol W informatyce nie zawsze jednak mamy do czynienia z prostymi, jednoznacznymi sytuacjami. W usłudze kolokacji musimy uwzględniać czynnik, który wiąże się z zapewnieniem ciągłości dostępu do danych. Nawet jeśli usługodawca nie ma w ogóle dostępu do danych osobowych, to w interesie klienta leży zadbanie o warunki, w których będzie miał stały dostęp do swoich danych. Także w sytuacji, gdy jest to tylko dostęp do ich fizycznego nośnika. I właśnie z tego powodu umowa powierzenia danych pomiędzy usługodawcą kolokacji a klientem powinna być zawarta. Dobrze jest określić wzajemne powinności i działania, chociażby po to, aby klient wiedział, co się dzieje z jego danymi, gdyby ewentualnie w konkretnym momencie nie mógł z nich skorzystać, i jak sam ma się na taką sytuację przygotować. RODO nakłada więc w pewien sposób na dostawcę usług chmurowych i kolokacyjnych obowiązek zapewnienia ciągłości dostępu do danych.
CRN Można powiedzieć, że rozporządzenie uruchomiło pewne procesy, które będą dalej trwać. Jak będą się one przekładały na dalsze wykorzystanie nowych technologii? Czego branża IT może się w tym kontekście spodziewać? Czego w kolejnych latach obowiązywania RODO będą potrzebować przedsiębiorstwa przetwarzające dane osobowe?
Marcin Serafin Jedna grupa niezbędnych produktów związana jest z całym obszarem bezpieczeństwa danych, niekoniecznie osobowych – zarówno w zakresie zapewnienia ich poufności, dostępności, jak i integralności. Rynek tych rozwiązań będzie się cały czas rozwijał, gdyż każdy klient będzie potrzebował innych, dostosowanych do swoich wymogów i możliwości narzędzi. Drugi obszar, który jest dotychczas najsłabiej zagospodarowany, a do którego wielką wagę przykłada RODO, dotyczy skutecznego usuwania i anonimizowania danych. W większości firm odbywa się to w sposób „ręczny”, proceduralny, a nie na poziomie zautomatyzowanym. Nieliczne przedsiębiorstwa mają rozwiązania, które rzeczywiście potrafią zrealizować to wielostopniowe zadanie. W rzeczywistości nie chodzi bowiem o usuwanie danych fizycznie z nośnika, tylko o uniemożliwienie uzyskiwania dostępu do nich w określonych procesach biznesowych lub przez poszczególne działy czy pracowników.
CRN A co będzie w tym kontekście kluczową kwestią, na którą szczególnie warto zwrócić uwagę?
Marcin Serafin Najważniejszą sprawą będzie możliwość skutecznego zarządzania dostępem do danych osobowych. Na jeden z portugalskich szpitali została nałożona kara za to, że nie odebrał uprawnień dostępu do danych osobom, które nie powinny ich mieć. To jest obszar, który będzie wymagał szczególnej uwagi i nadzoru, a z drugiej strony zapewniał olbrzymie możliwości wykorzystania rozwiązań informatycznych do wspomagania i automatyzacji niezbędnych działań. Tym bardziej że w zdecydowanej większości przedsiębiorstw i instytucji rozwiązania informatyczne mają charakter rozproszony – nie ma jednego systemu, który by wszystkim zarządzał. Potrzebny więc będzie rodzaj nakładki, która dopilnuje, by z jednego systemu dane zniknęły, ale w drugim były nadal dostępne.
Szymon Dudek Zanim dojdzie do pełnej automatyzacji zarządzania uprawnieniami dostępu do danych, można wykorzystać również rozwiązania półautomatyczne. Decyduje się na to, jak widzimy, wiele firm przetwarzających duże ilości danych osobowych. Jeśli w jednym systemie, na przykład CRM, następuje „skasowanie” danych, do operatorów innych systemów zostaje wysłana informacja o konieczności zablokowania dostępu również u nich. Zanim w przedsiębiorstwie pojawi się rozwiązanie docelowe w postaci pełnej programowej integracji mechanizmów udostępniania danych, warto pomyśleć o mechanizmach pośrednich, które też znacznie wspomagają i ułatwiają spełnienie wymogów RODO. Mogą one dać firmom informatycznym szansę na współpracę z klientem, którego nie stać na wdrożenie zaawansowanych, w pełni zautomatyzowanych systemów lub u którego nie ma takiej potrzeby.
CRN Warto, jak widać, szukać wyzwań związanych z ochroną danych osobowych ze względu na nowe, obiecujące perspektywy rozwoju biznesu dla integratorów i resellerów…
Mariusz Kochański Wszystko, o czym rozmawiamy, trzeba wpisać w szerszy kontekst. Po pierwsze mamy do czynienia z ogromnym deficytem specjalistów. Dotyczy to nie tylko sektora publicznego, lecz także firm prywatnych. Przedsiębiorstw nie będzie stać na utrzymywanie wszystkich potrzebnych specjalistów. Konsekwencją tego będzie rozwój outsourcingu. Jednym z obszarów w coraz większym zakresie powierzanych do obsługi na zewnątrz będzie ochrona firmowych danych i zasobów. Ten trend trzeba będzie zderzyć z wymogami RODO.
Ze względu na wielość i złożoność systemów informatycznych duże przedsiębiorstwo czy urząd dużego miasta nie będzie w stanie korzystać z usług jednego outsourcera – może współpracować z kilkoma lub kilkunastoma. Potrzebne więc będą zautomatyzowane rozwiązania umożliwiające zarządzanie dostępem do określonych systemów dla różnych partnerów. Tu pojawia się duża szansa dla resellerów i integratorów. Rosło będzie również zapotrzebowanie na wszelkiego rodzaju rozwiązania analityczne: narzędzia do analityki ruchu, zachowań użytkowników, sytuacji w centrum danych. Inny obszar, w którym firmy informatyczne znajdą miejsce dla siebie, to doradztwo w zakresie samej architektury – czyli jak zaprojektować i zbudować środowisko IT, żeby było zgodne z RODO, a do tego optymalne kosztowo i efektywne biznesowo. Resellerzy i integratorzy mogą też doradzać, jak postępować z oprogramowaniem, które jest coraz bardziej niedoskonałe, bo tworzone pod coraz większą presją czasu. Na przykład część tych niedoskonałości można niwelować na poziomie infrastruktury. Większą wagę będą mieć też kwestie dotyczące zapewnienia odpowiedniego poziomu bezpieczeństwa terminala użytkownika. Coraz więcej osób loguje się do aplikacji krytycznych w firmie ze smartfona lub laptopa. Same systemy w przedsiębiorstwie mogą być doskonale zabezpieczone, ale jak nie będzie kontroli nad urządzeniami dostępowymi, to zagrożenia pozostaną.
Tomasz Sobol W cyberświecie liczba zagrożeń będzie raczej rosnąć, niż maleć. Chociażby dlatego, że informatyka bazuje na różnych technologiach, firmy korzystają z wielu różnych aplikacji i usług różnych dostawców – nie ma jednego uniwersalnego kodu, nie ma jednego dla wszystkich systemu. Z tego powodu tak istotne staje się zapewnienie odpowiedniej architektury zabezpieczeń. To jest dzisiaj pierwszoplanowe zadanie – żeby mieć świadomość, jak działają systemy i gdzie mogą się pojawić naprawdę poważne zagrożenia. RODO może nam w tym pomóc, bo nakłada na nas obowiązek zastanowienia się, jak ukształtować środowisko funkcjonowania firmy, aby czuć się zabezpieczonym na różnych poziomach i etapach. Nie musimy dawać dostępu z telefonu komórkowego bezpośrednio do infrastruktury krytycznej, lecz na przykład do swoistej bramki zewnętrznej, gdzie będzie się pojawiał tylko obraz kokpitu z wywołanej aplikacji. Konieczność radzenia sobie z takimi wyzwaniami z całą pewnością przyczyni się do rozwoju informatyki i projektowania bezpiecznej architektury systemów czy aplikacji.
Szymon Dudek Wiele informacji potrzebnych do znalezienia odpowiednich rozwiązań może dostarczyć dobrze przeprowadzona analiza ryzyka. Ona jest kluczowa dla wdrożenia rozwiązań ochronnych zgodnych z unijnym rozporządzeniem. Pokaże nam, gdzie są największe zagrożenia dla bezpieczeństwa danych w firmie. Bardzo często okazuje się jednak, że jest to sam użytkownik i urządzenie, z którego korzysta. Pojawia się też jednocześnie coraz więcej narzędzi do przeciwdziałania tym zagrożeniom, jak na przykład konteneryzowanie danych osobowych na smartfonach pracowników. Zainteresowanie zabezpieczeniami urządzeń mobilnych będzie w najbliższym czasie rosło, bo znajduje się na nich coraz więcej informacji, które są warte przechwycenia.
Marcin Serafin Dobrze, rzetelnie zrobiona analiza ryzyka jest sposobem poradzenia sobie z brakiem precyzyjności nowych przepisów o ochronie danych osobowych. Przy czym nie ma ucieczki od nieoznaczoności, bo taka jest istota RODO jako inteligentnego aktu prawnego. Gdy jednak uczciwie zdiagnozujemy, co nam może naprawdę zagrażać, co się faktycznie może wydarzyć, to będziemy wiedzieli, jakie środki zastosować. W informatyce to zresztą nic nowego – każdy projekt nowego wdrożenia, wprowadzenia nowych funkcji czy usług poprzedzony jest analizą ryzyka. A RODO dodatkowo mówi: zwróćcie uwagę na ryzyko nie tylko informatyczne, nie tylko z zakresu cyberbezpieczeństwa, ale również wynikające z tego, że ktoś utraci dostęp do swoich danych, przez co nie będzie mógł skorzystać z jakiejś bardzo ważnej dla niego funkcji lub przysługującego mu prawa. W kontekście unijnego rozporządzenia musimy pamiętać, że chronimy nie tyle przedsiębiorstwo jako organizację i jej zasoby, ale przede wszystkim osoby, które są z nią w ten czy inny sposób związane. I tu jest klucz do zrozumienia istoty wymogów RODO. Skupiamy się na tym, żeby było dobrze pojedynczemu Janowi Kowalskiemu, którego dane u siebie przetwarzamy. Jeśli to zrozumiemy, łatwiej nam będzie określić, kiedy już osiągnęliśmy zgodność z nowymi przepisami, a kiedy jeszcze musimy zrobić coś więcej. Ważne jest, by mieć świadomość, że nie chodzi o samo bezpieczeństwo informacji, lecz zadbanie o komfort osoby, której dane mamy u siebie.
CRN Czy w kontekście branży IT można mówić o czymś takim jak specjalizacja w RODO?
Mariusz Kochański Moim zdaniem jest to szeroko pojęty obszar bezpieczeństwa. Bo za chwilę pojawi się też nowe rozporządzenie e-privacy. Jeśli będzie traktowane równie poważnie jak RODO, to dotyczyć będzie kolejnych obszarów, w tym rozwiązań technologicznych, ale przede wszystkim procesów biznesowych. Poza tym mamy postępujący proces cyfryzacji, który obejmuje kompletnie wszystkie sfery naszego życia. Wycieki danych będą momentalnie nagłaśniane w sieciach społecznościowych i będą psuły reputację podmiotów, które padły ofiarą ataków. Zapewnienie bezpieczeństwa zasobów będzie się więc stawało coraz ważniejszym wyzwaniem na polu informatyki. Postępująca cyfryzacja życia spowoduje, że kompetencje w dziedzinie zabezpieczeń wśród resellerów staną się najważniejszym wyróżnikiem ich konkurencyjności.
Marcin Serafin Według mnie istotniejsza będzie specjalizacja w ogólnie pojętym obszarze zgodności z regulacjami. RODO to tylko jeden z elementów procesu ustawicznego dostosowywania informatyki do zmian wynikających z prawa. Już niedługo wejdzie w życie ustawa o odpowiedzialności podmiotów zbiorowych, która wymusi budowanie zaawansowanych systemów zarządzania zgodnością z regulacjami prawnymi. Z drugiej strony od wielu lat widzimy na Zachodzie coraz silniejszy trend polegający na tworzeniu wewnętrznych regulacji. Równolegle możemy powiedzieć o wyzwaniach związanych z przeciwdziałaniem praniu brudnych pieniędzy, o dyrektywie PSD2, która wpłynęła na działalność wielu firm w zakresie usług płatniczych. Warto pamiętać również o szeregu innych regulacji, które będą wymagały umiejętności szybkiego zidentyfikowania wyzwań i przełożenia nowych aktów prawnych na systemy informatyczne. Dlatego, poza bezpieczeństwem, obszar compliance będzie potrzebował coraz więcej ekspertów znających się na związanych z nim wyzwaniach.
Rozmawiał Andrzej Gontarz
Artykuł RODO: kolejne wyzwania, kolejne wdrożenia pochodzi z serwisu CRN.
]]>Artykuł Komercyjne centrum danych – sojusznik czy konkurent? pochodzi z serwisu CRN.
]]>Do oferowanych od lat kolokacji i hostingu serwerów centra danych dodały nowe usługi, w których wykorzystuje się wirtualizację i cloud computing. Stworzyły ofertę pod kątem Disaster Recovery i środowisk hybrydowych (łączących zasoby IT klienta z zewnętrzną infrastrukturą). Proponują także klientom tworzenie zapasowych centrów danych i backup w formie usługi. Planujący współpracę z nimi integrator powinien rozważyć kilka kwestii.
Wybór dostawcy usług powinien być poprzedzony dokładną weryfikacją jego oferty pod względem technicznym i kompetencyjnym. Centra danych to obiekty przemysłowe, które w związku z przeznaczeniem muszą być zaprojektowane w taki sposób, aby zapewniały stabilność działania i eliminowały ryzyko występowania pojedynczych punktów awarii.
Oznacza to, że podstawą weryfikacji dostawcy jest przegląd jego infrastruktury obejmujący takie obszary jak: łączność, zasilanie i chłodzenie. Ważne jest także sprawdzenie oferowanych przez niego narzędzi do ochrony danych, redundancji rozwiązań oraz sposobu zarządzania. Pozwala to wyeliminować dostawców niespełniających oczekiwanego przez klienta poziomu bezpieczeństwa i jakości usług. Dopełnieniem analizy technicznej jest weryfikacja kompetencji zatrudnionych przez operatora pracowników. To trudny element do weryfikacji. Jednym ze sposobów jego przeprowadzenia są bezpośrednie spotkania i zapoznanie się z wynikami audytów dotyczących konkretnych dziedzin, m.in. architektury sieci i procedur bezpieczeństwa.
– Dzięki osobistym spotkaniom i ocenie przygotowania rozwiązań do konkretnych zastosowań łatwo sprawdzić, z kim przyjdzie nam współpracować – wyjaśnia Tomasz Sobol, CMO w Beyond.pl.
Bez względu na to, czy klient chce skorzystać tylko z usługi hostingu, czy zamierza stworzyć Disaster Recovery Center, najważniejszym kryterium wyboru dostawcy powinna być ocena jego niezawodności, rzetelności oraz dojrzałości technicznej i stabilności infrastruktury.
– Aby to sprawdzić, najlepiej odwiedzić centrum danych, zobaczyć, jak operator podchodzi do bezpieczeństwa i jaką infrastrukturą faktycznie dysponuje – mówi Robert Mikołajski, kierownik produktu w Atmanie.
Największe znaczenie ma poziom stabilności i dostępności oferowanych usług. Zazwyczaj jest wyrażany w gwarancji SLA w skali roku. Najlepsze ośrodki oferują stabilność usług na poziomie 99,99 proc., co oznacza mniej niż godzinę braku dostępności usług w skali roku. Pamiętajmy jednak, że same deklaracje operatorów centrów danych to za mało.
– Bardzo przydatne w ocenie jakości usług są uzyskane przez placówkę certyfikaty potwierdzone zewnętrznymi audytami – stwierdza Łukasz Ozimek, dyrektor zarządzający w Exea Data Center.
Certyfikaty, przyznawane po serii rygorystycznych testów, stanowią dowód przystosowania infrastruktury do nieprzerwanej pracy, co wprost przekłada się na dostępność oferowanych usług. Nie mniej ważne są rozwiązania w centrach danych. Redundancja infrastruktury, rozwiązania high availability oraz dostępność usług wielu operatorów telekomunikacyjnych to podstawowe warunki, które powinien spełniać każdy operator.
Przeniesienie własnych zasobów do zewnętrznego centrum danych może być dla klienta dobrym momentem na zmianę stosowanej do tej pory infrastruktury i zbudowania środowiska IT od nowa. Nie każda firma jest jednak gotowa na taką transformację.
– Dlatego właśnie podczas weryfikacji dostawców należy wziąć pod uwagę, czy jest możliwość wyboru usługi oraz przejścia na inne rozwiązania niż dotychczas stosowane w dogodnym dla klienta czasie – twierdzi Tomasz Sobol.
To ważne, bo pod pojęciem chmury obliczeniowej funkcjonuje dziś wiele różnych rozwiązań: chmury globalne, takie jak AWS, Google czy Microsoft Azure, chmury open source (OpenStack, KVM) i bazujące na licencjonowanym oprogramowaniu VMware. Różnią się nie tylko ceną, ale także wydajnością, dostępnymi platformami PaaS i SaaS oraz możliwością integracji z innymi zasobami.
Niezależnie od wyboru rozwiązania, od dostawcy usług wymaga się zapewnienia odpowiedniego zarządzania infrastrukturą i dodatkowych usług. Nie ma sensu podpisywać długoletniej umowy z firmą, która nie gwarantuje w miarę upływu czasu wprowadzania nowszych rozwiązań. Bardzo ważnym kryterium wyboru dostawcy hostingu, kolokacji lub usług zapasowego centrum danych powinna być jego zdolność do rozwijania i proponowania usług uzupełniających.
– Dobrym przykładem jest gotowość do łączenia kolokacji z chmurą obliczeniową, szczególnie że rośnie znaczenie rozwiązań hybrydowych – zauważa Robert Mikołajski.
Przedsiębiorstwa korzystają na ogół z usług różnych dostawców, z których każdy specjalizuje się w innym obszarze, na przykład: telekomunikacji, systemów bezpieczeństwa, przygotowania planów awaryjnych czy chmury obliczeniowej. Przeniesienie danych do zewnętrznego centrum danych nie powinno zmuszać do zakończenia współpracy z dotychczasowymi usługodawcami.
– Operator powinien umożliwić klientowi decydowanie o tym, z kim współpracuje i kto ma opiekować się poszczególnymi elementami jego firmowej infrastruktury, nie tylko w dziedzinie telekomunikacji – ocenia przedstawiciel Atmana.
Robert Mikołajski, kierownik produktu, Atman
Decydując się na dostawcę usług DRC, hostingu czy kolokacji, trzeba mieć pewność, że dysponuje on zespołem fachowców, którzy oferują coś więcej niż tylko serwis techniczny. Przede wszystkim powinni spełniać rolę doradców technologicznych. Dzięki doświadczeniu w realizacji projektów zaspokajających potrzeby klientów z różnych branż, taki fachowiec nie tylko wie, czego potrzebuje np. przedsiębiorstwo e-commerce. Jest także w stanie doradzić, co zrobić, by dane środowisko IT działało szybciej, sprawniej i było bardziej elastyczne.
Marcin Zmaczyński, Head of Marketing CEE, Aruba Cloud
Możliwość wykorzystania wielu miejsc do przechowywania kopii zapasowych klienta oraz awaryjnego przywracania jego systemów IT pozwala, w przypadku wystąpienia incydentu, zapewnić wyższy poziom niezawodności niż gdy klient korzysta z usług tylko jednego centrum danych. Nasi klienci mogą podzielić infrastrukturę według potrzeb, np. wybrać jedno miejsce do składowania kopii zapasowych, zaś w innym centrum danych wykupić usługę Disaster Recovery.
Tomasz Sobol, CMO, Beyond.pl
Przed dokonaniem wyboru centrum danych należy ocenić operatora, biorąc pod uwagę kilka podstawowych kryteriów, a następnie wyniki skonfrontować z długoterminową strategią oraz specyfiką biznesową własnego przedsiębiorstwa oraz klientów. Pozwoli to uniknąć ślepych zaułków, które mogłyby się pojawić w trakcie długoletniej współpracy z daną placówką. Przykładem może być wybór dostawcy, który nie umożliwia elastycznego rozszerzania usług, w efekcie czego w przyszłości mogą być konieczne przenosiny do innego centrum danych.
Marcin Kowalski, Senior Product Manager, Data Space
Kolokacja to podstawowa usługa dla centrum danych i baza dla wszystkich innych usług. To dojrzały rynek i żeby na nim przetrwać potrzeba albo perfekcji w działaniu, albo czynników wyróżniających ofertę operatora. Mogą nimi być przyjazne procedury dostępu do obiektu, udostępnienie narzędzi klientowi na miejscu, pomoc przy instalacji urządzeń i migracji systemów, czy też sprawnie działająca i kompleksowa usługa „zdalnych rąk”, czyli opieka doświadczonych inżynierów nad serwerem lub grupą serwerów klienta.
Łukasz Ozimek, dyrektor zarządzający, Exea Data Center
Rynek profesjonalnych usług centrów danych w Polsce stale dojrzewa. Obserwujemy coraz większe zaufanie do firm zewnętrznych. Pamiętajmy jednak, że powierzenie danych takiemu przedsiębiorstwu wymaga odpowiedniego przygotowania. I to niezależnie od tego, czy przedmiotem współpracy będą usługi hostingowe, kolokacja serwerów czy utworzenie zapasowego centrum danych.
Zapasowe centrum danych, w przeciwieństwie do kolokacji, jest usługą szytą na miarę, wymagającą odwzorowania środowiska IT klienta w zewnętrznym centrum danych oraz zaangażowania wysoko wykwalifikowanych specjalistów od zarządzania infrastrukturą IT. W Disaster Recovery Center można wydzielić warstwy przesyłania, przechowywania i przetwarzania danych. O ile przesyłanie i przechowywanie są bardziej neutralne technologicznie, o tyle przetwarzanie wymaga stworzenia identycznego środowiska jak to działające w firmie użytkownika DRC.
– W praktyce centrum danych musi zaoferować klientowi zarządzanie chmurą prywatną tego samego producenta (VMware, Proxmox itp.), analogiczne do wykorzystywanych przez niego rozwiązań pamięci masowe oraz zapewnić dobre połączenie z jego firmą – wyjaśnia Marcin Kowalski, Head of Product w Data Space.
W przypadku usług z zakresu Disaster Recovery profesjonalny operator powinien zagwarantować klientowi dywersyfikację rozwiązań obejmującą różne lokalizacje, techniki, partnerów i scenariusze awaryjne. Chodzi tutaj zarówno o przygotowanie alternatywnego miejsca pracy w przypadku, gdy nie będzie można pracować w firmowym budynku, jak i zapewnienie szybkiej zmiany środowiska IT w momencie, gdy podstawowe przestanie być dostępne.
– Warto stawiać na tych operatorów, którzy dysponują szeregiem scenariuszy działań awaryjnych, pozwalających klientowi decydować o tym, która infrastruktura (jego własna, kolokowana, wynajmowana czy zasoby w chmurze) ma służyć jako podstawowe centrum danych, a która jako awaryjne – uważa Robert Mikołajski.
Nie we wszystkich przedsiębiorstwach środowisko informatyczne musi mieć zagwarantowane nieprzerwane działanie. Za to wszystkie (przynajmniej w teorii) firmy potrzebują usługi backupu, zapewniającej odtworzenie danych w przypadku ich uszkodzenia lub utraty. Może być świadczona przez zewnętrznych usługodawców z wykorzystaniem komercyjnych centrów danych.
– Daje się ją wtedy w pełni zautomatyzować, dzięki czemu administratorzy są zwolnieni z obowiązku ręcznego uruchamiania procesów backupowych, a kopie zapasowe mogą być wykonywane według precyzyjnie określonego harmonogramu – tłumaczy Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud.
Hosting to przede wszystkim serwery WWW i e-commerce, natomiast centra danych dostarczają usługi dostosowane do potrzeb klientów, umożliwiają monitorowanie stabilności działania e-sklepów i serwisów internetowych oraz chronienie przechowywanych na serwerach danych. Ich klientem jest reseller uruchamiający biznes w internecie.
– Firmy handlowe rozważające rozpoczęcie działalności w obszarze e-commerce mają kilka opcji do wyboru: budowę własnego sklepu internetowego od podstaw, skorzystanie z platformy open source lub usługę w modelu subskrypcyjnym – mówi Michał Giernatowski, E-commerce Project Manager w ABC Data. – Ostatnia z tych metod jest zdecydowanie najprostsza i najmniej pracochłonna. Działalność sklepu można zainaugurować nawet w kilka dni.
Jest to możliwe, ponieważ przedsiębiorstwo decydujące się na model SaaS, dostaje „do ręki” w pełni funkcjonalny e-sklep wyposażony w rozbudowane funkcje, skalowalny hosting, zapewniający integracje z niezbędnymi zasobami i oprogramowaniem. Co istotne, integracja z systemami dystrybutorów lub platformami e-commerce oraz aktualizacje oprogramowania i wsparcie techniczne są zawarte w standardowej umowie z usługodawcą i objęte miesięcznym abonamentem. Oczywiście jest też druga strona medalu. W przypadku takich sklepów są zazwyczaj nieco mniejsze możliwości dostosowania ich do wymagań klientów i rozwoju w porównaniu z platformami projektowanymi i budowanymi od podstaw. Natomiast wzbogacenie o ponadstandardowe funkcje zazwyczaj oznacza dodatkowe opłaty.
Artykuł Komercyjne centrum danych – sojusznik czy konkurent? pochodzi z serwisu CRN.
]]>