Porównanie usług backupu w chmurze: który dostawca najlepiej zabezpieczy dane twojej firmy

0
40
4/5 - (1 vote)

Nawigacja:

Dlaczego backup w chmurze stał się koniecznością dla firm

Nowe zagrożenia: ransomware, błędy ludzkie i kradzieże

Większość firm nie traci danych z powodu „wielkiej awarii serwerowni”, tylko przez dużo bardziej prozaiczne zdarzenia. Najczęstsze przyczyny utraty danych to dziś: ataki ransomware, przypadkowe skasowanie plików, nadpisanie ważnych dokumentów, awarie pojedynczych dysków oraz kradzież lub zgubienie laptopów i telefonów.

Ransomware potrafi zaszyfrować nie tylko dane na serwerach i stacjach roboczych, ale również współdzielone foldery sieciowe, a nawet zasoby synchronizowane z chmurą. Jeżeli jedyną „kopią zapasową” są te same dane replikowane w inne miejsce, szkodliwe oprogramowanie dotrze także tam. Bez odseparowanej kopii backupu, przechowywanej w innym systemie, firma zostaje postawiona pod ścianą: płacić okup lub pogodzić się z utratą części informacji.

Kolejna rzecz to błędy użytkowników. Osoba z szerokimi uprawnieniami w systemie plików czy w Microsoft 365 może przez pomyłkę usunąć cały działowy katalog albo skrzynkę współdzieloną. W wielu usługach chmurowych da się coś przywrócić z kosza, ale tylko przez ograniczony czas i z dużymi ograniczeniami. Backup w chmurze dla firm jest niezależną warstwą ochrony, która pozwala odtworzyć konkretne elementy w dokładnie takim stanie, jaki był przed incydentem.

Na koniec klasyka: kradzież lub uszkodzenie sprzętu. Laptop z danymi księgowości, który zostawiono w pociągu, potrafi kosztować więcej niż nowy komputer – przede wszystkim przez utratę informacji. Jeżeli kopia zapasowa stacji roboczej wykonywana jest automatycznie do chmury, utrata urządzenia staje się problemem logistycznym, a nie katastrofą danych.

Ograniczenia tradycyjnych kopii lokalnych

W wielu firmach kopia zapasowa wciąż kojarzy się z taśmami LTO, dyskiem NAS lub zewnętrznym dyskiem USB, który „pan admin raz na jakiś czas podłącza”. Na papierze to backup. W praktyce pojawiają się trzy duże problemy:

  • Brak off-site – kopie przechowywane w tej samej lokalizacji fizycznej co serwery są narażone na te same ryzyka: pożar, zalanie, włamanie, przepięcie.
  • Brak automatyzacji – backup robiony „jak będzie chwila” zwykle przestaje być robiony w momencie pierwszego większego pożaru organizacyjnego.
  • Podatność na ransomware – zaszyfrowany zostaje również NAS, do którego serwer ma stały dostęp, bo z punktu widzenia ransomware to po prostu kolejny dysk sieciowy.

Do tego dochodzą aspekty operacyjne: czas odtwarzania z taśm, konieczność ręcznego etykietowania nośników, ryzyko, że ktoś zapomni wynieść kasetę poza biuro. Backup w chmurze rozwiązuje większość tych problemów, bo z definicji jest off-site, zautomatyzowany i – przy odpowiedniej konfiguracji – odseparowany od produkcyjnego środowiska.

Model 3-2-1 i rola chmury

Klasyczna zasada 3-2-1 mówi: miej 3 kopie danych, na 2 różnych typach nośników, z czego 1 kopia off-site. Backup w chmurze idealnie wpisuje się w tę koncepcję, często od razu zapewniając dodatkowe warianty.

Przykładowo: dane produkcyjne znajdują się na serwerze plików w biurze (kopia 1). Serwer jest replikowany do lokalnego macierza NAS lub SAN (kopia 2, inny nośnik). Trzecia kopia – w postaci przyrostowych backupów – trafia do dostawcy chmurowego (kopia 3, off-site, inny nośnik, inna technologia). W bardziej zaawansowanych scenariuszach można dodatkowo korzystać z innego regionu chmurowego lub drugiego dostawcy backupu, żeby minimalizować ryzyko vendor lock-in.

Chmura staje się więc nie tyle „zastępstwem” dla lokalnych taśm, ile kolejną warstwą ochrony. Wraz z rozwojem usług backupu pojawiły się też warianty 3-2-1-1-0 (dodatkowa jedna kopia offline/immutable i zero błędów w testach odtwarzania), ale fundament pozostaje ten sam: kopie muszą być rozproszone, różnorodne i odseparowane.

Praca zdalna i rozproszone zasoby

Wraz z upowszechnieniem pracy zdalnej i hybrydowej dane firmowe rozlewały się poza biuro: na prywatne laptopy, do współdzielonych przestrzeni w chmurze, do aplikacji SaaS, które dział IT często poznaje „po fakcie”. Taki model wymusza inne podejście do kopii zapasowych.

Klasyczny, centralny backup serwera plików nie obejmie plików trzymanych tylko w skrzynce Gmail, na dysku Google Drive czy na komputerze domowym handlowca. Potrzebny jest backup endpointów pracowników (laptopy, komputery stacjonarne, czasem nawet telefony) oraz wyspecjalizowane rozwiązania dla usług SaaS. W tym miejscu backup w chmurze ma naturalną przewagę – agent na urządzeniu użytkownika może wysyłać zaszyfrowane kopie bezpośrednio do chmury, niezależnie od tego, gdzie dana osoba pracuje.

Dodatkową korzyścią jest centralne zarządzanie: dział IT widzi z jednego panelu, czy kopie wszystkich kluczowych urządzeń wykonują się regularnie, i może wymusić określoną politykę backupu dla różnych grup użytkowników.

Krótki przykład z OneDrive, który „miał być backupem”

Typowy scenariusz: mała firma przesiada się na Microsoft 365, zaczyna używać OneDrive i SharePoint. Pada zdanie: „Teraz wszystko jest w chmurze, więc mamy backup”. Po kilku miesiącach ktoś przez przypadek usuwa ważny folder z umowami, zmiana replikuje się na wszystkie urządzenia, a po jakimś czasie pliki znikają również z kosza. Okazuje się, że bez niezależnej usługi backup Microsoft 365 szansa na odzyskanie danych jest niewielka.

Usługi typu OneDrive czy Google Drive zapewniają pewną formę wersjonowania i retencji, ale ich celem jest synchronizacja i współdzielenie, a nie pełnoprawne kopie zapasowe. Porównanie dostawców backupu trzeba więc zacząć od uczciwego założenia: „chmura produkcyjna” i „chmura backupowa” to są dwie różne role, nawet jeśli fizycznie korzystają z infrastruktury tego samego dużego gracza.

Jak działa backup w chmurze – podstawowe modele i pojęcia

Backup plikowy, obrazowy i aplikacyjny

Usługi backupu w chmurze różnią się tym, na jakim poziomie wykonują kopię danych. Każdy model ma swoje zastosowanie i konsekwencje dla szybkości odtwarzania oraz kosztów.

Backup plikowy koncentruje się na pojedynczych plikach i folderach. Jest idealny dla dokumentów biurowych, projektów, zdjęć, niewielkich baz danych w formie plików. Daje dużą elastyczność przy odtwarzaniu – można przywrócić konkretny plik z określonej daty, bez ruszania reszty systemu. Wadą jest brak łatwego odtworzenia całego systemu operacyjnego z konfiguracją; po awarii trzeba zainstalować system, aplikacje i dopiero potem przywrócić pliki.

Backup na poziomie obrazu (image-based) tworzy kopię całego dysku lub maszyny wirtualnej: system operacyjny, aplikacje, konfiguracja, dane użytkownika – wszystko. To najlepsza opcja, jeśli chcesz mieć możliwość szybkiego uruchomienia całego serwera w innym miejscu (np. w chmurze) po awarii sprzętowej. Zwykle wspiera też granularne przywracanie pojedynczych plików. Minusem są większe wymagania przestrzeni i bardziej złożona logika przyrostów.

Backup aplikacyjny dotyczy konkretnych systemów: baz danych (SQL, Oracle), systemów ERP, CRM, systemów pocztowych. Taki backup integruje się z aplikacją, tak by wykonać spójną kopię (np. zatrzymać transakcje, wykonać zrzut bazy). Przy ich odtwarzaniu ważniejsza od pojedynczego pliku jest spójność całego systemu w konkretnym punkcie w czasie.

Backup SaaS vs backup własnej infrastruktury

Coraz więcej danych firmowych trafia do usług SaaS: Microsoft 365, Google Workspace, Salesforce, systemy kadrowe, platformy CRM. Producent usługi zapewnia wysoką dostępność infrastruktury, ale ochrona przed skasowaniem lub nadpisaniem danych leży po stronie klienta. To, że Microsoft czy Google mają swoje backupy, nie oznacza, że przywrócą konkretne pliki dokładnie tak, jak życzy sobie pojedyncza firma.

Backup SaaS to wyspecjalizowana kategoria usług, które przy użyciu API dostawców (M365, Google Workspace itd.) wykonują kopie skrzynek pocztowych, plików na dyskach, zawartości SharePoint, Teams, kalendarzy czy kontaktów. W razie incydentu można odtworzyć pojedynczy mail, cały folder na dysku lub całą skrzynkę użytkownika z określonego dnia.

Równolegle istnieje backup własnej infrastruktury – serwerów fizycznych i wirtualnych, baz danych, aplikacji on-premise, macierzy dyskowych. W tym przypadku dostawca backupu zwykle dostarcza agenta instalowanego na serwerze lub integruje się z hypervisorem, żeby wykonywać zrzuty maszyn wirtualnych. Bezpieczeństwo danych w chmurze w takim modelu polega na wysyłaniu zaszyfrowanych kopii z lokalnej infrastruktury do chmury backupowej.

W praktyce większość firm będzie potrzebować obu typów: czegoś, co zabezpieczy serwery, oraz czegoś, co obejmie dane w usługach SaaS. Czasem będzie to jeden dostawca z kilkoma modułami, czasem zestaw wyspecjalizowanych narzędzi.

Pełne, przyrostowe i różnicowe kopie – wpływ na koszty

Każdy backup składa się z kopii pełnych oraz pośrednich. To, jak często są wykonywane, wpływa na rozmiar przechowywanych danych, szybkość backupu oraz czas odtwarzania.

  • Kopia pełna – zawiera całość danych wybranych do backupu. Odzyskanie stanu systemu z danego dnia wymaga tylko tej jednej kopii. Zajmuje najwięcej miejsca i trwa najdłużej.
  • Kopia przyrostowa – zawiera tylko zmiany od ostatniej kopii (pełnej lub przyrostowej). Jest najszybsza i najmniejsza, ale do odtworzenia systemu często potrzebna jest pełna kopia początkowa oraz cały łańcuch przyrostów.
  • Kopia różnicowa – zawiera zmiany od ostatniej kopii pełnej. Zajmuje więcej miejsca niż przyrostowa, ale do odtworzenia wystarczy pełna kopia plus ostatnia różnicowa.

Modele cenowe dostawców backupu w chmurze często opierają się na ilości przechowywanych danych. To oznacza, że przy agresywnych parametrach retencji i częstych pełnych backupach rachunek rośnie szybciej niż morale działu IT po bezproblemowym restore. W praktyce optymalnym kompromisem bywa pełna kopia raz w tygodniu lub raz na miesiąc oraz codzienne (a nawet częstsze) przyrosty.

Różni dostawcy stosują też deduplikację i kompresję, przez co logiczna ilość danych (widziana z perspektywy serwerów) jest większa niż realnie przechowywana w chmurze. Porównując oferty, trzeba więc patrzeć nie tylko na cenę za GB, ale też na to, jak rozwiązanie radzi sobie z deduplikacją między serwerami, maszynami wirtualnymi czy użytkownikami.

RPO i RTO – dwa najważniejsze parametry

RPO (Recovery Point Objective) to maksymalny akceptowalny czas utraty danych, liczony wstecz od momentu awarii. Mówiąc prościej: jak „świeżą” kopię musisz mieć. Jeżeli RPO wynosi 4 godziny, oznacza to, że możesz stracić maksymalnie 4 godziny pracy – więc backup musi być wykonywany co najmniej co 4 godziny.

RTO (Recovery Time Objective) to maksymalny akceptowalny czas przywracania systemu po incydencie. Jeżeli RTO dla systemu sprzedaży ustawisz na 2 godziny, cała architektura backupu (łącznie z łączami internetowymi) musi umożliwiać odtworzenie tego systemu w mniej niż 2 godziny od momentu rozpoczęcia działań.

Na RPO i RTO bezpośrednio wpływają:

  • rodzaj backupu (plikowy, obrazowy),
  • częstotliwość wykonywania kopii,
  • przepustowość łącza do chmury,
  • lokalizacja centrum danych dostawcy (opóźnienia sieciowe),
  • możliwość „bootowania” maszyn wirtualnych bezpośrednio z backupu.

Przy wyborze dostawcy backup w chmurze dla firm trzeba przełożyć te dwa parametry z języka IT na język biznesu. Inaczej będzie wyglądać RPO/RTO dla systemu pocztowego, inaczej dla systemu produkcyjnego w fabryce, a jeszcze inaczej dla archiwum marketingowego.

Snapshot a pełnoprawny backup

W środowiskach IaaS (np. maszyny wirtualne w AWS, Azure, Google Cloud) snapshoty są popularnym mechanizmem zabezpieczenia danych. Snapshot to obraz dysku w określonym momencie, zapisywany w innej warstwie storage’u. Dają wygodę szybkiego cofnięcia maszyny do wcześniejszego stanu, ale nie są tym samym co pełnoprawny backup.

Główne różnice:

  • Snapshot zwykle zależy od infrastruktury tego samego dostawcy chmurowego – jeśli konto zostanie skasowane lub konfiguracja ulegnie awarii, snapshoty mogą przestać być dostępne.
  • Snapshoty często nie są odseparowane logicznie od produkcyjnego środowiska – błędna automatyzacja lub złośliwy skrypt mogą usunąć zarówno maszyny, jak i ich snapshoty.
  • Dlaczego snapshot nie wystarczy w starciu z ransomware

    Przy incydentach typu ransomware snapshot bywa tak samo bezużyteczny jak kopia dokumentu zapisowana co minutę na tym samym pendrivie, który właśnie padł. Ataki trwają często dniami – złośliwe oprogramowanie szyfruje dane stopniowo albo cicho je podmienia. Snapshoty wykonywane w tym okresie utrwalają już zaszyfrowany lub uszkodzony stan.

    Dodatkowo wiele mechanizmów snapshotów jest dostępnych z uprawnieniami administracyjnymi w tej samej konsoli, w której zarządza się serwerami. Jeśli atakujący przejmie konto admina, może nie tylko zaszyfrować produkcję, ale też skasować snapshoty. Dlatego mechanizmem „ratunkowym” powinno być odseparowane logicznie repozytorium backupu, najlepiej z mechanizmem nieusuwalności na określony czas (immutability).

    Kiedy porównujesz dostawców, pytaj wprost: czy backup jest oddzielony tożsamościowo (osobne tokeny/klucze, inny system uwierzytelniania) od środowiska produkcyjnego oraz czy możliwe jest skonfigurowanie okresu, w którym nawet administrator nie może usunąć kopii.

    Nowoczesna serwerownia z rzędami szaf i okablowaniem sieciowym
    Źródło: Pexels | Autor: Brett Sayles

    Kluczowe kryteria wyboru usługi backupu w chmurze

    Zakres ochrony danych – co naprawdę jest objęte backupem

    Pierwsze pytanie do każdego dostawcy brzmi: jakie typy danych i systemów jest w stanie zabezpieczyć. Pod hasłem „obsługujemy środowiska wirtualne” może kryć się wsparcie tylko dla jednego hypervisora, a „backup Microsoft 365” bywa w praktyce kopią samych skrzynek pocztowych bez Teamsów i SharePointa.

    Przyglądając się ofercie, sprawdź szczegółowo:

  • Platformy on‑premise – konkretnie: VMware, Hyper‑V, Proxmox, fizyczne serwery, bazy danych (SQL Server, Oracle, PostgreSQL, MySQL, inne niszowe systemy).
  • Usługi SaaS – czy obsługiwane są M365 (Exchange, OneDrive, SharePoint, Teams), Google Workspace (Gmail, Drive, Calendar), Salesforce, Jira, systemy HR i CRM używane w firmie.
  • Stacje robocze i laptopy – czy istnieje agent dla Windows/macOS, czy można wymusić backup dokumentów użytkowników (szczególnie ważne w firmach „laptop‑first”).
  • Specjalistyczne systemy – maszyny przemysłowe, systemy PACS w medycynie, archiwa plikowe w DTP – czasem wymagają dedykowanych konektorów.

Najczęstszy błąd: dobranie rozwiązania „pod serwery”, a potem odkrycie, że nie da się nim dobrze zabezpieczyć M365 czy laptopów handlowców. Efekt – konieczność utrzymywania kilku oddzielnych narzędzi i chaos przy odtwarzaniu danych.

Elastyczność retencji – jak długo i w jakiej formie trzymane są dane

Retencja to nie tylko liczba dni. To odpowiedź na pytanie, jak wygląda „historia” twoich danych: co możesz odtworzyć i z jaką granularnością. Dwóch dostawców może oferować ten sam limit „365 dni”, ale u jednego przywrócisz dowolny plik z dowolnego dnia, u drugiego tylko kilka „punktów w czasie” miesięcznie.

Przy ocenie retencji zwróć uwagę na:

  • Granularność punktów przywracania – dzienna, godzinowa, a może kilka snapshotów w ciągu dnia; czy można ją różnicować per system.
  • Różne klasy retencji – np. 30 dni pełna historia, 12 miesięcy kopie tygodniowe, 7 lat kopie miesięczne; czy da się je konfigurować samodzielnie.
  • Retencja „legal hold” – możliwość zamrożenia danych na czas postępowania sądowego lub kontroli, niezależnie od standardowych polityk usuwania.
  • Retention lock / immutability – czy da się wymusić nieusuwalność wersji przez określony czas; to szczególnie przydatne przy ryzyku ransomware.

Jeśli dostawca twierdzi, że „retencja jest nielimitowana”, zapytaj o szczegóły: czy dotyczy to wszystkich danych, w jaki sposób jest liczona cena oraz czy istnieją ukryte progi (np. spadek wydajności po przekroczeniu określonej liczby wersji).

Doświadczenie z odtwarzaniem – nie tylko „zielone ptaszki” w konsoli

Sam fakt, że backup się „zakończył pomyślnie”, nie daje gwarancji, że da się coś z niego odtworzyć. Profesjonalne rozwiązania backupu mają mechanizmy automatycznej walidacji kopii – np. uruchomienie maszyny wirtualnej w środowisku testowym i sprawdzenie logów, czy system się podniósł.

Porównując dostawców, oceń:

  • Możliwości testowego odtwarzania – czy można automatycznie cyklicznie testować backupy i generować raporty dla audytorów.
  • Granularność restore – czy odtworzysz pojedynczy mail, konkretny plik z OneDrive, pojedynczą tabelę bazy, czy tylko „całą skrzynkę” lub „cały serwer”.
  • Scenariusze DR – czy narzędzie wspiera planowanie i orkiestrację całego odtwarzania (kolejność startu maszyn, przełączenie sieci, testy po starcie).
  • Wsparcie techniczne przy awarii – dostępność 24/7, język komunikacji, czasy reakcji SLA; w środku nocy różnica między chmurą „tanio” a chmurą „działa” bywa bardzo namacalna.

Dobrym sygnałem jest, gdy dostawca zachęca do regularnych testów odtwarzania i ma wbudowane szablony takich testów. Słabym – gdy odpowiedź brzmi „oczywiście da się odtworzyć, proszę wierzyć na słowo”.

Integracja z istniejącą infrastrukturą i procesami

Backup, który działa „obok” wszystkiego, co już masz, szybko stanie się kulą u nogi. Znacznie wygodniej funkcjonuje rozwiązanie, które wpasowuje się w dotychczasowe narzędzia i procedury.

Kluczowe pytania do potencjalnego dostawcy:

  • Czy istnieją API/CLI do automatyzacji zadań backupu i integracji z narzędziami CI/CD, systemami ticketowymi, monitoringiem (Zabbix, Prometheus, SIEM)?
  • Czy harmonogramy backupu można powiązać z tagami/labelami w środowisku wirtualnym lub chmurowym (np. wszystkie maszyny z tagiem „prod” trafiają do określonej polityki)?
  • Czy narzędzie integruje się z LDAP/AD/Entra ID w celu nadawania ról i uprawnień administratorom oraz właścicielom systemów?
  • Czy dostępne są webhooki lub powiadomienia do Slacka/Teams/mailem przy nieudanych backupach lub spadku wydajności?

Jeśli w firmie istnieją już procedury ITIL/DevOps, rozsądnie jest szukać rozwiązania, które da się „podczepić” pod istniejące procesy change management, incident management czy release management, zamiast tworzyć oddzielne wszechświaty.

Wydajność i skalowalność – jak backup zachowa się za rok

Backup w chmurze w pierwszym miesiącu działa prawie zawsze dobrze. Problemy pojawiają się, gdy liczba serwerów i użytkowników rośnie, dane przyrastają wykładniczo, a okno backupowe (czas, w którym można bezpiecznie robić kopie) pozostaje takie samo.

Ocena skalowalności to m.in. odpowiedzi na pytania:

  • Jak rośnie czas backupu pełnego/przyrostowego wraz z liczbą maszyn i ilością danych – czy dostawca ma referencje dla środowisk o zbliżonej skali?
  • Czy można łatwo dodać kolejne repozytoria backupu lub regiony, aby rozłożyć obciążenie i skrócić czasy backupu.
  • Czy narzędzie wykorzystuje akcelerację sieciową, kompresję w locie, deduplikację globalną (pomiędzy maszynami/tenantami), aby ograniczyć ruch do chmury.
  • Czy istnieje możliwość lokalnego cache’u (np. appliance na miejscu) przyspieszającego odtwarzanie często używanych systemów.

Dobrym testem jest zaplanowanie pilota nie na jednym serwerze „test‑lab”, ale na kilku najbardziej obciążonych systemach. Dopiero wtedy wychodzą na jaw wąskie gardła łącza, serwerów proxy, a czasem też polityk firewalli.

Modele cenowe i ukryte koszty – gdzie firmy przepłacają

Najpopularniejsze modele rozliczeń

Usługi backupu w chmurze rozliczane są na kilka sposobów. Na papierze każdy wygląda prosto, ale w dłuższej perspektywie może prowadzić do zaskakujących faktur.

Najczęściej spotykane modele:

  • Cena za GB/TB przechowywanych danych – płacisz za przestrzeń zajętą w chmurze backupowej (po kompresji i deduplikacji lub przed – to ważny szczegół).
  • Cena per chronione urządzenie/instancję – np. za każdy serwer fizyczny, maszynę wirtualną, bazę danych, konto użytkownika M365/Google Workspace.
  • Model mieszany – opłata bazowa per instancję + opłata zmienna za przestrzeń lub transfer.
  • Abonament pakietowy – określona liczba użytkowników, serwerów i przestrzeni w formie „paczki”, często w wersjach Standard/Advanced/Enterprise.

Przy modelu „per GB” kluczowe jest, czy liczona jest ilość danych logicznych (przed kompresją/deduplikacją), czy efektywnych. Różnica potrafi być kilkukrotna. W modelu „per urządzenie” problemem bywa skok kosztów po rozbudowie środowiska – każde nowe VM to kolejna opłata.

Opłaty za transfer, I/O i odtworzenia danych

Ceny na stronie zwykle kuszą prostotą, ale diabeł tkwi w cenniku „dodatków”: transferów, operacji I/O czy odczytów. Szczególnie istotne jest to przy dużych odtworzeniach lub częstym testowaniu planów DR.

W rozmowie handlowej dopytaj o:

  • Koszty wyjścia danych (egress) – ile kosztuje ściągnięcie 1 TB danych z chmury backupowej przy odtwarzaniu całego środowiska.
  • Opłaty za częste odczyty – niektórzy dostawcy naliczają opłaty za operacje na „tańszych” klasach storage’u (np. cold/archive), co przy częstych testach potrafi zaboleć.
  • Przesył początkowy (seed) – czy możliwe jest wysłanie pierwszej, dużej kopii na fizycznym nośniku (disk‑seed) i jakie są z tym związane opłaty.
  • Przyspieszone odtwarzanie – czy szybkie podniesienie środowiska DR w chmurze to oddzielna pozycja w cenniku (czasami tak, i to niemała).

W praktyce opłaty za egress najbardziej bolą wtedy, gdy firma decyduje się zmienić dostawcę backupu. Migracja kilku czy kilkunastu terabajtów danych potrafi kosztować tyle, że zaczyna się dyskusja „czy naprawdę potrzebujemy tej historii sprzed trzech lat”.

Ukryte koszty administracji i operacji

Nie wszystkie koszty backupu są widoczne na fakturze. Czas administratorów, dodatkowe procedury, utrzymanie infrastruktury pośredniej – to wszystko przekłada się na budżet, nawet jeśli nie wprost.

Przy porównywaniu dostawców policz także:

  • Czas konfiguracji i zarządzania – ile roboczogodzin miesięcznie pochłonie obsługa narzędzia; czy polityki da się standaryzować i masowo wdrażać.
  • Koszt szkoleń – czy trzeba wysłać zespół na płatne kursy, czy dostawca ma sensowną dokumentację i materiały online.
  • Infrastruktura pośrednia – lokalne appliance’y, dodatkowe serwery proxy, licencje systemowe – czasem „chmura backupowa” okazuje się wymagającym lokatorem w serwerowni.
  • Cena błędu – im bardziej skomplikowany system, tym większe ryzyko źle skonfigurowanych polityk; prostsze, ale nieco droższe rozwiązanie może być tańsze „całościowo”.

Dobrą praktyką jest policzenie całkowitego kosztu posiadania (TCO) dla 3–5 lat, z realistycznym scenariuszem wzrostu danych. Jeśli handlowiec chętnie pokazuje tylko koszt „na pierwszy rok”, poproś o symulację przy 2–3‑krotnym wzroście wolumenu danych i liczby użytkowników.

Nowoczesne centrum danych z rzędami serwerów do backupu firmowych danych
Źródło: Pexels | Autor: Brett Sayles

Typy dostawców backupu w chmurze – kogo właściwie porównywać

Hyperscalerzy z natywnymi usługami backupu

Najwięksi gracze chmur publicznych – AWS, Microsoft Azure, Google Cloud – oferują własne mechanizmy ochrony danych: snapshoty, usługi typu Backup/Recovery, klasy storage’u o różnej trwałości. Kusi to prostotą: „skoro wszystko działa w Azure, to i backup zróbmy w Azure”.

To rozwiązanie ma sens, ale:

  • najczęściej wymaga sporej wiedzy architektonicznej – trzeba samodzielnie zbudować polityki, skrypty, automatyzację;
  • zwykle zabezpiecza tylko zasoby tego jednego dostawcy (VM w Azure, bazy PaaS) – dane on‑premise i inne chmury wymagają dodatkowych narzędzi;
  • może trudniej zapewnić separację środowiska backupowego od produkcji, bo wszystko jest w ramach jednego ekosystemu.

Wyspecjalizowani dostawcy backupu (BaaS / DRaaS)

Druga grupa to dostawcy, których głównym produktem jest właśnie backup i odtwarzanie. Często działają w modelu BaaS (Backup as a Service) lub DRaaS (Disaster Recovery as a Service) i potrafią obsłużyć jednocześnie środowiska on‑premise, kilka chmur publicznych oraz popularne SaaS‑y.

Ich przewaga polega zwykle na:

  • spójnej konsoli dla wielu lokalizacji i technologii – serwery fizyczne, VM, kontenery, M365, Google Workspace, Salesforce i inne usługi SaaS w jednym widoku;
  • gotowych politykach retencji, harmonogramach i workflow DR, które można użyć niemal „z pudełka”;
  • zaawansowanych funkcjach deduplikacji i kompresji, często lepszych niż proste snapshoty chmurowe;
  • elastycznych opcjach przechowywania – dane mogą leżeć w chmurze dostawcy, w chmurze publicznej lub w twoim własnym DC (lub w miksie).

Minusem bywa konieczność instalacji agentów lub appliance’y oraz integracji z siecią korporacyjną. Niektórzy dostawcy mają też „własną wizję” interfejsu, który wymaga kilku dni, by go rozszyfrować. Dobrze jest więc założyć w projekcie czas na naukę narzędzia, a nie zakładać, że „to tylko backup, ogarniemy po godzinach”.

Dostawcy lokalni i partnerzy integracyjni

Osobną kategorią są lokalni operatorzy i integratorzy, którzy budują usługę backupu w oparciu o technologie dużych producentów, ale dodają do tego własny support, data center i usługi zarządzane. Dla wielu firm to najbardziej pragmatyczny wariant.

Co zwykle dają w pakiecie:

  • Wsparcie w języku lokalnym i krótsze ścieżki eskalacji – łatwiej wyjaśnić subtelności polityk backupu po polsku niż przez globalny formularz.
  • Pomoc projektową – dobór polityk, testowanie DR, audyty konfiguracji raz na jakiś czas.
  • Możliwość kolokacji – jeśli firma nie chce wynosić danych poza kraj lub potrzebuje dedykowanych łączy do DC dostawcy.
  • Usługę zarządzaną (Managed Backup) – to dostawca pilnuje zadań, reaguje na alerty, robi testy odtwarzania i raportuje wyniki.

To rozwiązanie jest szczególnie sensowne tam, gdzie zespół IT ma mało czasu i ludzi. Zamiast „kupujemy narzędzie i zobaczymy”, można zlecić odpowiedzialność za backup jako usługę. Wymaga to jednak solidnie opisanych SLA oraz doprecyzowania, kto podejmuje decyzje w sytuacjach awaryjnych (np. co wyłączamy, gdy kończy się przestrzeń).

Rozwiązania open source i budowa backupu „na własną rękę”

Część firm, szczególnie z mocnym działem DevOps, decyduje się na rozwiązania open source – od klasycznych narzędzi do backupu po nowoczesne systemy snapshotów i replikacji na poziomie storage’u lub Kubernetes. To droga dająca ogromną elastyczność, ale też sporą odpowiedzialność.

Plusy takiego podejścia:

  • Brak lub niskie koszty licencji – płacisz głównie za infrastrukturę i własny czas.
  • Pełna kontrola nad architekturą – możesz dobrać dokładnie takie mechanizmy szyfrowania, replikacji i retencji, jakie pasują do twoich procesów.
  • Brak vendor lock‑in na poziomie platformy backupowej – łatwiej przenosić się między chmurami.

Z drugiej strony:

  • cały design, utrzymanie i testy DR spadają na twój zespół – łącznie z dokumentacją i szkoleniami wewnętrznymi;
  • trzeba samemu pilnować zgodności regulacyjnej, retencji, kluczy szyfrujących;
  • wsparcie społecznościowe jest świetne, dopóki awaria nie wydarzy się w długi weekend, a zarząd nie oddycha ci w kark – wtedy brak formalnego SLA może boleć.

Ten model ma sens w firmach, gdzie backup jest elementem większej strategii „infrastruktura jako kod”, a nie „skrzynka w rogu serwerowni”. W przeciwnym razie może się okazać, że „oszczędności na licencjach” zjada czas trzech administratorów.

Bezpieczeństwo i zgodność: jak sprawdzić, czy dostawca naprawdę chroni dane

Szyfrowanie danych – w tranzycie, w spoczynku i pod czyją kontrolą

Szyfrowanie jest dziś standardem, ale szczegóły mają ogromne znaczenie. Zanim wybierzesz dostawcę, sprawdź:

  • Szyfrowanie w tranzycie – czy cały ruch backupowy idzie po TLS (z aktualnymi protokołami) i czy dostawca umożliwia wymuszenie najnowszych wersji.
  • Szyfrowanie w spoczynku – jaki algorytm i długość klucza są stosowane (np. AES‑256), czy szyfrowane są całe repozytoria, czy tylko wybrane wolumeny.
  • Zarządzanie kluczami – czy klucze szyfrujące są po stronie dostawcy, czy możesz użyć własnych (BYOK / HYOK), czy jest integracja z zewnętrznym KMS/HSM.
  • Rotacja i odwoływanie kluczy – jak często następuje rotacja, jak wygląda procedura odebrania dostępu i co dzieje się z backupami po revokacji kluczy.

Z perspektywy bezpieczeństwa idealny scenariusz to taki, w którym dostawca nie ma technicznej możliwości odszyfrowania twoich danych bez twoich kluczy. Wymaga to jednak dobrej procedury ich przechowywania – zgubiony klucz szyfrujący oznacza nie tylko problem, ale permanentną stratę danych.

Odporność na ransomware i ataki wewnętrzne

Coraz częściej celem ataków są nie tylko systemy produkcyjne, lecz także same backupy. Jeśli atakujący zdoła usunąć lub zaszyfrować kopie, firma zostaje z niczym. Dlatego przy wyborze usługi backupu zwróć uwagę, jak rozwiązano:

  • Niezmienność backupów (immutable backup) – czy istnieje opcja ustawienia okresu, w którym kopii nie da się usunąć ani nadpisać, nawet z konta administracyjnego.
  • Oddzielenie ról i uprawnień – czy jedna osoba ma „wszystko”, czy wymagane są przynajmniej dwa konta/role do krytycznych akcji (np. skasowanie repozytorium).
  • Oddzielenie środowiska backupowego – osobny tenant/chmura, inne konto, oddzielne uwierzytelnianie; im trudniej spiąć to „na skróty”, tym lepiej.
  • Automatyczne wykrywanie anomalii – niektórzy dostawcy oferują analizę wzorców backupu (np. nagły skok liczby zaszyfrowanych plików) i generują alerty.

Dodatkowym zabezpieczeniem, nadal bardzo skutecznym, jest obecność kopii offline lub offsite – np. w innym regionie/hyperscalerze czy na nośniku okresowo odłączanym od sieci. Trochę „oldschool”, ale działa zaskakująco dobrze, gdy coś pójdzie naprawdę źle.

Zgodność z regulacjami i lokalizacja danych

Dla wielu branż kluczowa jest zgodność z przepisami (RODO, sektor finansowy, publiczny, medyczny). Kopie w chmurze nie zwalniają z odpowiedzialności – to twoja firma pozostaje administratorem danych. Podczas rozmów z dostawcą poproś o konkretne informacje:

  • Lokalizacja fizyczna danych – w jakich krajach/regionach są przechowywane backupy, czy możesz wymusić konkretną lokalizację (np. wyłącznie UE/Polska).
  • Certyfikaty i standardy – czy dostawca ma ISO 27001, ISO 22301, SOC 2, ewentualnie dodatkowe normy sektorowe.
  • Model odpowiedzialności – co dokładnie leży po stronie dostawcy (fizyczne bezpieczeństwo, dostęp do infrastruktury), a co po twojej (polityki backupu, dostęp użytkowników).
  • Procedury obsługi incydentów – w jaki sposób dostawca informuje o naruszeniach bezpieczeństwa, w jakim czasie, jak wspiera w analizie.

Przydaje się rozmowa z działem prawnym/compliance jeszcze przed podpisaniem umowy. Unika się wtedy „miłych niespodzianek”, gdy audytor po roku pyta o lokalizację danych i kopię rejestru czynności przetwarzania dla backupów.

Kontrola dostępu, audyt i integracja z IdM

Dostęp do konsoli backupu to dostęp do całej historii danych firmy. Dlatego narzędzie powinno bez problemu wpasować się w istniejący system zarządzania tożsamością.

Podczas oceny sprawdź, czy dostawca zapewnia:

  • SSO i MFA – integracja z SAML/OIDC, wymuszenie wieloskładnikowego uwierzytelniania dla wszystkich kont uprzywilejowanych.
  • Granularne role – możliwość nadania uprawnień „tylko do odtwarzania” dla helpdesku, „tylko do raportów” dla audytu itd.
  • Pełny log audytowy – kto, kiedy i co odtworzył, zmienił w polityce, usunął; logi najlepiej z możliwością wysyłki do zewnętrznego SIEM.
  • Automatyczne odcinanie dostępu – integracja z IdM/HR tak, aby odejście pracownika oznaczało automatyczne odebranie mu uprawnień również w systemie backupu.

Bez sensownego audytu odtworzeń łatwo przeoczyć sytuację, gdy administrator „przez pomyłkę” przywraca komuś archiwum skrzynki pocztowej sprzed czterech lat. A to już obszar, którym bardzo interesuje się dział prawny.

Co konkretnie porównywać?

Macierz porównawcza – od „ładnego interfejsu” do realnych wskaźników

Żeby porównanie miało sens, warto zbudować prostą macierz – najlepiej w arkuszu, który przetrwa kilka iteracji spotkań z dostawcami. Kluczowe obszary, które zwykle lądują w takiej tabeli:

  • Zakres ochrony – jakie platformy, systemy, aplikacje SaaS obejmuje narzędzie; czy wspiera twoje główne systemy biznesowe, a nie tylko „to, co łatwe”.
  • Scenariusze odtwarzania – pełne przywrócenie, granularne (pojedyncze pliki, maile), odtwarzanie do innej lokalizacji/chmury, testowe odtwarzanie bez wpływu na produkcję.
  • Wydajność i okna backupowe – realne czasy backupu i restore’ów, wynik z pilota, a nie tylko wykresy z broszury.
  • Bezpieczeństwo i compliance – szyfrowanie, niezmienność, lokalizacja danych, certyfikaty.
  • Integracje – z AD/Entra ID/LDAP, SIEM, monitoringiem, ITSM, narzędziami DevOps.
  • Model kosztowy – licencje, storage, egress, wsparcie, koszt rozbudowy o kolejne systemy.
  • Użyteczność i automatyzacja – API/CLI, szablony polityk, jakość interfejsu, raportowanie.
  • Wsparcie techniczne – SLA, język wsparcia, czas reakcji, dostępność inżynierów w kryzysie.

Dobrze, jeśli każdy z tych punktów ma przypisaną wagę biznesową. Dla jednej firmy kluczowe będzie RPO/RTO, dla innej lokalizacja danych i zgodność z regulacjami, dla kolejnej – minimalizacja kosztu przywracania testowych środowisk pod projekty deweloperskie.

Konkrety techniczne, o które warto zapytać na spotkaniu

Prezentacje sprzedażowe rzadko schodzą do poziomu szczegółów konfiguracji. Na etapie technicznego warsztatu dobrze jest dopytać o kilka bardzo praktycznych kwestii:

  • Minimalne i rekomendowane pasmo – jakie łącze jest wymagane dla twojej skali danych i okien backupowych, jak dostawca pomaga to policzyć.
  • Zachowanie przy awarii w trakcie backupu – co dzieje się, gdy w połowie kopii zerwie się połączenie, jak wygląda wznowienie, czy nie generuje to „śmieci” w repozytorium.
  • Obsługa zmian w infrastrukturze – jak narzędzie reaguje na częste tworzenie/usuwanie VM, skalowanie grup autoskalujących, rotację kontenerów.
  • Mechanizmy automatycznej ochrony – czy nowe systemy mogą być automatycznie przypisywane do odpowiednich polityk na podstawie tagów, nazw, OU itp.
  • Opcje przywracania awaryjnego – czy możesz podnieść cały zestaw systemów w chmurze dostawcy, z jakim RTO, jakie są ograniczenia (adresacja, integracje z siecią firmową).

Na tym etapie wychodzi też często, czy po stronie dostawcy jest realny zespół techniczny, czy tylko dział sprzedaży z ładnymi slajdami. Dobrze, jeśli w dyskusji pojawia się inżynier, który potrafi pokazać live demo, a nie tylko nagrany film.

Pilot, który naprawdę coś pokazuje

Pilot to nie „kliknięcie jednego backupu”. Lepiej zaplanować mini‑projekt, który symuluje typowe i krytyczne sytuacje:

  • wybierz kilka reprezentatywnych systemów – obciążone bazy, aplikacje krytyczne, serwery plików, środowisko biurowe;
  • Najczęściej zadawane pytania (FAQ)

    Czym różni się backup w chmurze od zwykłego trzymania plików na OneDrive czy Google Drive?

    OneDrive, Google Drive czy Dropbox to głównie usługi synchronizacji i współdzielenia plików. Ich zadaniem jest „trzymać wszystko na bieżąco” między urządzeniami, a nie tworzyć niezależną, odseparowaną kopię zapasową. Jeśli ktoś usunie folder albo ransomware zaszyfruje pliki, ta zmiana bardzo szybko rozleje się na wszystkie zsynchronizowane urządzenia.

    Backup w chmurze działa inaczej: wykonuje osobne, wersjonowane kopie danych, trzymane w innym systemie niż środowisko produkcyjne. Można cofnąć się do konkretnego punktu w czasie, przywrócić pojedynczy plik, całe konto użytkownika, a nawet cały serwer – niezależnie od tego, co stało się z oryginałem.

    Czy backup w chmurze chroni przed ransomware?

    Dobrze skonfigurowany backup w chmurze jest jednym z kluczowych narzędzi do „rozbrojenia” skutków ransomware. Warunek: kopia musi być odseparowana od środowiska produkcyjnego (innym protokołem, innymi uprawnieniami), a idealnie – z opcją wersjonowania i trybem immutability (kopia, której nie da się nadpisać przez określony czas).

    Jeżeli backup to tylko kolejny dysk sieciowy widoczny z serwera, ransomware potraktuje go jak każdy inny zasób i po prostu zaszyfruje. Dlatego przy porównywaniu dostawców backupu w chmurze trzeba patrzeć na mechanizmy ochrony przed modyfikacją kopii, izolację kont oraz możliwość szybkiego odtworzenia danych sprzed ataku.

    Jak wybrać dostawcę backupu w chmurze dla małej lub średniej firmy?

    Na start warto odpowiedzieć sobie na trzy pytania: co chcemy backupować (serwery, laptopy, Microsoft 365 / Google Workspace, bazy danych), jak szybko musimy się odtworzyć po awarii oraz jaki budżet jesteśmy w stanie utrzymać co miesiąc. Na tej podstawie da się odsiać sporą część usług, które są „za małe” albo zbyt rozbudowane.

    Przy porównaniu dostawców zwróć uwagę na: obsługiwane typy danych (plikowy, obrazowy, aplikacyjny, SaaS), poziom automatyzacji i centralne zarządzanie, lokalizację centrów danych (RODO, wymagania branżowe), opcje retencji i wersjonowania, ochronę przed ransomware (immutable backup, oddzielne konto/tenant) oraz przejrzystość cennika – opłaty za miejsce, transfer, licencje agentów. Fajny interfejs jest miły, ale to te elementy decydują, czy backup „dowieziesz” w kryzysie.

    Czy backup w chmurze zastępuje lokalne kopie, czy warto mieć oba rozwiązania?

    Najbezpieczniejszy model to połączenie obu podejść, zgodnie z zasadą 3-2-1: kilka kopii, na różnych nośnikach, w różnych lokalizacjach. Chmura świetnie sprawdza się jako off-site – chroni przed pożarem, zalaniem biura, kradzieżą sprzętu czy awarią całej serwerowni.

    Lokalny backup (np. na NAS) wciąż ma sens, jeśli zależy ci na bardzo szybkim odtwarzaniu dużych ilości danych w obrębie biura. Typowy scenariusz: szybkie przywrócenie z lokalnej kopii + dodatkowa warstwa bezpieczeństwa w chmurze na wypadek „czarnego scenariusza”.

    Jakie rodzaje backupu w chmurze są dostępne i który wybrać?

    Najczęściej spotkasz trzy modele: backup plikowy (pojedyncze pliki i foldery), backup obrazowy (cały dysk/maszyna wirtualna) oraz backup aplikacyjny (np. bazy SQL, systemy pocztowe, ERP). W praktyce firmy łączą je ze sobą, bo różne systemy mają różne wymagania.

    Dla stacji roboczych pracowników zwykle wystarczy backup plikowy z dobrą wersjonowaniem. Dla serwerów kluczowych (np. kontroler domeny, serwer aplikacyjny) lepszy będzie backup obrazowy, który umożliwi szybkie podniesienie całej maszyny. Bazy danych czy systemy finansowe często wymagają dedykowanego backupu aplikacyjnego, aby zachować spójność transakcji.

    Czy trzeba robić backup usług SaaS, skoro Microsoft/Google i tak mają swoje kopie?

    Dostawcy SaaS dbają o dostępność swojej infrastruktury, a nie o ochronę przed twoimi błędami lub złośliwymi działaniami użytkowników. Gdy ktoś trwale usunie dane, nadpisze dokumenty albo konto zostanie przejęte i wyczyszczone, „wewnętrzne” kopie dostawcy rzadko będą dla ciebie dostępne w wygodny sposób – albo w ogóle.

    Dedykowany backup dla Microsoft 365, Google Workspace czy innych usług SaaS pozwala przywracać pojedyncze maile, pliki, całe skrzynki i konta użytkowników z różnych punktów w czasie. W praktyce różnica jest taka, jak między „mam coś w koszu przez 30 dni” a „mam archiwum wersji z ostatnich miesięcy, które mogę przywrócić jednym kliknięciem”.

    Jak backup w chmurze pomaga przy pracy zdalnej i rozproszonych zespołach?

    Przy pracy zdalnej dane lądują na laptopach, prywatnych komputerach i w różnych usługach chmurowych. Centralny backup serwera w biurze nie „widzi” dokumentów, które nigdy nie trafiły na ten serwer. Dobry system backupu w chmurze pozwala zainstalować agentów na endpointach (laptopy, komputery stacjonarne), którzy wysyłają zaszyfrowane kopie bezpośrednio do chmury, niezależnie od miejsca pracy.

    Dział IT zyskuje jeden panel, z którego widzi, czy kopie wszystkich urządzeń wykonują się regularnie, może wymuszać polityki (np. co backupujemy, jak często, jak długo przechowujemy) i szybciej reagować na zgłoszenia. Z perspektywy użytkownika sprowadza się to zwykle do tego, że „wszystko robi się samo w tle”, a zgubiony laptop nie oznacza utraty kilku lat pracy.

    Bibliografia i źródła

  • NIST Special Publication 800-184: Guide for Cybersecurity Event Recovery. National Institute of Standards and Technology (2016) – Zalecenia dot. odzyskiwania po incydentach, rola kopii zapasowych
  • NIST Special Publication 800-209: Security Guidelines for Storage Infrastructure. National Institute of Standards and Technology (2020) – Bezpieczeństwo pamięci masowych, izolacja backupu, ransomware
  • ENISA Threat Landscape 2022. European Union Agency for Cybersecurity (2022) – Statystyki i analiza zagrożeń, w tym ransomware i utrata danych
  • ISO/IEC 27040:2015 Information technology – Security techniques – Storage security. International Organization for Standardization (2015) – Wytyczne bezpieczeństwa dla systemów przechowywania i kopii zapasowych