Plan postępowania podczas awarii systemu informatycznego lub innej katastrofy powinien być jednym ze strategicznych dokumentów w firmie. Kluczową informacją zawartą w planie disaster recovery powinien być szczegółowy opis procedur wykonywania kopii danych i ich przywracania po awarii. Niestety, procedury przeciwdziałania skutkom katastrofy są dość drogie w realizacji, a dodatkowo koszt z tej inwestycji nie zwraca się, więc wiele firm podjęło ryzyko ich ograniczenia. Niesłusznie, tym bardziej, że nowe technologie pozwalają jednocześnie obniżyć koszt i przyspieszyć realizację procesów disaster recovery.

Wewnętrzna potrzeba ochrony danych przedsiębiorstwa jest oczywista – większość firm, które doświadczyły poważnej katastrofy i związanej z nią utraty danych bankrutuje po ok. roku. Ale rosną także wymagania określane w regulacjach prawnych i wewnętrznych przepisach firm (szczególnie tych, które swoją centralę mają poza granicami Polski). Tymczasem obecnie największym problemem firm jest to, że ilość danych, które powinno się zabezpieczyć, znacznie wzrosła, podczas gdy czas na wykonanie tego backupu (tzw. okno backupowe znacznie zmalał).

Dotychczas dla większości firm podstawowym elementem planu disaster recovery były taśmy. Zapisywane na nich dane służyły wielu celom – odzyskaniu w przypadku katastrofy, przypadkowego skasowania przez pracownika i archiwizacji. Wadą tego rozwiązania był fakt, że odzyskanie danych (a szczególnie pojedynczych plików) z taśmy jest bardzo wolne i coraz rzadziej spełnia wymogi czasowe stawiane przez jednostki biznesowe. Jak więc zdecydować, czy tradycyjna taśma jest wciąż właściwym rozwiązaniem i jakie korzyści przynoszą alternatywne rozwiązania?

Aby dokonać właściwego wyboru należy najpierw określić wymagane poziomy ochrony dla różnych aplikacji i danych w środowisku. Dla każdej aplikacji lub zestawu danych należy zadać zestaw pytań:

  • Na utratę jak dużej ilości danych firma może sobie pozwolić?
  • Jak szybko należy odzyskać dane i sprawność aplikacji po błędzie?
  • Jak wiele mamy czasu na wykonanie backupu?
  • Jak dużym budżetem dysponujemy?
  • Czy chcemy zmienić istniejącą infrastrukturę backupu lub procesy aby usprawnić proces backupu?

W tym momencie pojawia się konieczność określenia dwóch krytycznych parametrów dla aplikacji i danych – miejsca w przeszłości, z którego kopie będziemy odzyskiwali (Recovery Point Objective, RPO) i czasu, który będziemy potrzebowali na przywrócenie systemu do ponownego działania (Recovery Time Objective, RTO). W celu podjęcia właściwej decyzji musimy znać prędkość z jaką będziemy odzyskiwać dane lub przywracać systemy do pracy, stopień ochrony i poziom inwestycji, którą chcemy podjąć. Często w firmach pojawia się przeświadczenie, że krótkie czasu RPO i RTO są niedostępne dla większości firm ze względu na ich wysoki koszt. Jest ono nieprawdziwe, dostępne dziś nowe technologie mogą spełnić wymagania większości firm bez ogromnych nakładów finansowych.

Pierwszą alternatywą jest pamięć masowa oparta na dyskach, do tworzenia kopii środowiska produkcyjnego. Dzięki niej proces backupu będzie znacznie szybszy niż przy taśmie, więc będzie można skrócić czas RPO, natomiast odzyskanie danych, czyli czas RTO, będzie skrócone kilkudziesięciokrotnie. Dzięki temu, że ceny twardych dysków i opartych na nich macierzy znacznie spadły w ostatnim czasie, wykorzystywanie dysków jako platformy do odzyskiwania danych jest coraz bardziej powszechne i dostępne. W dłuższym czasie takie podejście jest także tańsze w obsłudze, a więc w tym przypadku można mówić także o pewnym zwrocie z inwestycji, realizowanym poprzez obniżenie kosztów. Pozwala przede wszystkim na bardzo szybkie odzyskiwanie indywidualnych plików, czasami nawet przez pracowników, bez konieczności ingerencji działu IT i administratora, który musi wyszukać odpowiednią taśmę. W ten sposób spada koszt całej procedury, który jest największy w całym systemie utrzymania rozwiązania disaster recovery.

Możliwe jest także wykonanie ciągłej replikacji danych, realizowanej w czasie rzeczywistym, co oznacza, że aktualne informacje będą dostępne przez cały czas, także po awarii. Replikacja może być wykonywana nawet pomiędzy ośrodkami i jest bardzo użyteczna na wypadek takich incydentów jak powódź czy długotrwała utrata zasilania. Ale niesie ze sobą też ryzyko, np. replikowania już uszkodzonych danych, a przez to otrzymania niepoprawnych danych w obu ośrodkach. Aby temu zapobiec, można skorzystać z technologii kopii migawkowych (snapshot) lub ciągłej ochrony danych (Continuous Data Protection, CDP). Kopie migawkowe można wykonywać w regularnych interwałach czasu, aby uzyskać obraz stanu danych na określony moment w przeszłości. To pozwoli jednak tylko na odzyskanie danych z konkretnych punktów w czasie, podczas gdy CDP rejestruje każdą operację zapisu, bez znacznego wpływu na wydajność podstawowych systemów pamięci masowych, ponieważ kopie mogą być zapisywane na oddzielnym urządzeniu. Takie rozwiązanie jest korzystne do odzyskiwania indywidualnych plików czy wiadomości pocztowych. Wymaga jednak bardzo uważnego pilnowania dostępnej przestrzeni dyskowej, jako że zapamiętywanie każdej naniesionej zmiany może skutkować koniecznością znacznej rozbudowy pojemności macierzy dyskowych.

Czy dane pobujają w obłokach?

Coraz więcej mówi się o możliwości wykorzystania popularnej ostatnio koncepcji przetwarzania danych w chmurach, czyli cloud computing, a w tym przypadku bardziej cloud backup i cloud recovery. Generalnie, pojęcie cloud computing wciąż jest rozumiane na kilka różnych sposobów, ale niemal wszystkie definicje zawierają parę kluczowych punktów: ograniczone skalowalne na żądanie, metoda zapłaty za rzeczywiste użytkowanie, dostęp do danych poprzez Internet i znacznie lepiej zarządzana i optymalizowana infrastruktura niż ta, która może być realizowana wewnątrz firmy. Dla firm tworzących procedury disaster recovery, backup w chmurach może być bardzo dobrym wyborem, jako że unikają dużych wydatków kapitałowych na rzecz wydatków operacyjnych, inwestując jednocześnie w znacznie lepszej jakości usługi, niż mogliby sami oferować.

Wokół koncepcji backupu w chmurze pojawia się coraz więcej rozwiązań. Ta nazwa jest obecnie używana dość optymistycznie, jako że jest nadawana wielu istniejącym rozwiązaniom do backupu, które niewiele wspólnego mają z rzeczywistymi chmurami. Oferowane rozwiązania, które nie spełniają wymienionych wyżej warunków, raczej nie powinny być brane pod uwagę.
Dlatego często niektóre organizacje budują własne „prywatne chmury”. Prywatna chmura jest realizowana wewnątrz centrum danych przedsiębiorstwa. Jej podstawową cechą jest utrzymanie modelu zwirtualizowanego, gdzie wirtualizacji podlega duża liczba rozwiązań IT, przede wszystkich serwerów i pamięci masowych. Dostarczanie usług odbywa się podobnie jak przez Internet z modelem płatności przez poszczególne działy za rzeczywiście zrealizowane użycie.

Rozważając realizację planu disaster recovery poprzez chmurę należy uważnie przyjrzeć się parametrom kosztowym. Należy porównać nie tylko koszt samodzielnej budowy środowiska versus koszt świadczenia usługi, ale także dodatkowe koszty, jak wynajem szerokopasmowego łącza internetowego, oszczędności związane z konsumpcją energii elektrycznej czy brakiem konieczności zatrudniania dodatkowego zespołu IT itd.

Decydując się na poświęcenie swoich danych usługodawcy, należy pamiętać o obwarowaniu tej decyzji stosownymi zapisami w umowie. Przede wszystkim powinien być określony poziom świadczenia usług (Service Level Agreement, SLA) wskazujący stopień odpowiedzialności usługodawcy za powierzone mu dane i czas na ich ewentualne ponowne udostępnienie klientowi. Umowa powinna traktować także o sytuacja nieprzewidzianych, np. nagłym wzroście ilości danych względem tego, co zamówił klient. Wówczas technicznie możliwe powinno być przekroczenie dostępnej pojemności, przy jej jednoczesnym późniejszym rozliczeniu za każdy wykorzystany gigabajt.

Niestety, powierzenie firmowych danych zewnętrznemu przedsiębiorstwu jej dodatkowo ograniczone obowiązującą od paru lat dyrektywą Unii Europejskiej „Data Protection Directive” (http://ec.europa.eu/justice_home/fsj/privacy/). Obok wielu przepisów określających w jaki sposób tzw. wrażliwe dane powinny być chronione, artykuł 29. tej dyrektywy dość szczegółowo opisuje zasady transferu danych do „krajów trzecich” (nie będących członkami Unii Europejskiej) i związane z tym ograniczenia oraz wyjątki. Prace nad tą dyrektywą wciąż trwają, więc w najbliższym czasie można spodziewać się zmian ustawodawstwa w tym zakresie, obowiązującego oczywiście także na terenie Polski i dotyczącego polskich przedsiębiorstw.

Kolejną odmianą tego modelu usług jest wykupienie usługi zarządzania procesami disaster recovery (managed DR). Wówczas u dostawcy usług najczęściej instalowane są nie tylko systemy pamięci masowych, ale dodatkowo usługodawca bierze na siebie konieczność zabezpieczenia danych, zapewnienia odpowiedniego backupu, utrzymania SLA wokół dostępności i szybkości odzyskania dostępu do danych. Dostawcy usług managed DR oferują także dodatkowe opcje, jak dostawy zastępczego sprzętu lub pełne przywrócenie do funkcjonowania miejsca pracy (włącznie z infrastrukturą biurową) na wypadek katastrofy.

Ciągły dostęp do kluczowych informacji biznesowych jest krytycznym wymogiem dla centrali firmy i jej oddziałów. Wciąż wiele firm nie dopasowało się do tej nowej rzeczywistości, opierając swoje systemy backupu wyłącznie na taśmach (na tych, którzy nie wykonują backupu w ogóle w dzisiejszych czasach należy już spuścić zasłonę milczenia). Dziś możliwości usprawnienia procesu backupu, które zaistniały ostatnio są ogromne, taśma wciąż odgrywa w nich ważną rolę do długoterminowego przechowywania kopii zapasowych i archiwizacji, ale tylko dyski gwarantują zredukowanie kosztów i czasu odzyskania danych. To, czy będą dostępne w chmurze publicznej, czy prywatnej, ma drugorzędne znaczenie.

Krzysztof Jakubik