CONNECT 2015 – LAS VEGAS – 28 kwietnia 2015 r. – Hitachi Data Systems Corporation, spółka zależna Hitachi, Ltd. (TSE: 6501) umacnia swoją pozycję w obszarze infrastruktury definiowanej przez oprogramowanie. Infrastruktura tego typu upraszcza systemy IT i uwalnia dane od tradycyjnych ograniczeń sprzętowo-lokalizacyjnych, dzięki czemu stają są one bardziej dostępne dla wszystkich zadań analitycznych. Nowe i ulepszone rozwiązania HDS pomogą klientom uzyskać większy dostęp do informacji za pośrednictwem zwirtualizowanych, hiperkonwergentnych i skalowalnych platform zbudowanych w celu szybszego przejścia do modelu systemów IT jako usługi (IT as a service – ITaaS) z wykorzystaniem architektur projektowanych pod kątem aplikacji i definiowanych przez oprogramowanie. Hitachi Data Systems zapowiedziało dziś również nowe rozwiązania i usługi, dzięki którym społeczeństwa będą żyły bezpieczniej, mądrzej i zdrowiej.

W celu efektywnego wykorzystania zalet infrastruktury definiowanej przez oprogramowanie technologia musi upraszczać operacje poprzez automatyzację, wzbogacać wiedzę poprzez lepszy dostęp do informacji oraz zwiększać wszechstronność wykorzystania zasobów poprzez abstrakcję, która przekształca posiadane aktywa w elastyczne zasoby.

Hitachi Data Systems realizuje te cele:

  • przystosowując swój system operacyjny do wirtualizacji pamięci masowych, Hitachi Storage Virtualization Operating System (SVOS) do potrzeb poszerzonej rodziny platform pamięci masowej Hitachi Virtual Storage Platform (VSP),
  • wzbogacając rodzinę Hitachi Unified Compute Platform (UCP) o modele infrastruktury konwergentnej i hiperkonwergentnej różnej wielkości (małe i duże),
  • wprowadzając platformę Hitachi Hyper Scale-Out Platform (HSP) do coraz częściej stosowanych zadań analitycznych,
  • wypuszczając na rynek nowe oprogramowanie automatyzujące udostępnianie i ochronę środowisk aplikacyjnych.

Wirtualizacja pamięci dla mas

Dzięki nowej rodzinie pamięci masowych Hitachi VSP – G200, G400, G600 i, już wkrótce, G800 – Hitachi Data Systems jest jedynym dostawcą IT, który oferuje takie same możliwości przechowywania danych zarówno w najmniejszych, jak i największych systemach klasy mainframe za pomocą jednego stosu oprogramowania. Dzięki dalszej rozbudowie systemu operacyjnego Hitachi SVOS, cała rodzina VSP może oferować natywną i heterogeniczną wirtualizację pamięci masowych oraz pamięć rozproszoną pracującą w trybie active-active – jak również w pełni kompatybilną migrację danych, replikację i zarządzanie. Klienci mogą teraz wybrać systemy o pożądanej pojemności, wydajności i cenie, kierując się własnymi celami biznesowymi, a nie różnicami funkcjonalnymi.

Klienci poszukujący mniejszych systemów będą mieć teraz dostęp do tej samej technologii wirtualizacji, która jest stosowana we wcześniejszych, zaawansowanych systemach HDS, osiągających najwyższe oceny, zarówno ogólnie, jak i w szczególnych zastosowaniach, w rankingu Critical Capabilities for General-Purpose, High-End Storage Arrays1 firmy Gartner. Te sprawdzone możliwości przyspieszają postęp w konsolidacji i uproszczeniu środowisk użytkownika bez względu na ich wielkość. Ponadto upraszczają proces migracji, umożliwiają łatwiejsze zarządzanie i pełną odporność na awarie.

Najlepsze w swej klasie konwergentne platformy do wszelkich zastosowań

Oferta platform obliczeniowych Hitachi Unified Compute Platform (UCP) została wzbogacona o nowe hiperkonwergentne i konwergentne modele, które obecnie zaspokajają potrzeby klientów w zakresie szybszej i łatwiejszej obsługi realizowanych całościowych obciążeń roboczych. Najnowsze nabytki rodziny UCP obejmują hiperkonwergentne rozwiązania Hitachi UCP 1000 for VMware EVO:RAIL i konwergentne rozwiązania Hitachi UCP 2000 – oba wykorzystują nowe serwery w obudowie typu rack oraz są przeznaczone dla środowisk małych i średnich albo dla rozproszonych oddziałów firm. Konwergentny model Hitachi UCP 6000 integruje wprowadzone niedawno serwery kasetowe Hitachi CB 2500 oraz zapewnia korzystną relację ceny do osiągów w realizacji krytycznych zadań. Rodzina UCP wraz z oprogramowaniem do automatyzacji infrastruktury, Hitachi Unified Compute Platform Director, umożliwia klientom zwiększanie efektywności operacyjnej dzięki szybkiemu wdrażaniu i udostępnianiu infrastruktury do zarządzania elastycznym centrum danych, pozwalającej dostosowywać realizowane zadania do potrzeb działalności biznesowej.

Budowa aktywnego repozytorium „data lake” do analiz dużych zbiorów danych (big data)

Hiperkonwergentna architektura nowej platformy Hitachi Hyper Scale-Out Platform (HSP) zapewnia efektywne kosztowo przetwarzanie danych i umożliwia dostosowanie na żądanie pojemności do bieżących potrzeb. Dzięki możliwości obsługi dużych zbiorów danych różnego rodzaju w rozproszonej architekturze klastrowej, proste i zautomatyzowane zarządzanie HSP umożliwia elastyczny wzrost danych dzięki zastosowaniu technologii systemu plików Hitachi z wykorzystaniem oprogramowania open source do zarządzania i wirtualizacji. HSP to skalowalna platforma dla środowisk Hadoop, umożliwiająca użytkownikom analizowanie danych na miejscu i eliminująca potrzebę przemieszczania dużych zbiorów danych w celu skorzystania z narzędzi analitycznych dla big data.

Zautomatyzowane udostępnianie pamięci dostosowane do wykorzystywanych aplikacji oraz ochrona danych

Hitachi Data Systems dodatkowo wprowadza i rozszerza bogatą ofertę narzędzi programistycznych, które pomogą użytkownikom zbudować pożądaną infrastrukturę ITaaS, oferując jednocześnie większe możliwości samodzielnej obsługi użytkownikom wewnętrznym. Te nowe, dostosowane do aplikacji rozwiązania umożliwiają większą automatyzację i skuteczniejszą ochronę krytycznych zadań realizowanych przez klienta. Zmniejszają one koszty, ograniczają złożoność, a jednocześnie zwiększają efektywność środowisk definiowanych przez oprogramowanie.
Hitachi Automation Director, nowa aplikacja współpracująca z pakietem do zarządzania infrastrukturą Hitachi Command Suite, udostępnia konfigurowalne szablony obsługowe, opracowane na podstawie najlepszych praktyk. Szablony umożliwiają proste i dostosowane do używanych aplikacji udostępnianie zasobów pamięci masowych bazom danych, aplikacjom i środowiskom VDI. Zintegrowane wsparcie kontroli dostępu w oparciu o realizowane zadania oznacza, że po zdefiniowaniu szablony te mogą być stosowane przez użytkowników biznesowych w trybie samoobsługowym.

Hitachi Infrastructure Director stanowi dodatek do Hitachi Command Suite. To nowa aplikacja do konfigurowania i zarządzania pamięcią masową. Wykorzystuje API nowych systemów VSP w celu umożliwienia prostego i intuicyjnego zarządzania – sterowanego przez wbudowany silnik rekomendacji – dla środowisk, w których prostota jest ważniejsza niż potrzeba manualnego kontrolowania każdego szczegółu. Hitachi Infrastructure Director zapewnia użytkownikom narzędzie potrzebne do kierowania uproszczonymi operacjami zarządzania w celu szybkiego wdrażania nowych systemów pamięci masowych i związanych z nimi usług dla nowych modeli z rodziny VSP.

Hitachi Data Instance Director upraszcza ochronę danych poprzez automatyzację i zastosowanie technologii Hitachi z zakresu kopii migawkowych (snapshot), klonowania i replikacji, uzupełnione o kopie zapasowe w czasie rzeczywistym, ciągłą ochronę danych oraz archiwizację na jednej platformie. Data Instance Director udostępnia prosty interfejs typu whiteboard, który dopasowuje poziom ochrony danych do priorytetów biznesowych.

Cytaty

– Systemy informatyczne zmieniają się fundamentalnie. Czy to w przypadku wdrożenia technologii ‘trzeciej platformy’ i utrzymania właściwej równowagi między różnymi modelami IT, czy to w przypadku obecnego dążenia do udostępniania rozwiązań IT jako usługi, na naszych oczach zachodzą rzeczywiste zmiany, gdy nasi klienci próbują przejść do modelu ITaaS – stwierdził Sean Moser, wiceprezes ds. zarządzania produktami w Hitachi Data Systems. – Klienci szukają sposobów zwiększenia możliwości i elastyczności, aby zyskać przewagę nad konkurencją. Hitachi udostępnia nową generację technologii definiowanych przez oprogramowanie, stworzoną, aby wspierać zmieniające się potrzeby środowisk aplikacji klientów. Nasze technologie umożliwiają realizację tych celów i powiązanie systemów obecnie stosowanych z tymi, które pojawią się w przyszłości.

 

– Aby w pełni uwolnić potencjał pamięci masowych zdefiniowanych przez oprogramowanie, wybrana technologia musi upraszczać operacje poprzez automatyzację, dostarczać wnioski potrzebne do zapewnienia wydajniejszego dostępu do danych, a także usprawniać organizację poprzez uelastycznienie sztywnych zasobów. Hitachi oferuje produkty, które urzeczywistniają nasz cel infrastruktury zdefiniowanej przez oprogramowanie – powiedział Darius Harris, senior IT manager w Nedbank, South Africa. W drodze do tego celu, Hitachi przystosowuje system operacyjny Storage Virtualization Operating System (SVOS) do rozszerzonej rodziny pamięci masowych Virtual Storage Platform (VSP), zapewniając dostępność wirtualizacji pamięci masowych dla takich organizacji, jak nasza.

 

– Osiągnięcie większego wykorzystania klastrów i grup pamięci ma dla nas krytyczne znacznie, podobnie jak dostęp do wsparcia w jednym miejscu – stwierdził James Hanley, wiceprezes i dyrektor generalny ośrodka przetwarzania w chmurze, platform i przetwarzania danych w CSC. – Dzięki Hitachi Data Systems potrafimy wdrożyć konwergentną infrastrukturę klasy enterprise poprzez automatyczną organizację naszych zasobów serwerowych, sieciowych i pamięci.

 

– Technologie UCP od Hitachi pomogą nam utrzymać przewagę na rynkach, doskonalić to, co musimy dostarczać, aby najlepiej zaspokajać potrzeby klientów, oraz wspierać najbardziej efektywny model działalności – powiedział Andreas Kranabitl, dyrektor zarządzający ds. usług informacyjnych i komunikacji w SPAR. – SPAR jest teraz dobrze przygotowany, aby aktywnie stawiać czoła wszelkim zmianom i kontynuować rozwój.

 

– Jako długoletni partner jesteśmy przyzwyczajeni, że Hitachi Data Systems stawia poprzeczkę wysoko – powiedział Nicholas Laine, dyrektor i asystent CTO w ESI Technologies, Inc. „Nowa platforma pamięci masowych zdefiniowanych przez oprogramowanie spełnia nasze oczekiwania, zapewniając elastyczność, wydajność i skalowalność – tak potrzebne do zaspokojenia wymogów obecnych i przyszłych aplikacji”.