Mainframe Speicherkompatibilität und -innovation mit Hitachi

mainframe-speicherkompatibilitaet-und-innovation-mit-hitachi

Virtuelle Speicherplattform G1500 und F1500

Mit über 25 Jahren Erfahrung im Support von IBM® Mainframe Umgebungen zählt Hitachi Data Systems zu den führenden Anbietern für Speichersysteme dieser kritischen Umgebungen und spezialisiert sich auf den Support dieser Mainframes. Hitachi bietet innovative Speicherlösungen an, um sowohl den Speicherprozess als auch die Performance und das Management in Mainframe-Umgebungen zu verbessern.

Wenn es um das Design und die Entwicklung von IBM Mainframe Systeme geht, bauen Hitachi und Hitachi Data Systems auf zwei Säulen. Die erste Säule konzentriert sich dabei auf Kompatibilität, legt also den Fokus auf den Support und die Qualifikation von essenziellen IBM Mainframe Speicherfeatures. Die zweite Säule fußt auf dem Prinzip der Innovation. Hier wird das Augenmerk auf das Entwickeln und Testen von einzigartigen Hitachi Speichersystemen und -features gerichtet, um Mainframe Kunden mit zusätzlicher Leistungsfähigkeit zu versorgen. IBM hat inzwischen erfolgreiche Tests mit der Hitachi Virtual Storage Platform im Zusammenhang mit IBM GDPS® absolviert und 2012 sogar Hitachi Universal Replicator (HUR) zur Nutzung mit GDPS qualifiziert.

Kompatibilität

Seit über 25 Jahren versorgt Hitachi Ltd. Mainframe-Technologien an Businessunternehmen und die Industrie. Dies beinhaltet auch Lösungen für z/OS®, z/VM®, ® z/VSE, z/TPF und Linux für z. Geschlossene Lizenzverträge ermöglichen, dass sich Hitachi und IBM Programmierschnittstellen (APIs) teilen, um so die Kompatibilität zwischen Hitachi Speichersystemen und IBM Mainframes zu ermöglichen:

Der Zugang zu diesen APIs erlaubt es Hitachi die Speichersysteme wie z. B. IBM PPRC, XRC, FlashCopy®, FlashCopy Space Efficient, Remote Pair FlashCopy, Parallel Access Volumes (PAV), HyperPAV, Multiple Allegiance (MA), High Performance FICON (zHPF), TPC-R und Basic HyperSwap® zu unterstützen. Außerdem wird es Hitachi ermöglicht, Speichermanagement Software für Mainframe-Umgebungen zu entwickeln. IBM erhält im Gegenzug Zugang zu Hitachi APIs, die NanoCopy Notfallwiederherstellung und Hitachi ShadowImage Replication.

Darüber hinaus nimmt Hitachi an den IBM Early Ship Programmen für z/OS teil. Um sicherzustellen, dass neue z/OS-Versionen kompatibel sind, wenn diese auf den Markt kommen, kann Hitachi diese Versionen per early-access vorab testen. Hitachi Speichersysteme und -features werden in diesem Zuge mit IBM Mainframes, Betriebssystemen und bedenklichen Features getestet und auf Kompatibilität geprüft. Diese Tests beinhalten Features wie den Support für GDPS/HyperSwap, FlashCopy und zHPF. Hitachi Vertual Storage Platform (VSP), Hitachi Universal Storage Platform V (USP V) und Hitachi Universal Storage Platform VM (USP VM) sind diesbezüglich qualifiziert und werden sowohl von IBM z196, Z9®, z10™, z114, zEC12 and zBC12 9® Prozessoren als auch von aktuellen z/OS Versionen (inklusive Support ab dem ersten Tag für z/OS 2.2) unterstützt.

Erfolgreich abgeschlossene Kompatibilitätstests:

  • VPS mit z/OS 1.13, 2.1 und GDPS
  • VSP G1000 mit FICON und zHPF (inklusive Multi-Track und Bi-Directional Data Transfer) an z13, z13s, zEC12, zBC12, z196, z114, z10 EC und z10 BC durch unterstützte Directors und Switche
  • VSP G1000 mit z/OS 2.1 und GDPS

Angebote zur Wiederherstellung und zum Schutz

Die Möglichkeit, Ihre Daten zu schützen und im Notfall wiederherzustellen, benötigt die Herstellung sowie den Zugang zu separaten Kopien dieser Daten. Abhängig von der jeweiligen Situation können diese Kopien lokal in der Nähe oder weiter entfernt sein. Es muss jedoch die Möglichkeit bestehen, auf diese Kopien basierend auf RTO oder RPO zugreifen zu können. Diese separaten Kopien bieten also nicht nur Schutz und Verfügbarkeit im Falle einer Unterbrechung oder sogar Katastrophe, sondern ermöglichen gleichzeitig das Testen an echten Daten. Außerdem gewähren sie die Performance von Supportvorgängen, wie z. B. ein Backup mit Tape oder Konsistenzprüfung. Durch diese Koppelung von Kopiemöglichkeiten mit Virtualisierung einerseits und statischen und dynamischen Einteilungsmöglichkeiten andererseits, kann man Kosten und Risiken am besten kalkulieren.