IBM zEnterprise 114: Optimiert für den Mittelstand und Unternehmen mit
kleinen Mainframe-Anforderungen
25 Prozent höhere Leistung bei gleichzeitiger Reduzierung der Kosten/
Möglichkeit, Workloads auf ausgewählten System x Blades zu verwalten/
Hybride IT-Infrastruktur möglich
Ehningen/ Armonk, 12. Juli 2011: IBM (NYSE:IBM) kündigt heute ein neues
Servermodell an - ein leistungsfähiges Einstiegsmodell des IBM
zEnterprise, einem der skalierbarsten Mainframe-Server auf der Welt.
Dieser ist insbesondere für Unternehmen mit kleinen Mainframe-
Anforderungen, wie zum Beispiel den Mittelstand geeignet.
Letztes Jahr hat IBM das zEnterprise System auf den Markt gebracht, das
vor allem bei den weltweit größten Banken, Versicherungen und Behörden im
Einsatz ist. Der neue Server IBM zEnterprise 114 bietet nun auch
mittelständischen Unternehmen und Organisationen mit kleineren
Mainframe-Anforderungen die Vorteile eines Großrechners als Grundgerüst
ihrer Datenzentren. Die z114 ist dennoch preiswerter, bei ca. 25 Prozent1
mehr Rechnerleistung als das Vorgängermodell System z10 BC. Kunden können
auf der neuen z114, mit nur drei Prozessoren und dem Betriebssystem Linux,
die Workloads von bis zu 40 Oracle Servercores konsolidieren. Darüber
hinaus kostet der z114 nicht nur signifikant weniger als vergleichbare
Oracle Server, das System benötigt auch deutlich weniger Platz und
Energie.²
Mit einem günstigen Einstiegspreis ist die zEnterprise 114 besonders
interessant für Unternehmen bei denen besonders das Servicegeschäft in den
Bereichen Banking, Handel, mobile Anwendungen etc. stark wächst. ?Heute
haben nicht nur große Unternehmen mit einem erhöhten Datenaufkommen zu
kämpfen. Alleine im eCommerce Umfeld haben schon Mittelständler viele
Kundendaten und Bestelleingänge, die verwaltet und analysiert werden
müssen, um einen Wettbewerbsvorteil zu erhalten. Hier setzen wir mit dem
neuen IBM zEnterprise System und der Idee einer intelligenten
IT-Infrastruktur an. So unterstützen wir Kunden dabei effizienter zu
arbeiten, die Bedürfnisse ihrer Kunden besser zu verstehen und ihre
Entscheidungen in Echtzeit zu optimieren?, so Volker Haas, Mainframe
Platform Leader, IBM Deutschland.
Desweiteren hat IBM neue Features angekündigt, die dem zEnterprise System
die Integration und das Management von Workloads auf zusätzlichen
Plattformen ermöglichen. Neu ist die Unterstützung von System x Blades im
zEnterprise System. Auf den System x Blades können Linux- und zukünftig
auch Windows-Anwendungen betrieben werden. Mit diesem umfassenden
Leistungsspektrum können das IBM zEnterprise System inklusive der neuen
z114 dazu beitragen, die Komplexität in Rechenzentren zu vereinfachen.
Erreicht wird dies durch die Möglichkeit, Workloads auf Mainframe, POWER7-
und IBM System x-Servern zentral als ein einziges System zu verwalten. Die
Vorteile des Mainframes wie Governance und Verwaltungskomfort können durch
die zEnterprise Blade Center Extension (zBX) auch für Workloads auf
unterschiedlichen Plattformen genutzt werden.
zEnterprise 114
Der neue z114 bietet Kunden die Möglichkeit kleinerer Konfigurationen und
den Zugriff auf mehr Kapazitäten, ohne dass sich gleichzeitig die
Stellfläche, die Komplexität des Systemmanagements oder die Kosten
erhöhen.
Für die z114 stehen bis zu 14 hoch entwickelte Mikroprozessoren zur
Verfügung. Die Serverkonfiguration kann dabei bis zu 10 Spezialprozessoren
umfassen. Hierzu gehören unter anderem der System z Application Assist
Processor (zAAP), der System z Integrated Information Processor (zIIP) und
die Integrated Facility for Linux, die entworfen worden sind, um neue
Java, XML oder Linux Applikationen sowie Technologien mit bereits
bestehenden Workloads zu integrieren, aber auch um die Systemressourcen zu
optimieren und Kosten zu reduzieren. Zum Beispiel können Kunden viele
virtuelle Server für sehr geringe Betriebskosten anlegen und betreiben.
Die z114 erzielt Performance-Verbesserungen von bis zu 18 Prozent ³ bei
traditionellen z/OS Workloads und bis zu 25 Prozent 4 bei
mikroprozessorintensiven Workloads im Vergleich zur z10 BC.
Auf der z114 laufen die neuesten zEnterprise-Betriebssysteme
einschließlich des neuen z/OS V 1.13, das heute angekündigt wird. Die neue
z/OS-Version umfasst unter anderem neue Funktionen für die
Softwareimplementierung und Plattenverwaltung. Darüber hinaus bietet sie
eine erweiterte Autonomiefunktionalität und Funktionen für die frühzeitige
Fehlererkennung sowie die aktuellen Verschlüsselungs- und
Compliance-Features, für eine erweiterte Sicherheit.
Hybride IT-Infrastruktur
IBM kündigt außerdem an, dass auf ausgewählten System x Servern mit dem
Betriebssystem Linux Workloads als Teil des zEnterprise System integriert
und verwaltet werden können5. Dadurch werden zum einen die
Rechenzentrumsverwaltung vereinfacht und zum anderen die Kosten weiter
gesenkt. Zukünftig ist außerdem geplant, auch Microsoft Windows auf
ausgewählten IBM System x Servern zu unterstützen.
Diese Möglichkeit wird dem Kunden durch den IBM zEnterprise Unified
Resource Manager und die IBM zEnterprise BladeCenter Extension (zBX)
bereitgestellt. Diese erlauben es, die Verwaltung von
zEnterprise-Ressourcen als ein einziges System zu integrieren und die
speziellen Mainframe-Qualitäten wie Governance und Verwaltungskomfort auch
für Workloads auf anderen ausgewählten Servern zu nutzen. ?Hybride IT-
Infrastrukturen waren bislang häufig nur für große Unternehmen möglich.
Durch den Einsatz der IBM zEnterprise BladeCenter Extension zBX können nun
auch mittelständische Unternehmen ihre Workloads von x86 Systemen und dem
neuen Mainframe z114 konsolidieren und kommen somit in den Genuss der
vereinfachten Verwaltung und erweiterten Sicherheitskomponenten des
Mainframes?, so Roland Trauner, Produktmanager System z, IBM Deutschland.
Das zEnterprise System kann jetzt Workloads, die aus tausenden von
Standardanwendungen stammen, auf ausgewählten Standard IBM
POWER7-basierten und IBM System x Blades integrieren und verwalten.
Vervollständigt werden kann die Lösung durch den Smart Analytics
Optimizer, der für eine schnellere Analyse der Daten bei geringeren Kosten
pro Transaktion sorgt und IBM WebSphere DataPower XI50z für die
Integration webbasierter Workloads.
Bis zu 112 Blades können als Teil der zBX integriert und verwaltet werden.
Dabei können im selben BladeCenter-Gehäuse unterschiedliche Bladetypen und
Optimizer kombiniert werden.
Neue Finanzierungsmöglichkeiten
IBM Global Financing bietet bereits bestehenden IBM Kunden attraktive
Finanzierungsangebote, wenn sie beispielsweise ein Upgrade auf einen
z114-Server vornehmen wollen ebenso wie Finanzierungslösungen für HP und
Oracle Kunden.
IBM System z-Kunden bietet IBM Global Financing an bestehende Altsysteme
zurückzukaufen und Upgrades auf einen z114 Server zu einem marktgerechten
Leasingpreis vorzunehmen. Dadurch kann der Kunde durch feste monatliche
Raten langfristig planen. Für Kunden, die bisher mit HP Itanium- oder
Oracle-Sun-Servern gearbeitet haben und sich für den Kauf eines z114
Servers entscheiden bietet IBM Global Financing Entsorgung des Altgeräts
an. Darüber bietet IBM Global Financing bonitätsgeprüften Kunden die
Möglichkeit, jetzt in die neue z114 Technologie zu investieren und erst
2012 mit den Zahlungen zu beginnen.
Für IBM Software, auch für IBM Middleware für die z114, wie Tivoli,
WebSphere, Rational, Lotus und Analytics Produkte ermöglicht IBM Global
Financing eine zwölfmonatige zinsfreie Finanzierung.
Weitere Informationen auch in unsere Pressemapp:
http://www-03.ibm.com/press/de/de/presskit/34975.wss
Ansprechpartner für Journalisten:
Hans-Jürgen Rehm
Unternehmenskommunikation IBM Deutschland,
System and Technology Group, Supercomputing,
Software: Anwendungsentwicklung, Systems Management, Sicherheit,
Banken, Versicherungen und Region Berlin
Telefon: +49-7034-15-1887
Mobil: +49-171-5566940
E-Mail: hansrehm@de.ibm.com
Rebecca Mertes
Unternehmenskommunikation IBM Deutschland,
Software Group, Systems and Technology Group
Telefon: +49-7034-15-1779
E-Mail: rebecca.mertes@de.ibm.com
#
1--The z114 will exhibit up to 25% increase for CPU intensive workload as
provided by multiple C/C++ compiler level improvements when going from
z/OS 1.09 to z/OS 1.12-
2--Consolidation of Oracle servers in a 3 year TCA of including discounted
z/VM license and support, discounted VMWare license and support,
discounted Oracle software license, Oracle software support, discounted
Linux operating system on System z, disaster recovery software and
hardware, hardware and discounted hardware maintenance on a z114 has a 80%
cost savings compared to 40 HP Proliant BL460c G6 Xeon X5570 2.93GHz:
Linux RHEL: (2ch/8co) and a z114 has a 38% discount compared to z10 BC.
3--Relative capacity and performance compares at equal software levels as
measured by IBM Large System Performance Reference (LSPR) workloads using
z/OS® 1.11, Results may vary
4--The z114 will exhibit up to 25% increase for CPU intensive workload as
provided by multiple C/C++ compiler level improvements when going from
z/OS 1.09 to z/OS 1.12
5--General availability for select System x blades is expected on 9/26/11.
Montag, 25. Juli 2011
IBM-Speicherrekord: Zehn Milliarden Dateien in einer Schulstunde
10 Milliarden Dateien in 43 Minuten: IBM Forscher erzielen neue
Spitzenleistung bei Dateisystem für Big-Data-Anwendungen
IBM General Parallel File System (GPFS) verbessert bestehenden Rekordwert
um das 37-fache / wichtiger Schritt auf dem Weg hin zur Handhabung extrem
großer Datenbestände
San Jose, CA/Stuttgart-Ehningen, 25. Juli 2011: Forscher von IBM (NYSE:
IBM) haben einen weiteren Schritt hin zu künftigen Speichersystemen mit
extrem großem Datenbestand getan. In einem Versuch konnten 10 Milliarden
Dateien auf einem einzigen System in nur 43 Minuten gescannt und erfasst
werden. Damit wurde der bestehende Rekord - eine Milliarde Dateien in drei
Stunden - um den Faktor 37 verbessert.
Erstmals im Jahr 1998 haben IBM Forscher das hochskalierbarer geclusterte
parallele Dateisystem mit dem Namen General Parallel File System (GPFS)
vorgestellt. Dies wurde ständig weiterentwickelt, um den jetzigen
Durchbruch zu ermöglichen. GPFS ist ein wichtiger Schritt für das weitere
Wachstum von Speicherleistung und -kapazität, während die
Administrationskosten nicht weiter steigen sollen.
Mit dieser Verbesserung können Organisationen besser mit dem
explosionsartigen Datenwachstum durch eine Vielzahl von Transaktionen und
digitalen Sensoren und anderen datenliefernden Geräten fertigwerden, die
in heutigen intelligenten Infrastrukturen entstehen. Damit ist dieses
Werkzeug besonders geeignet für Anwendungen, die sehr schnellen Zugang zu
großen und größten Datenmengen benötigen, wie etwas Data Mining-Lösungen,
um etwas Kundenkaufverhalten besser erkennen zu können. Auch in Bereichen
wie Risikomanagement, Finanzanalyse, Seismik, Wettermodellierung und
vielen anderen wissenschaftlichen Forschungsgebieten kann das Werkzeug zum
Einsatz kommen.
Mit Blick auf das extrem hohe Datenwachstum in fast allen Branchen wurden
die Daten hier auf einer einzigen Speicherplattform konsolidert. Dies
vermindert den hohen Verwaltungsaufwand, der bei separater Datenhaltung
auf verteilten Plattformen entsteht. Damit können Datenmanagement-Aufgaben
dramatisch vereinfacht und verringert werden. Somit können mehr
Informationen unter einer einheitlichen Technologie gespeichert werden,
anstelle mehr und mehr zusätzlichen Speicher zu beschaffen.
Speicherleistung erreicht ein neues Niveau
Die jetzige Spitzenleistung wurde mit GPFS und einem Cluster von 10
Achtkern-Serversystemen mit SSD-Speicher erreicht. Der GPFS-Algorithmus
ermöglicht die komplette Ausnutzung aller Prozessorkerne in allen
Maschinen und allen Aufgabenphasen - Daten lesen, sortieren und Anwenden
der Datenmanagement-Vorgaberegeln. GPFS konnte die eingesetzte
SSD-Appliance mit nur 6,8 Terabyte an Kapazität bei hervorragender
Random-Leistung und hohen Datentransferraten ausnützen, um die
Speicher-Metadaten abzulegen. Die Appliance konnte bei gleichmäßig hoher
Leistung hunderte von Millionen an Daten-I/O-Operationen ausführen,
während GPFS unter den 10 Milliarden Dateien auf dem System den richtigen,
gewünschten Satz an Dateien identifizierte, auswählte und sortierte.
"Der Nachweist der GPFS-Skalierbarkeit eröffnet den Weg für neue Produkte,
die die Anforderungen einer Multi-Zettabyte-Welt adressieren", sagt Doug
Balog, Vice President, IBM Speichersysteme. "Diese Innovation hat das
Potential, sehr große Datenumgebungen auf einer einzigen Plattform zu
vereinen, und dabei die Datenmanagementaufgaben dramatisch zu vereinfachen
und zu reduzieren - wie Datenablage, Migration und Backup individueller
Dateien."
Der vorherige Rekord - eine Milliarde Dateien in drei Stunden scannen -
wurde erst im Jahr 2007 von IBM Forschern bei einer Konferenz in Reno,
Nevada, aufgestellt.
"Unternehmen jeder Branche sorgen sich um die Zukunft von Daten und
Datenmanagement, da sie alle sich einem Kernproblem gegenübersehen - der
Verwaltung riesiger Datenmengen, die täglich zusätzlich entstehen", sagt
Bruce Hillsberg, Direktor Speichersysteme, IBM Research, Almaden. "Ob
durch Bankensysteme, medizinische Analysegeräte oder Verkehrssensoren
erzeugt - unser aller tägliches Leben wird von Daten umströmt. Aber diese
sind nur sinnvoll, wenn sie effektiv gespeichert, analysiert und
angewendet werden können. Unternehmen und Behörden benötigen daher
intelligente Systeme als Werkzeug, um den konstanten Strom an Daten in
sinnvolle Einsichten verwandeln zu können."
Die IBM Forschung entwickelt dabei fortlaufend innovative neue
Speichertechnologien, die Kunden bei der Bewältigung der Datenmengen und
ihrer sinnvollen Nutzung helfen. Allein im vergangenen Jahr sind
bedeutende Speicherinnovationen aus der IBM Forschung in fünf wichtige
Produkte eingeflossen, IBM Easy Tier, Storwize V7000, Scale-out Network
Attached Storage (SONAS), IBM Information Archive und das IBM Long Term
File System (LTFS).
Die Menge digitaler Daten ist um 47 Prozent im vergangenen Jahr gewachsen.
Dies heißt, daß Unternehmen unter enormem Druck sind, Daten schnell in
umsetzbare Handlungsempfehlungen zu übersetzen. Allein die Speicherung von
und der Umgang mit Daten stößt hier bereits an seine Grenzen. Im gleichen
Zug, wie neue speicherhungrige Anwendungen in fast allen Branchen
entstehen, verlieren traditionelle Datenmangementsysteme zunehmend ihre
Fähigkeit, übliche, aber wichtige Speicherverwaltungsaufgaben zu leisten.
Dies setzt Organisationen jeder Art der Verlustmöglichkeit wichtiger und
kritischer Daten aus. Diese Entwicklungen wurden von IBM Forschern bereits
vor vielen Jahren antizipiert. Aus diesem Grund hat IBM GPFS entwickelt,
das Unternehmen dabei helfen kann, mit dem extrem hohen Datenwachstum
besser fertig zu werden. GPFS wird bereits häufig für Aufgaben wie Backup,
ILM, Disaster Recovery und Content-Verteilung eingesetzt. Durch die
Kombination aus der Multi-System-Parallelisierung und schnellem Zugang zu
den Metadaten des Dateisystems (auf SSD) kann diese Technologie auch die
Herausforderung der Verwaltung extrem großer Datenmengen bewältigen.
Zusätzliche Informationen in der US-Presseinformation anbei und unter
diesem Link: http://www-03.ibm.com/systems/software/gpfs/
Spitzenleistung bei Dateisystem für Big-Data-Anwendungen
IBM General Parallel File System (GPFS) verbessert bestehenden Rekordwert
um das 37-fache / wichtiger Schritt auf dem Weg hin zur Handhabung extrem
großer Datenbestände
San Jose, CA/Stuttgart-Ehningen, 25. Juli 2011: Forscher von IBM (NYSE:
IBM) haben einen weiteren Schritt hin zu künftigen Speichersystemen mit
extrem großem Datenbestand getan. In einem Versuch konnten 10 Milliarden
Dateien auf einem einzigen System in nur 43 Minuten gescannt und erfasst
werden. Damit wurde der bestehende Rekord - eine Milliarde Dateien in drei
Stunden - um den Faktor 37 verbessert.
Erstmals im Jahr 1998 haben IBM Forscher das hochskalierbarer geclusterte
parallele Dateisystem mit dem Namen General Parallel File System (GPFS)
vorgestellt. Dies wurde ständig weiterentwickelt, um den jetzigen
Durchbruch zu ermöglichen. GPFS ist ein wichtiger Schritt für das weitere
Wachstum von Speicherleistung und -kapazität, während die
Administrationskosten nicht weiter steigen sollen.
Mit dieser Verbesserung können Organisationen besser mit dem
explosionsartigen Datenwachstum durch eine Vielzahl von Transaktionen und
digitalen Sensoren und anderen datenliefernden Geräten fertigwerden, die
in heutigen intelligenten Infrastrukturen entstehen. Damit ist dieses
Werkzeug besonders geeignet für Anwendungen, die sehr schnellen Zugang zu
großen und größten Datenmengen benötigen, wie etwas Data Mining-Lösungen,
um etwas Kundenkaufverhalten besser erkennen zu können. Auch in Bereichen
wie Risikomanagement, Finanzanalyse, Seismik, Wettermodellierung und
vielen anderen wissenschaftlichen Forschungsgebieten kann das Werkzeug zum
Einsatz kommen.
Mit Blick auf das extrem hohe Datenwachstum in fast allen Branchen wurden
die Daten hier auf einer einzigen Speicherplattform konsolidert. Dies
vermindert den hohen Verwaltungsaufwand, der bei separater Datenhaltung
auf verteilten Plattformen entsteht. Damit können Datenmanagement-Aufgaben
dramatisch vereinfacht und verringert werden. Somit können mehr
Informationen unter einer einheitlichen Technologie gespeichert werden,
anstelle mehr und mehr zusätzlichen Speicher zu beschaffen.
Speicherleistung erreicht ein neues Niveau
Die jetzige Spitzenleistung wurde mit GPFS und einem Cluster von 10
Achtkern-Serversystemen mit SSD-Speicher erreicht. Der GPFS-Algorithmus
ermöglicht die komplette Ausnutzung aller Prozessorkerne in allen
Maschinen und allen Aufgabenphasen - Daten lesen, sortieren und Anwenden
der Datenmanagement-Vorgaberegeln. GPFS konnte die eingesetzte
SSD-Appliance mit nur 6,8 Terabyte an Kapazität bei hervorragender
Random-Leistung und hohen Datentransferraten ausnützen, um die
Speicher-Metadaten abzulegen. Die Appliance konnte bei gleichmäßig hoher
Leistung hunderte von Millionen an Daten-I/O-Operationen ausführen,
während GPFS unter den 10 Milliarden Dateien auf dem System den richtigen,
gewünschten Satz an Dateien identifizierte, auswählte und sortierte.
"Der Nachweist der GPFS-Skalierbarkeit eröffnet den Weg für neue Produkte,
die die Anforderungen einer Multi-Zettabyte-Welt adressieren", sagt Doug
Balog, Vice President, IBM Speichersysteme. "Diese Innovation hat das
Potential, sehr große Datenumgebungen auf einer einzigen Plattform zu
vereinen, und dabei die Datenmanagementaufgaben dramatisch zu vereinfachen
und zu reduzieren - wie Datenablage, Migration und Backup individueller
Dateien."
Der vorherige Rekord - eine Milliarde Dateien in drei Stunden scannen -
wurde erst im Jahr 2007 von IBM Forschern bei einer Konferenz in Reno,
Nevada, aufgestellt.
"Unternehmen jeder Branche sorgen sich um die Zukunft von Daten und
Datenmanagement, da sie alle sich einem Kernproblem gegenübersehen - der
Verwaltung riesiger Datenmengen, die täglich zusätzlich entstehen", sagt
Bruce Hillsberg, Direktor Speichersysteme, IBM Research, Almaden. "Ob
durch Bankensysteme, medizinische Analysegeräte oder Verkehrssensoren
erzeugt - unser aller tägliches Leben wird von Daten umströmt. Aber diese
sind nur sinnvoll, wenn sie effektiv gespeichert, analysiert und
angewendet werden können. Unternehmen und Behörden benötigen daher
intelligente Systeme als Werkzeug, um den konstanten Strom an Daten in
sinnvolle Einsichten verwandeln zu können."
Die IBM Forschung entwickelt dabei fortlaufend innovative neue
Speichertechnologien, die Kunden bei der Bewältigung der Datenmengen und
ihrer sinnvollen Nutzung helfen. Allein im vergangenen Jahr sind
bedeutende Speicherinnovationen aus der IBM Forschung in fünf wichtige
Produkte eingeflossen, IBM Easy Tier, Storwize V7000, Scale-out Network
Attached Storage (SONAS), IBM Information Archive und das IBM Long Term
File System (LTFS).
Die Menge digitaler Daten ist um 47 Prozent im vergangenen Jahr gewachsen.
Dies heißt, daß Unternehmen unter enormem Druck sind, Daten schnell in
umsetzbare Handlungsempfehlungen zu übersetzen. Allein die Speicherung von
und der Umgang mit Daten stößt hier bereits an seine Grenzen. Im gleichen
Zug, wie neue speicherhungrige Anwendungen in fast allen Branchen
entstehen, verlieren traditionelle Datenmangementsysteme zunehmend ihre
Fähigkeit, übliche, aber wichtige Speicherverwaltungsaufgaben zu leisten.
Dies setzt Organisationen jeder Art der Verlustmöglichkeit wichtiger und
kritischer Daten aus. Diese Entwicklungen wurden von IBM Forschern bereits
vor vielen Jahren antizipiert. Aus diesem Grund hat IBM GPFS entwickelt,
das Unternehmen dabei helfen kann, mit dem extrem hohen Datenwachstum
besser fertig zu werden. GPFS wird bereits häufig für Aufgaben wie Backup,
ILM, Disaster Recovery und Content-Verteilung eingesetzt. Durch die
Kombination aus der Multi-System-Parallelisierung und schnellem Zugang zu
den Metadaten des Dateisystems (auf SSD) kann diese Technologie auch die
Herausforderung der Verwaltung extrem großer Datenmengen bewältigen.
Zusätzliche Informationen in der US-Presseinformation anbei und unter
diesem Link: http://www-03.ibm.com/systems/software/gpfs/
Abonnieren
Posts (Atom)