Inhalt

Trends in der IT

In-Memory- Technologie

Dr. Stefan Sigg
Dr. Stefan SiggSigg studierte Mathematik und arbeitete nach seiner Promotion bei
SAP zunächst in klassischen Anwendungsentwicklung. Heute ist er
Entwicklungsleiter bei SAP für den Bereich „In-Memory-Plattform“.
Das umfasst alle Gebiete, die die In-Memory-Technologie umspannt.
Dazu gehören die In-Memory Datenbank HANA sowie Data Ware-
housing mit dem Produkt Business Warehouse als auch der kom-
plette Bereich Enterprise Search.

 

SAP
SAP ist marktführender Anbieter von Unternehmenslösungen für Firmen aller Größen und
Branchen. SAP steht für „Systeme, Anwendungen und Produkte in der Datenverarbei-
tung“ und wurde 1972 gegründet. Seitdem steht der Branchenführer für innovative Ideen
und starkes Wachstum. Aktuell verfügt SAP über Vertriebs- und Entwicklungsstandorte in
mehr als 50 Ländern weltweit.

 

Interview

Wie würden Sie Ihren aktuellen Aufgabenbereich beschreiben?
Als Entwicklungsleiter bei SAP bin ich für den Bereich „In-Memory-Plattform“ verant-
wortlich. Das umfasst alle Gebiete, die die In-Memory-Technologie umspannt, nämlich
In-Memory Datenbank HANA sowie Data Warehousing mit unseren Produkt Business Wa-
rehouse (BW) als auch der komplette Bereich Enterprise Search und noch einige kleinere
Entwicklungsteams.

Warum haben Sie sich für den Bereich, in dem Sie jetzt tätig sind, entschieden?
Angefangen habe ich bei SAP in der klassischen Anwendungsentwicklung. Innerhalb
des Produktes R3 habe ich mehrere Jahre Software entwickelt. Als SAP ihre Produktpalette
erweiterte, kam 1998 das Business-Warehouse hinzu. Als Teil des Gründerteams manag-
te ich erst Projekte, danach Teams und zum Schluss den Bereich „Business-Warehouse“.
2003 haben wir den BW Accelerator auf Basis einer Suchengine entwickelt, die für viele
Operationen bereits den Hauptspeicher intensiv nutzte. Dieses Produkt kann als Vorgänger
unserer HANA-Datenbank bezeichnet werden. Aus meiner Sicht gibt es in diesem Be-
reich ein forderndes Spannungsfeld zwischen hohem Anspruch an die Technologie als auch
das ständige Ziel, etwas zu entwickeln, das Kunden auch nutzen können. Die Technologie
ist technisch als auch theoretisch sehr herausfordernd, aber für mich ist es immer sehr in-
teressant, daraus ein Produkt zu formen, das unsere Kunden einsetzen können.

Was motiviert Sie am meisten bei Ihrer Arbeit?
Das sind vor allem drei Themen. Zunächst finde ich die Schnittstelle zwischen Technologie
und Anwendung fachlich sehr interessant. Das zweite sind meine Mitarbeiter. Für einen Ma-
nager ist es wichtig, motivierte Mitarbeiter zu haben. Und das dritte, vielleicht wichtigste The-
ma ist Impact, den wir bei unseren Kunden erzielen. Zu sehen, wie die produzierte Software
den Weg in die IT und Fachabteilungen unserer Kunden findet und dort einfach funktioniert.
Im Gegensatz zu reiner Forschung haben wir eine tägliche Überprüfung unserer Arbeit.

Wie kamen Sie mit In-Memory-Technologie in Kontakt?
Ich glaube nicht daran, dass derartige innovative Themen dadurch geboren werden, dass
man sich in ein stilles Kämmerlein zurück zieht, lange genug nachdenkt und dann mit einer
Idee heraus geht. Wir sind im Umfeld des BW zur Einsicht gekommen, dass wir im Bereich
Query Performance etwas machen müssen. Damals war das probate Mittel, durch Mate-
rialisierung, Aggregate oder Summentabellen redundante kleinere Datenbestände aus den
großen Datenbeständen heraus zu erzeugen und zu hoffen, eine bessere Performance zu
erzielen. Wir sind halb durch Zufall, halb gewollt auf die bei SAP schon existierende Such
Engine TREX gestoßen. Wir haben entdeckt, dass in dieser Suchmaschine Potenzial liegt.
Aus dieser Zusammenarbeit ist der Business Accelerater entstanden. Man kann es eine
proprietäre Turbo Engine für das BW nennen, mit der alle Queries nicht mehr gegen die re-
lationale Datenbank erfolgen. Daraufhin haben uns Vishal Sikka (CTO) und Hasso Platt-
ner, dazu ermutigt, dies weiterzuverfolgen, um letztendlich eine komplette Datenbank zu
entwickeln. Dieses System funktioniert jetzt wirklich so, dass ohne Aggregate Manage-
ment oder Tunen jede Query noch schneller beantwortet werden konnte. Wir haben teil-
weise Queries, die im Gegensatz zur normalen Datenbank 500 bis 600 Mal schneller sind.
Das ist ein Quantensprung.

Was waren die Gründe für die Weiterentwicklung der Technologie?
Es war ein bidirektionaler Prozess. Diese Innovation ist selber aus uns und dem Hasso Platt-
ner Institut herausgekommen, ausgelöst und getrieben durch Anforderungen von Kunden.
Man sollte SAP HANA nicht so sehen, als ob es das letzte Jahr vom Himmel gefallen ist, son-
dern es war und ist eine stringente Weiterentwicklung. Des Weiteren hat die Verfügbarkeit
von Hauptspeicher in Dimensionen, die vorher nur für die Festplatten denkbar waren, dies
vorangetrieben. Ich spreche von Terabytes von Daten. Aber das alleine reicht aus meiner Sicht
nicht aus. Wir reden über Big Data. Die Kombination aus Hauptspeicherorientiertheit, hoch
parallelisierten Algo­rithmen und spaltenorientierter Ablage ergeben die kritische Masse.

In welchen Bereichen/Branchen ist die Technologie am effektivsten einsetzbar?
Wir kommen mit der Technologie von der analytischen Seite. Da haben wir schon ein-
drucksvoll bewiesen, wie leistungsstark diese Technologie ist. D. h. wir können heute
im BW oder nur mit SAP HANA analytische Szenarien sehr gut abhandeln. Der nächste
Schritt ist SAP HANA OLTP ready zu machen. Ende 2012 werden wir hier einen großen
Meilenstein erreichen. Neben diesen Einsatzgebieten gibt es aber auch massives Potenzial
außerhalb der traditionellen SAP Umgebung. Z. B. wird sehr gerne von unseren Vorständen
der Einsatz im Bereich Genom-Analyse bzw. Humangenom-Analyse genannt. Dazu be-
nötigt man leistungsstarke Rechner und eine schnelle Technologie. Und da sind wir ziem-
lich weit vorne dabei, SAP HANA einzusetzen und eine Art „Decision Support“ nicht für
Business, sondern für Mediziner zu erstellen.

Welche Stärken bzw. Schwächen hat Ihrer Meinung nach die Technologie?
Ich glaube, dass es – perspektivisch gesehen – keine Nachteile geben wird. Die Nachteile
sind heute begründet im noch jungen Reifegrad der Technologie. Ich habe eine neue
Technologie in einem hochkritischen Bereich. Es kann nicht erwartet werden, dass eine Soft-
ware vom Tag Null an so robust ist, wie eine Technik, die schon 40 Jahre auf dem Markt ist.
D. h. wir müssen den Weg der Reifegradgewinnung sehr schnell gehen. Uns ist bewusst,
dass es nicht nur um die Leistungsfähigkeit von heute geht, sondern auch von morgen
und übermorgen. Es wird sehr schnell machbar sein, auch sehr große Datenbestände im
Hauptspeicher zu halten. Die Vorhersage von Jim Gray – einer der großen Datenbankfor-
scher – 2006 war, dass die Rolle der Festplatte übernommen wird durch den Hauptspeicher.
Aber es muss/darf nie unerwähnt gelassen werden, dass eine Hauptspeicherdatenbank
die Daten nicht verliert, wenn der Strom ausfällt. Natürlich werden alle Daten – parallel auf
einer Festplatte geloggt. Die Festplatte wird nur im Fehlerfall für den Recovery-Prozess be-
nötigt. Deswegen entsprechen die Konzepte der Ausfallsicherheit, Hochverfügbarkeit,
Desaster-Toleranz den früheren. Diese müssen jedoch robust implementiert werden. Das ist
aus meiner Sicht eine Art Fleißaufgabe. Es ist sehr gut verstanden, was die Probleme sind
und was zu tun ist.

Wie würden Sie den aktuellen Fortschrittsgrad der Technologie beurteilen?
Wir sind noch am Anfang. Wir reden heute noch ausschließlich von strukturierten
Daten. Aber was ist mit unstrukturierten Daten? Was ist mit Text-, Video- und Voice-
daten? Darüber haben wir noch gar nicht gesprochen. Das ist ein immenses Poten-
zial. Aber jetzt beginnen wir, den Technik-Layer der Software so zu bauen, dass dieser
besser zum Softwarefortschritt passt. Denn die Software hängt der Hardware schon
seit Jahrzehnten immer hinterher. Dann haben wir noch nicht über die Anwendungen
gesprochen. Jetzt haben wir einen neuen Data-Layer mit neuen Stärken und mit
mehr Power, aber alte Anwendungssoftware, die teilweise gar nicht mehr genutzt
werden kann. Da gibt es auch noch Potenziale, um Software zu verbessern, die heute
eben noch immer im Batch läuft. Natürlich gibt es auch Grenzen. Irgendwann wird der
Performance Standard des Hauptspeichers Commodity werden. Dann wird – ähnlich
wie damals bei Festplatten – In-Memory-Technologie Standard sein. Man wird sich
schnell daran gewöhnen. Dann kommt man an diese Grenze und muss schauen,
was die Performance noch erhöht. Es zeichnet sich jetzt schon ab, dass man die Daten
ganz nahe an den CPUs halten möchte.

Sehen Sie In-Memory-Technologie als die zukunftsrelevante Technik für leistungsstarke Anwendungen?
Es gibt keine Zukunftstechnik, die proprietär ist. Weder ist die spaltenorientierte
Ablage noch das In-Memory oder die Verteilung, ein Geheimnis. Im Prinzip kann das
theoretisch jeder implementieren. Aber die Veränderung ist nicht zu unterschätzen.
Wenn ich seit 40 Jahren relationale Datenbanken baue und damit sehr viel Geld ver-
dient habe, ist es nicht unbedingt einfach, eine disruptive Technologie parallel erfolg-
reich einzuführen. Bei SAP sieht man das mit dem Thema ERP. Das ist das berüchtigte
„Innovators Dilemma“.

Gemäß Hype Cycle sind wir aus meiner Sicht schon über den Scheitelpunkt hinweg.
Ich glaube, dass In-Memory-Computing als Technologie nicht mehr reversibel ist. Die Fra-
ge ist, auf welchem Niveau es sich letztendlich abspielt, d. h. wo die Technologie wirk-
lich produktiv eingesetzt wird. Das bleibt noch abzuwarten. Der Durchdringungs-
grad dieser Technologie ist weit mehr als ein Trend.