Dr. Stefan SiggSigg studierte Mathematik und arbeitete nach seiner Promotion beiSAP zunächst in klassischen Anwendungsentwicklung. Heute ist erEntwicklungsleiter bei SAP für den Bereich „In-Memory-Plattform“.Das umfasst alle Gebiete, die die In-Memory-Technologie umspannt.Dazu gehören die In-Memory Datenbank HANA sowie Data Ware-housing mit dem Produkt Business Warehouse als auch der kom-plette Bereich Enterprise Search.
SAPSAP ist marktführender Anbieter von Unternehmenslösungen für Firmen aller Größen undBranchen. SAP steht für „Systeme, Anwendungen und Produkte in der Datenverarbei-tung“ und wurde 1972 gegründet. Seitdem steht der Branchenführer für innovative Ideenund starkes Wachstum. Aktuell verfügt SAP über Vertriebs- und Entwicklungsstandorte inmehr als 50 Ländern weltweit.
Wie würden Sie Ihren aktuellen Aufgabenbereich beschreiben?Als Entwicklungsleiter bei SAP bin ich für den Bereich „In-Memory-Plattform“ verant-wortlich. Das umfasst alle Gebiete, die die In-Memory-Technologie umspannt, nämlichIn-Memory Datenbank HANA sowie Data Warehousing mit unseren Produkt Business Wa-rehouse (BW) als auch der komplette Bereich Enterprise Search und noch einige kleinereEntwicklungsteams.Warum haben Sie sich für den Bereich, in dem Sie jetzt tätig sind, entschieden?Angefangen habe ich bei SAP in der klassischen Anwendungsentwicklung. Innerhalbdes Produktes R3 habe ich mehrere Jahre Software entwickelt. Als SAP ihre Produktpaletteerweiterte, kam 1998 das Business-Warehouse hinzu. Als Teil des Gründerteams manag-te ich erst Projekte, danach Teams und zum Schluss den Bereich „Business-Warehouse“.2003 haben wir den BW Accelerator auf Basis einer Suchengine entwickelt, die für vieleOperationen bereits den Hauptspeicher intensiv nutzte. Dieses Produkt kann als Vorgängerunserer HANA-Datenbank bezeichnet werden. Aus meiner Sicht gibt es in diesem Be-reich ein forderndes Spannungsfeld zwischen hohem Anspruch an die Technologie als auchdas ständige Ziel, etwas zu entwickeln, das Kunden auch nutzen können. Die Technologieist technisch als auch theoretisch sehr herausfordernd, aber für mich ist es immer sehr in-teressant, daraus ein Produkt zu formen, das unsere Kunden einsetzen können.Was motiviert Sie am meisten bei Ihrer Arbeit?Das sind vor allem drei Themen. Zunächst finde ich die Schnittstelle zwischen Technologieund Anwendung fachlich sehr interessant. Das zweite sind meine Mitarbeiter. Für einen Ma-nager ist es wichtig, motivierte Mitarbeiter zu haben. Und das dritte, vielleicht wichtigste The-ma ist Impact, den wir bei unseren Kunden erzielen. Zu sehen, wie die produzierte Softwareden Weg in die IT und Fachabteilungen unserer Kunden findet und dort einfach funktioniert.Im Gegensatz zu reiner Forschung haben wir eine tägliche Überprüfung unserer Arbeit.Wie kamen Sie mit In-Memory-Technologie in Kontakt?Ich glaube nicht daran, dass derartige innovative Themen dadurch geboren werden, dassman sich in ein stilles Kämmerlein zurück zieht, lange genug nachdenkt und dann mit einerIdee heraus geht. Wir sind im Umfeld des BW zur Einsicht gekommen, dass wir im BereichQuery Performance etwas machen müssen. Damals war das probate Mittel, durch Mate-rialisierung, Aggregate oder Summentabellen redundante kleinere Datenbestände aus dengroßen Datenbeständen heraus zu erzeugen und zu hoffen, eine bessere Performance zuerzielen. Wir sind halb durch Zufall, halb gewollt auf die bei SAP schon existierende SuchEngine TREX gestoßen. Wir haben entdeckt, dass in dieser Suchmaschine Potenzial liegt.Aus dieser Zusammenarbeit ist der Business Accelerater entstanden. Man kann es eineproprietäre Turbo Engine für das BW nennen, mit der alle Queries nicht mehr gegen die re-lationale Datenbank erfolgen. Daraufhin haben uns Vishal Sikka (CTO) und Hasso Platt-ner, dazu ermutigt, dies weiterzuverfolgen, um letztendlich eine komplette Datenbank zuentwickeln. Dieses System funktioniert jetzt wirklich so, dass ohne Aggregate Manage-ment oder Tunen jede Query noch schneller beantwortet werden konnte. Wir haben teil-weise Queries, die im Gegensatz zur normalen Datenbank 500 bis 600 Mal schneller sind.Das ist ein Quantensprung.Was waren die Gründe für die Weiterentwicklung der Technologie?Es war ein bidirektionaler Prozess. Diese Innovation ist selber aus uns und dem Hasso Platt-ner Institut herausgekommen, ausgelöst und getrieben durch Anforderungen von Kunden.Man sollte SAP HANA nicht so sehen, als ob es das letzte Jahr vom Himmel gefallen ist, son-dern es war und ist eine stringente Weiterentwicklung. Des Weiteren hat die Verfügbarkeitvon Hauptspeicher in Dimensionen, die vorher nur für die Festplatten denkbar waren, diesvorangetrieben. Ich spreche von Terabytes von Daten. Aber das alleine reicht aus meiner Sichtnicht aus. Wir reden über Big Data. Die Kombination aus Hauptspeicherorientiertheit, hochparallelisierten Algorithmen und spaltenorientierter Ablage ergeben die kritische Masse.In welchen Bereichen/Branchen ist die Technologie am effektivsten einsetzbar?Wir kommen mit der Technologie von der analytischen Seite. Da haben wir schon ein-drucksvoll bewiesen, wie leistungsstark diese Technologie ist. D. h. wir können heuteim BW oder nur mit SAP HANA analytische Szenarien sehr gut abhandeln. Der nächsteSchritt ist SAP HANA OLTP ready zu machen. Ende 2012 werden wir hier einen großenMeilenstein erreichen. Neben diesen Einsatzgebieten gibt es aber auch massives Potenzialaußerhalb der traditionellen SAP Umgebung. Z. B. wird sehr gerne von unseren Vorständender Einsatz im Bereich Genom-Analyse bzw. Humangenom-Analyse genannt. Dazu be-nötigt man leistungsstarke Rechner und eine schnelle Technologie. Und da sind wir ziem-lich weit vorne dabei, SAP HANA einzusetzen und eine Art „Decision Support“ nicht fürBusiness, sondern für Mediziner zu erstellen.Welche Stärken bzw. Schwächen hat Ihrer Meinung nach die Technologie?Ich glaube, dass es – perspektivisch gesehen – keine Nachteile geben wird. Die Nachteilesind heute begründet im noch jungen Reifegrad der Technologie. Ich habe eine neueTechnologie in einem hochkritischen Bereich. Es kann nicht erwartet werden, dass eine Soft-ware vom Tag Null an so robust ist, wie eine Technik, die schon 40 Jahre auf dem Markt ist.D. h. wir müssen den Weg der Reifegradgewinnung sehr schnell gehen. Uns ist bewusst,dass es nicht nur um die Leistungsfähigkeit von heute geht, sondern auch von morgenund übermorgen. Es wird sehr schnell machbar sein, auch sehr große Datenbestände imHauptspeicher zu halten. Die Vorhersage von Jim Gray – einer der großen Datenbankfor-scher – 2006 war, dass die Rolle der Festplatte übernommen wird durch den Hauptspeicher.Aber es muss/darf nie unerwähnt gelassen werden, dass eine Hauptspeicherdatenbankdie Daten nicht verliert, wenn der Strom ausfällt. Natürlich werden alle Daten – parallel aufeiner Festplatte geloggt. Die Festplatte wird nur im Fehlerfall für den Recovery-Prozess be-nötigt. Deswegen entsprechen die Konzepte der Ausfallsicherheit, Hochverfügbarkeit,Desaster-Toleranz den früheren. Diese müssen jedoch robust implementiert werden. Das istaus meiner Sicht eine Art Fleißaufgabe. Es ist sehr gut verstanden, was die Probleme sindund was zu tun ist.Wie würden Sie den aktuellen Fortschrittsgrad der Technologie beurteilen?Wir sind noch am Anfang. Wir reden heute noch ausschließlich von strukturiertenDaten. Aber was ist mit unstrukturierten Daten? Was ist mit Text-, Video- und Voice-daten? Darüber haben wir noch gar nicht gesprochen. Das ist ein immenses Poten-zial. Aber jetzt beginnen wir, den Technik-Layer der Software so zu bauen, dass dieserbesser zum Softwarefortschritt passt. Denn die Software hängt der Hardware schonseit Jahrzehnten immer hinterher. Dann haben wir noch nicht über die Anwendungengesprochen. Jetzt haben wir einen neuen Data-Layer mit neuen Stärken und mitmehr Power, aber alte Anwendungssoftware, die teilweise gar nicht mehr genutztwerden kann. Da gibt es auch noch Potenziale, um Software zu verbessern, die heuteeben noch immer im Batch läuft. Natürlich gibt es auch Grenzen. Irgendwann wird derPerformance Standard des Hauptspeichers Commodity werden. Dann wird – ähnlichwie damals bei Festplatten – In-Memory-Technologie Standard sein. Man wird sichschnell daran gewöhnen. Dann kommt man an diese Grenze und muss schauen,was die Performance noch erhöht. Es zeichnet sich jetzt schon ab, dass man die Datenganz nahe an den CPUs halten möchte.Sehen Sie In-Memory-Technologie als die zukunftsrelevante Technik für leistungsstarke Anwendungen?Es gibt keine Zukunftstechnik, die proprietär ist. Weder ist die spaltenorientierteAblage noch das In-Memory oder die Verteilung, ein Geheimnis. Im Prinzip kann dastheoretisch jeder implementieren. Aber die Veränderung ist nicht zu unterschätzen.Wenn ich seit 40 Jahren relationale Datenbanken baue und damit sehr viel Geld ver-dient habe, ist es nicht unbedingt einfach, eine disruptive Technologie parallel erfolg-reich einzuführen. Bei SAP sieht man das mit dem Thema ERP. Das ist das berüchtigte„Innovators Dilemma“.
Gemäß Hype Cycle sind wir aus meiner Sicht schon über den Scheitelpunkt hinweg.Ich glaube, dass In-Memory-Computing als Technologie nicht mehr reversibel ist. Die Fra-ge ist, auf welchem Niveau es sich letztendlich abspielt, d. h. wo die Technologie wirk-lich produktiv eingesetzt wird. Das bleibt noch abzuwarten. Der Durchdringungs-grad dieser Technologie ist weit mehr als ein Trend.