Bibtex

@InCollection{,
  Year    = "2019", 
  Title    = "Online Transaction Processing", 
  Author    = "Unland, Prof. Dr. Rainer", 
  Booktitle    = "Gronau, Norbert ; Becker, Jörg ; Kliewer, Natalia ; Leimeister, Jan Marco ; Overhage, Sven (Herausgeber): Enzyklopädie der Wirtschaftsinformatik – Online-Lexikon",
  Publisher    = "Berlin : GITO",
  Url    = "https://wi-lex.de/index.php/lexikon/informations-daten-und-wissensmanagement/datenmanagement/datenbanksystem/online-transaction-processing/", 
  Note    = "[Online; Stand 21. November 2024]",
}

Online Transaction Processing

Rainer Unland


Online-Transaction-Processing (OLTP) befasst sich mit dem hocheffizienten und hochparallelen Online-Zugriff auf möglicherweise an unterschiedlichen Orten abgelegten Daten. Dabei stehen kurze Antwortzeiten, also ein hoher Durchsatz (Anzahl Transaktionen pro Zeiteinheit), und ho-he Konsistenz- und Sicherheitsanforderungen der oft massiv parallelen Anfragen im Vorder-grund.

Einführung und Definition

Daten stehen schon seit jeher im Zentrum der Datenverarbeitung. Der massenhafte parallele Zugriff auf Daten hat nicht zuletzt dank des Internet noch einmal deutlich an Bedeutung gewonnen. Damit stellte sich jedoch die Frage des sicheren und effizienten (Online-)Zugriffs auf beliebige Daten, insbesondere unter dem Aspekt von dauernden Datenänderungen und massiven Parallelzugriffen auf die Datenmengen. OLTP befasst sich mit dem massiv parallelen Onlinezugriff einer Vielzahl von Nutzern und Anwendungen auf einen Datenbestand und bringt damit die Anforderung mit sich, dass Resultate schnell zur Verfügung stehen müssen. Dies unterscheidet sie von Batch-Transaktionen, die ohne direkte Involvierung eines Benutzers Aufgaben auf einem Rechner erledigen und deshalb weniger zeitkritisch sind. Während also bei OLTP der zeitkritische Zugriff auf aktuelle Datenbestände im Vordergrund steht, widmet sich das Online Analytical Processing (OLAP) im Wesentlichen der intelligenten und zielgerichteten Aufbereitung und Auswertung von über einem längeren Zeitraum angesammelten Daten.

Bei typischen OLTP-Anwendungen geht man davon aus, dass die Interaktion zwischen dem System und der Anwendung sehr kurz, aber zeitkritisch ist, wobei häufig eine hohe Anzahl von Transaktionen parallel laufen. Diese Transaktionen stellen hohe Sicherheits- und Konsistenzanforderungen an das System, weshalb die sogenannten

ACID-Eigenschaften garantiert werden müssen (siehe Transaktion). Typische Anwendungen für OLTP sind Bezahlungen von Artikeln in Geschäften über Kreditkarten, die Nutzung von Geldautomaten oder aber die Buchung von Flügen oder Reisen über das Internet. Die wesentlichen Datenbankmanagementsystem-Anbieter unterstützen heutzutage Transaktionslasten von über 1000 Transaktionen pro Sekunde. Hierbei wird unterstellt, dass die Zugriffe auf

ein Datenbanksystem erfolgen. In Netzwerken, wo eine Vielzahl unterschiedlicher Anwendungen auf unterschiedliche Datenquellen zugreifen möchte, bedient man sich häufig einer Middleware, den sogenannten Transaction Processing Monitoren, um den reibungslosen und konsistenten Zugriff auf diese Daten zu ermöglichen.

Transaction Processing Monitor

TP-Monitore steuern und regulieren als Middleware den effizienten und fehlertoleranten Zugriff unterschiedlichster Anwendungen und Endgeräte auf eine Menge von unterschiedlichen Datenquellen (möglicherweise auch innerhalb einer Transaktion). Dabei konzentrieren sie sich nicht ausschließlich auf Online-Transaktionen, sondern unterstützen alle Arten von Transaktionen, also auch Batch-Transaktionen. Zu den vielfältigen Aufgaben, die sie abdecken, gehören insbesondere auch die folgenden:

  • Das Harmonisieren der unterschiedlichen Darstellung von Daten in dem Fall, dass die Datenquellen und die Anwendung auf unterschiedlicher Hardware mit unterschiedlichen Betriebssystemen laufen.

  • Die Steuerung und Überwachung des Zugriffes auf entfernt liegende Datenbestände.

  • Die Koordination von Zugriffen auf verschiedene Datenbestände – z.B. über das Zwei-phasen-Freigabeprotokoll -, falls die Daten aus mehreren Quellen bezogen werden müssen.

  • Die Steuerung und Überwachung der Last beim Zugriff auf Datenbestände inklusive der Durchsetzung von möglichen Vorrangregeln.

  • Die Überwachung und Ausführung von Aufgaben, die logisch oberhalb einer einzelnen Transaktion liegen. Hierunter fällt beispielsweise die kontrollierte Ausführung einer Folge von Transaktionen, wobei möglicherweise nicht alle Transaktionen auf derselben DB auszuführen sind.

  • Die Behandlung von Fehlern, die aufgetreten sind, nachdem die Daten den Arbeits- bzw. Kontrollbereich des DBMS verlassen haben, also von diesem nicht bemerkt und damit nicht mehr behandelt werden können. Darunter fällt z.B. die sichere, d.h. garantierte und korrekte Übertragung von Ergebnissen auf den Bildschirm der Anwendung.

Damit wird auch deutlich, warum TP-Monitore in der DV-Landschaft vieler Unternehmen eine herausragende Rolle spielen. Sie verbergen einerseits Heterogenität, gleich welcher Art, und garantieren andererseits eine hohe Fehlertoleranz oberhalb von Datenbankmanagementsystemen. Dies vereinfacht die Implementierung von Anwendungen spürbar, da Probleme der Parallelität oberhalb eines Datenbanksystems, Kommunikationsprobleme, Verbindungsprobleme zwischen oder Ausfälle von Rechnern, heterogene Hardware und viele andere Probleme nicht mehr in der Anwendung selbst behandelt werden müssen.

Zu den bekanntesten kommerziell verfügbaren TP-Monitoren gehören ACMSxp von Digital, Customer Information Control System (CICS) von IBM, openUTM von Fujitsu Siemens Computers, Microsoft Transaction Server (MTS) von Microsoft und Tuxedo von BEA Systems.

 

Hier weiterverbreiten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert