25 Jahre IPO


Rausch oder Ratio?

Prof. Dr. Peter Gomber

Finanzmärkte lieben Geschwindigkeit. Doch wann ist sie notwendiges Werkzeug – und wann irrationaler Rausch?

Finanzgeschäft ist Informationsgeschäft. Daher ist der Einsatz von Technologien, die eine schnelle Informationsübermittlung und -verarbeitung möglich machen, so alt wie die Finanzmärkte selbst. Schon 1850 gelang es Paul Julius Reuter, mit Telegraphen und Tauben Nachrichten und Börsenkurse schneller zwischen Paris und Berlin zu übermitteln als seine Wettbewerber. Damit bereitete er den Weg für eine der größten Nachrichtenagenturen der Welt.

Solche technologischen Fortschritte haben den Wertpapierhandel immer weiter beschleunigt und lebhafte Debatten ausgelöst: Welche Chancen entstehen durch die neuen Höchstgeschwindigkeiten – und welche Risiken bergen sie? Wer profitiert von ihnen – und für wen werden sie zur Gefahr? Es geht um die Frage, wie die permanente Beschleunigung das Wesen des Marktes verändert und formt.

Der Aufstieg elektronischer Handelssysteme

Jede bedeutende Innovation in der Computer- und Telekommunikationsindustrie hat unmittelbar auch die Informationsübermittlung auf Finanzmärkten geprägt: Zunächst haben Telegraph und dann das Telefon die sofortige Übermittlung von Kursen zwischen verteilten Märkten und damit Arbitrage ermöglicht. Anfang des 20. Jahrhunderts wurde mit elektrifizierten Aktientickern und der Standardisierung von Ticker-Symbolen die kontinuierliche, maschinenlesbare Echtzeitverteilung von Kursen möglich. Schließlich hat die internationale Satellitenkommunikation zu Arbitragemöglichkeiten zwischen Zeitzonen und zur Entstehung von Eurodollar- und Derivatemärkten beigetragen. Im Jahr 1971 ging die NASDAQ live, an der Kurse für 2.500 außerbörsliche Wertpapiere angezeigt wurden. In London wurde 1986 mit SEAQ ein ähnliches System eingeführt. Sowohl die NASDAQ als auch SEAQ waren noch reine Quotierungssysteme, die die Basis für telefonische Preisverhandlungen darstellten, aber noch keine elektronische Zusammenführung von Wertpapieraufträgen umsetzten.

Über diese Innovationen in der Informationsübermittlung hinaus war die Einführung elektronischer Handelssysteme der entscheidende Schritt für die heutigen Finanzmärkte. Börsenbetreiber, die früh das Potenzial dieser Systeme erkannten, profitierten besonders. Sie sahen den Vorteil des Übergangs vom menschlichen Handel mit wenigen privilegierten Teilnehmern hin zu elektronischen, offenen Orderbüchern. So konnten sie erhebliche Wettbewerbsvorteile erzielen. Zu diesen Vorreitern gehörte nicht zuletzt die Deutsche Börse Group.

In Deutschland starteten 1989 das System IBIS, 1990 die Deutsche Terminbörse und 1997 dann Xetra. Im Gegensatz zu IBIS – bei dem das Ordermatching noch nicht elektronisch erfolgte, sondern durch die explizite Auswahl einer Offerte per Tastendruck – stellt Xetra, ebenso wie die DTB als Vorgängerin der Eurex, ein vollelektronisches Handelssystem dar, das zueinanderpassende Orders automatisiert gegeneinander ausführt. Kernelement eines elektronischen Handelssystems sind zentrale, offene Limitorderbücher, die eine transparente, anonyme und kostengünstige Lösung für die Aggregation und Speicherung offener Limit-Aufträge sowie für die Abstimmung ausführbarer Aufträge über Matching-Algorithmen in Echtzeit bieten. Seit Anfang der 1990er Jahre wurden entsprechend viele der großen Wertpapierbörsen auf beiden Seiten des Atlantiks vollständig elektronisiert. Der physische Handel auf dem Parkett wurde zunehmend überflüssig und der DAX im Juni 1999 erstmals ausschließlich auf Basis von Xetra-Preisen berechnet. Zum Zeitpunkt des IPOs der Deutsche Börse Group am 5. Februar 2001 wurde bereits auf der vierten Xetra Version (Release 4) gehandelt.   

Die Elektronisierung der Marktplätze und Börsen löste eine Vielzahl von technologischen Veränderungen und Innovationen auf Seiten der Marktteilnehmer aus: 

Auf der Sell-Side, also bei den Banken und Brokern, wurden Systeme eingeführt, die als automatisierte Preisbeobachtungsmechanismen (Electronic Eyes) zur Überwachung der Über- oder Unterschreitung von Kursen dienen, oder als automatisierte Quote Machines, die auf Grundlage vorab festgelegter Parameter Geld- und Brieforders generieren und damit Market Maker und Liquiditätsanbieter unterstützen. Auch begannen Händler auf der Buy-Side, also bei institutionellen Investoren und insbesondere bei den großen Assetmanagern, mit der Einrichtung elektronischer Handelsdesks. Die Einführung des Financial Information eXchange (FIX)-Protokolls ermöglichte eine weltweit einheitliche elektronische Übermittlung von handelsbezogenen Nachrichten und wurde zum De-facto-Standard für die Kommunikation zwischen Buy-Side, Sell-Side und den Marktplätzen vor und während des Handels. 

Immer schneller – immer volatiler?

In den frühen 2000ern implementierte die Sell-Side die ersten Handelsalgorithmen, also Software, die Echtzeit-Marktdaten und historische Daten kombiniert, um auf Basis quantitativer Modelle ihre eigenen Handelsstrategien ohne menschlichen Eingriff umzusetzen – effizient, schneller und kostengünstiger. Als Broker erkannten, dass von diesen Fortschritten institutionelle Kunden wie Assetmanager profitieren können, begannen sie, algorithmisches Trading als Dienstleistung auch für die Buy Side anzubieten, um deren (in der Regel große) Orders intelligent über die Zeit und über fragmentierte Märkte zu verteilen. 

Ab etwa 2006 begann die Sell-Side, Colocation- und Proximity-Dienste der Börsen zu nutzen, etwa für den Handel auf Xetra und Eurex. Das Ziel war, ihren eigenen Bedarf und den Bedarf ihrer Buy-Side-Kunden nach geringsten Übertragungslatenzen zwischen Ordererteilung und Orderankunft bzw. -ausführung zu decken. Colocation bezeichnet dabei die Platzierung eigener Handelsalgorithmen in die Rechenzentren der Börsen. Proximity bezieht sich auf die Nutzung von Rechenzentren möglichst nahe der Börse. Der Begriff „Hochfrequenzhandel“ tauchte auf, wurde aber zunächst primär in Fachkreisen diskutiert. Im Hochfrequenzhandel versuchen Marktteilnehmer (High Frequency Trader; HFT) im Eigenhandel mit hoher Geschwindigkeit geringe Margen pro Trade, aber aggregiert hohe Handelserlöse zu erzielen. Ein bedeutendes Ereignis in der Entwicklung des Wertpapierhandels war der sogenannte „Flash Crash“ in den USA. Im Mai 2010 verlor der Dow Jones Industrial Average innerhalb von Minuten fast zehn  Prozent an Marktkapitalisierung, erholte sich aber schnell. Einzelne Wertpiere hatten dramatische Kursschwankungen. Der „Flash Crash“ verschärfte die öffentliche und regulatorische Diskussion über die Vorteile und insbesondere die Nachteile von Handelstechnologien deutlich.

Vielen Beobachtern und der breiten Öffentlichkeit erscheint Wertpapierhandel in Bereichen von Milli-, Mikro- oder gar Nanosekunden als Gefahr für die Stabilität der Finanzmärkte und als systematischer Nachteil aller Privatinvestoren und Nicht-HFTs. Dabei ist aber sehr genau zwischen den verschiedenen Strategien im Hochfrequenzhandel zu unterscheiden.
Wer greift nach dem Geldschein?

Eine der gängigsten HFT-basierten Strategien besteht darin, als Liquiditätsanbieter zu agieren. HFT-Liquiditätsanbieter versorgen die Märkte mit Liquidität und verdienen an der Spanne zwischen Geld- und Briefkursen. Für diese HFT-Strategien  ist Geschwindigkeit ein zentrales Werkzeug zum Risikomanagement: Ein Quote eines HFT-Liquiditätsanbieters ist für die anderen Marktteilnehmern eine kostenlose Option, dieses Liquiditätsangebot zum Beispiel bei Änderungen der geopolitischen, makroökonomischen oder unternehmensspezifischen Nachrichtenlage sofort zu Lasten des HFT-Liquiditätsanbieters zu nutzen.

Man kann dieses Prinzip mit einem Geldschein vergleichen, den jemand – in diesem Fall der Liquiditätsanbieter – auf einem vollen Marktplatz für alle sichtbar liegen lässt. Solange er seine Hand direkt am Geldschein hat, also schnell reagieren kann, ist sein Risiko gering. Entfernt er sich jedoch ein Stück, steigt das Risiko, dass jemand anderes schneller zugreift und das Geld nimmt.

Bei höherer eigener Geschwindigkeit sinkt also das Risiko der Liquiditätsanbieter, Verluste zu erleiden. Damit steigt die Bereitschaft dieser HFTs, überhaupt Liquidität mit engen Geld- Brief-Spannen und hohen Volumina anzubieten. Von diesem Liquiditätsangebot profitieren wiederum auch Retailinvestoren und institutionelle Anleger durch enge Spreads und hohe handelbare Volumina im Orderbuch und somit geringen Transaktionskosten im Handel.

Wer könnte nach diesem Geldschein greifen? Andere Marktteilnehmer versuchen mit sogenannten Latency-Arbitrage-Strategien neue (öffentliche) Informationen schnellstmöglich zu nutzen, um bei der Veränderung von Marktbewertungen sofort zu reagieren und den Quote des  Liquiditätsanbieters mit Profit auszuführen, bevor dieser selbst auf die Nachricht mit einer Quote-Anpassung reagieren kann. Sie wollen also – um im Bild zu bleiben – nach dem Geldschein greifen, bevor derjenige, der diesen sichtbar auf den öffentlichen Platz gelegt hat, selbst reagieren kann.

Der Marktplatzbetreiber kann dabei dem Liquiditätsanbieter helfen: Wenn für denjenigen, der nach dem Geld greift (also den Quote ausführen will), eine kleine Geschwindigkeitsbegrenzung eingebaut wird, bekommt der Liquiditätsanbieter bei neuen Informationen genug Zeit, selbst zu reagieren. So kann der Liquiditätsanbieter entscheiden, ob er den Geldschein (seinen Quote) auf dem Marktplatz liegen lassen oder zurückziehen will. Genau solche Bremsschwellen wurden in den letzten Jahren von verschiedenen Marktplätzen implementiert, etwa als „speed bumps“ von der TSX (Kanada) oder der IEX (USA) und in Form einer „Passive Liquidity Protection“ auch von der Eurex, um die Liquidität in Form engerer Geld-/Briefspannen für alle Marktteilnehmer zu erhöhen.

Risikomanagement oder Marktmissbrauch?

Eine weitere weit verbreitete HFT-Strategie ist Arbitrage. Hier werden Erlöse aus Preisunterschieden und Marktungleichgewichten erzielt, etwa im Handel des gleichen Wertpapiers auf verschiedenen Märkten oder zwischen Derivaten oder ETFs und ihren Underlyings. Diese Strategien funktionieren nur für Algorithmen, die das vorliegende Marktungleichgewicht sofort erkennen und Orders in hoher Geschwindigkeit bei den jeweiligen Marktplätzen beziehungsweise in den jeweiligen Wertpapieren platzieren können. Auch hier ist Geschwindigkeit ein Werkzeug zum Risikomanagement, da so vermieden werden kann, dass möglicherweise nur eine Order der Arbitragetransaktion ausgeführt wird. Für institutionelle und Retailinvestoren erhöht diese Arbitrage wiederum die Synchronisierung und Effizienz der Preisbildung. Sie ermöglicht aufgrund der weitgehend angeglichenen Preisniveaus gute Ausführungsbedingungen auf verschiedenen Marktplätzen, ohne dass diese technisch oder regulatorisch verknüpft werden müssen.

Ohne Zweifel gibt es aber auch viele Strategien, bei denen Geschwindigkeit dazu dient, die Handelsabsichten anderer Marktteilnehmer zu identifizieren und selbst auszunutzen, Marktplätze mit Fake Orders zu fluten oder ein falsches Bild der Angebots- und Nachfragesituation zu generieren,  um Vorteile für die eigene Strategie zu erzielen. Dies ist kein Risikomanagement, sondern Marktmissbrauch. Solche Strategien sind explizit durch die europäische Marktmissbrauchsverordnung und deren nationale Umsetzungen verboten und müssen von den Aufsichtsbehörden wirksam bekämpft und sanktioniert werden.

Hochfrequenzhandel nutzt die neuesten technologischen Fortschritte in den Bereichen Marktzugang, Marktdatenverfügbarkeit und Orderweiterleitung, um die Renditen etablierter Handelsstrategien zu maximieren. Hochfrequenzhandel ist also ein technisches Mittel zur Umsetzung etablierter Handelsstrategien. Daher sollten sich die Diskussionen und die Bewertungen rund um den Hochfrequenzhandel primär auf die zugrunde liegenden Strategien konzentrieren und die Effekte dieser Strategien auf Preiseffizienz, Marktqualität und Marktliquidität für alle Marktteilnehmer im Blick behalten. Für viele dieser Strategien ist die intelligente Nutzung neuer Technologien und der Wettbewerb um Geschwindigkeit kein Selbstzweck, sondern ein zentrales und notwendiges Werkzeug im Risikomanagement. 

Prof. Dr. Peter Gomber ist Professor für e-Finance an der Universität Frankfurt und Co-Chair des efl – the Data Science Institute. Er ist Mitglied des Börsenrats der FWB, des Aufsichtsrats der Clearstream Europe AG sowie Research Fellow am Leibniz-Institut SAFE. Seine Forschungsschwerpunkte sind Marktmikrostruktur, Digital Finance/FinTech und elektronischer Wertpapierhandel.