Wie ich lernte, den Glauben zu verlieren

Die Effizienzmarkthypothese klang für mich zunächst wie eine Offenbarung. Mit der Zeit zeigte sich jedoch, dass ich ein blinder Jünger gewesen war. Die Entwicklungsgeschichte eines kritischen Investors. 

Samuel Lee 03.01.2014
Facebook Twitter LinkedIn

Als ich meine Karriere als Anleger startete, packte mich schnell das Fieber des passiven Investierens. Die Effizienzmarkthypothese klang wie eine göttliche Offenbarung in meinen Ohren. Sie war elegant – fast schön – und mit einer beeindruckenden Riege von Autoritäten gesegnet. Die University of Chicago war meine Kirche, Eugene Fama mein Hohepriester, und Jack Bogle ein Heiliger. (Er ist es natürlich immer noch.) 

Ich würde gerne glauben, ich sei kein blinder Jünger gewesen. Ich hatte schließlich auf die Daten geschaut und den Experten zugehört. Soweit ich es beurteilen konnte, gab es einen Konsens: Besser als die Märkte zu sein ist unmöglich. Und daraus ergab sich logisch: Aktives Management ist eine Sünde.

Das Momentum fordert die Verfechter der Effizienzmarkthypothese heraus

Die größte Herausforderung meines Glaubenssystems war die Entdeckung des Momentums – genauer gesagt, die Erkenntnis, wie bestimmte Leute darauf reagierten. Jeder räumte ein, dass es existierte. Allerdings hatten die eingefleischten Verfechter der effizienten Märkte verblüffende Erklärungen: Es war ein Geheimnis, vielleicht verbunden mit einer Art verstecktem „Risikofaktor“, eine statistische Illusion, oder nicht möglich nach Gebühren und Steuern zu nutzen. Einige zuckten nur mit den Schultern.

Das Momentum hat seinen Ursprung offenkundig in der Verhaltenspsychologie. Es wird  möglich gemacht durch den irrationalen Überschwang oder den Pessimismus. Keine andere Erklärung ist sinnvoll. Und Momentum ist als Strategie investierbar, da der Effekt so stark und so weit verbreitet ist, dass er selbst in den liquidesten Märkten, also auch bei, sagen wir, US-Standardwerten, auftritt. Der Effekt ist ein Dolch in das Herz der Effizienzmarkthypothese. Schließlich kann der künftige Preis eines Kapitalguts nicht aus der Betrachtung der Vergangenheitspreise heraus prognostiziert werden. Oder etwa doch? Bewegen sich die Preise doch nicht nach rein zufälligen Mustern? Unglaublich, aber wahr: Die Wissenschaft hat die Existenz des Momentums bis 1993 völlig übersehen. Ihre statistischen Tests waren so schlecht aufgesetzt, dass man ihnen nicht entnehmen konnte, was heute anerkanntermaßen die mächtigste, allgegenwärtige Anomalie in den Märkten darstellt.

Die Wissenschaft hat die Existenz des Momentums bis 1993 völlig übersehen. Ihre statistischen Tests waren so schlecht aufgesetzt, dass sie der allgegenwärtigen Anomalie in den Märkten nicht auf die Spur kam.

Ich fing an, die Annahmen in den Studien, die ich für das Evangelium gehalten hatte, zu hinterfragen, nachdem auch die angesehensten Finanzzeitschriften im Nachhinein versuchten, die Technologieblase der späten 1990er-Jahre als eine rationale Reaktion des Marktes mit Modellen zu erklären. Man muss offenbar viel lernen, um so falsch zu liegen! Als es mir wie Schuppen von den Augen fiel, musste ich schon bald feststellen, dass das kein Einzelfall war. Die Effizienzmarkthypothese ebnet Wissenschaftlern den Weg zur Veröffentlichung, egal wie sehr ihre Linse das Bild der Wirklichkeit verzerrt. Es erinnerte mich an eine andere Form des kollektiven Wahns, der noch heute Teile der Wissenschaft unterwandert hat: die Idee des Menschen als unbeschriebenes Blatt und das Kleinreden der Rolle der Vererbung als Erklärung für, na ja, alles und nichts. (Steven Pinkers „The Blank Slate“ ist eine großartige Abhandlung dazu.)

Wie ich die Sache sehe, nachdem ich mich mit der wissenschaftlichen Literatur – und was all die smarten Jungs glaubten herausgefunden zu haben – befasst habe, gab es zumindest seit den 1980er Jahren eigentlich nie einen akademischen Konsens. Während Eugene Fama und Kenneth French mit Studien zu effizienten Märkten reüssierten, hielten Wissenschaftler wie Andrei Shleifer, Larry Summers, Richard Thaler und Robert Shiller mit ihren Verhaltenserklärungen dagegen. Einer der heißesten Streitpunkte war der „Value-Effekt“, also die Tendenz, dass Aktien mit niedrigem Bewertungsniveau bessere Renditen erzielen als hoch bewertete Aktien. Fama und French vertraten die These, dass Value-Aktien riskanter als Wachstumsaktien seien. Shleifer, Robert Vishny und Josef Lakonishok vertraten die Ansicht, dass Anleger schlechte Ergebnisse bei Value-Aktien und gute Ergebnisse bei Wachstumsaktien so weit verallgemeinern würden, dass daraus Fehlbewertungen erwüchsen. 1

Die Effizienzmarkthypothese ebnet Wissenschaftlern den Weg zur Veröffentlichung, egal wie sehr ihre Linse das Bild der Wirklichkeit verzerrt. 

Als ich weiter stocherte, entdeckte ich, dass viele von der Effizienzmarkthypothese -inspirierten Erkenntnisse in erschreckendem Maße an Zombies erinnerten: Sie waren tot und mussten dennoch partout immer wieder auferstehen. Haben Sie schon mal was vom Capital Asset Pricing Model (CAPM) gehört? Es ist ein vollkommen unrealistisches Modell, das beweisen soll, dass das Marktportfolio „Mittelwert-Varianz-effizient“ ist, was bedeutet, dass es unmöglich ist, ein Portfolio mit einer besseren volatilitätsbereinigten Rendite zu finden. Das CAPM sagt auch, dass die erwartete Rendite eines Vermögenswerts nur durch einen Faktor bestimmt wird: wie eng seine Erträge zusammen mit dem Beta des Marktportfolios laufen. Viele Analysten verwenden bis heute das Beta, um die erwartete Rendite einer Aktie zu schätzen, oder auch die Eigenkapitalkosten – ganz ungeachtet der Tatsache, dass das nicht funktioniert. Denn tatsächlich sagt ein hohes CAPM-Beta niedrige zukünftige Renditen voraus und umgekehrt, ein Phänomen, das als „Niedrige-Volatilität-Anomalie“ bekannt geworden ist. In der Realität dreht sich die Wissenschaft des Investierens eben nicht nur um effiziente Märkte – im Gegenteil: sie ist sogar weit davon entfernt!

Schlechte Ideen und falsche Anreize in der Wissenschaft

Ich lerne langsam. Es dauerte eine Weile, bis ich begriff, dass die Komplexität einer Studie wenig mit ihrem praktischen Wert zu tun hat. Ich kam dahinter, als ich die Arbeit von John Ioannidis zu lesen begann, ein Arzt, der zufällig auch ein Mathegenie war. Ioannidis veröffentlichte 2005 eine einflussreiche Studie, in der er die Behauptung aufstellte, dass die meisten veröffentlichten Studien-Ergebnisse schlicht falsch sind.2

Sie werden dieses Phänomen aus erster Hand erfahren haben, wenn Sie die täglichen Schlagzeilen der Nachrichten verfolgen: Man muss den Eindruck gewinnen, als hätten Forscher bereits wiederholt Heilmittel für Krebs, Aids, den Alterungsprozess oder Übergewicht entdeckt. Die Argumentation von Ioannidis ist nachvollziehbar. Publikationen neigen dazu, positive Ergebnisse hervorzuheben (zum Beispiel „Heilmittel X heilt Krebs bei Mäusen“ – wow!) und ignorieren negative Ergebnisse („Heilmittel X bewirkt, äh, nichts bei Mäusen“ – langweilig!). In der Realität sind die interessantesten Ergebnisse die, die durch pures Glück oder Fehler zustande kommen.

Die Art und Weise, wie Forscher Daten sammeln und interpretieren, gibt ihnen viel Spielraum. Kleine Kniffe können ein nicht publizierbares negatives Ergebnis in eine statistisch signifikante „Entdeckung“ verwandeln. Daher kommen all die aufregenden ersten Erkenntnisse zustande, die zu nichts führen. Ioannidis’ provokante Schlussfolgerung: „Forschungsergebnisse gießen oft nur zielgenau die vorgefassten Erwartungen in konkrete Zahlen.“

Forschungsergebnisse gießen oft nur zielgenau die vorgefassten Erwartungen in konkrete Zahlen.

Ioannidis nahm sich in einem anderen Papier die am häufigsten zitierten klinischen Studien vor, denen wiederum breiter oder besser angelegte Studien folgten.3 Fünf der sechs nicht zufallsgesteuerten Studien und neun der 39 randomisierten kontrollierten Studien wurden widerlegt oder in ihren Ergebnissen abgeschwächt. Und es waren keine schlechten Studien. Es waren Veröffentlichungen von Topforschern, die mit den fortschrittlichsten  Methoden arbeiteten.

Auch Bayer und Amgen konnten viele Studienergebnisse nicht reproduzieren

Nachfolgende Untersuchungen stehen im Einklang mit Ioannidis’ Argument. Das Pharmaunternehmen Bayer konnte die Ergebnisse von etwa zwei Drittel der 67 Studien nicht replizieren, die sie überprüfte.4 Amgen konnte die Ergebnisse von mehr als 90 Prozent der 53 viel versprechenden Artikel in der Krebsforschung nicht reproduzieren.5 Und wir reden hier von der biomedizinischen Wissenschaft, wo die Methoden streng und wo Studien, wenn sie einflussreich oder interessant genug sind, durch finanzstarke Pharmariesen oder durch Akademiker, die sich einen Namen machen wollen, repliziert werden. Wenn es ein Gebiet gibt, in dem Forscher einen Anreiz haben, alles richtig zu machen, ist es dieses. Und doch sind die Ausfallraten erstaunlich.

Ich vermute, dass es bei Wirtschafts-und Finanzstudien noch schlimmer läuft. Es gibt zwei Möglichkeiten, eine wirtschaftliche oder finanzwissenschaftliche Theorie zu bestätigen: 100 Jahre warten und fortlaufend neue Daten sammeln oder auf einen frischen, neuen Datensatz schauen, der aus einem anderen Zeitraum oder aus einem anderen Markt stammt. Schließlich kann es Jahrzehnte dauern, bis man für eine unsinnige Theorie verantwortlich gemacht wird! Hinzu kommt, dass es einfach ist, viele verschiedene „Experimente“ auf Basis der historischen Daten laufen zu lassen. Eine Änderung im Programmiercode und schon können Sie Ihre Aussagen belegen, und niemand kann sagen, wie viele Versuche Sie ausgeführt haben. (Natürlich ist das eine sehr verwerfliche Vorgehensweise, eine Sünde in der empirischen Wissenschaft, aber vermutlich doch sehr weit verbreitet.)

Meine Konsequenz aus diesen Beobachtungen: Ich habe gelernt, von einer einzigen Studie oder sogar einer Reihe von Studien nicht übermäßig beeindruckt zu sein, egal, wie glaubwürdig die Autoren sind. Daten können so lange gefoltert werden, bis sie alles gestehen. Sie müssen eine gute Portion gesunden Menschenverstand anwenden – umso mehr, je verwegener die gemachten Aussagen sind. Eine neue Theorie muss durch viele unabhängige Quellen von Daten, idealerweise Daten, die der Urheber der Theorie noch nie gesehen hat, gesichert werden und Sie als Investor müssen alle Annahmen genau untersuchen, die gemacht werden.

Ich habe gelernt, von einer einzigen Studie oder sogar einer Reihe von Studien nicht übermäßig beeindruckt zu sein, egal, wie glaubwürdig die Autoren sind.

Die besten Modelle oder Theorien sind diejenigen, die mit den wenigsten und schwächsten Annahmen bisher unveröffentlichte Daten am besten vorhersagen. Der Lackmustest, ob Sie die Wahrheit erwischt haben, lautet: Können Sie sich darauf verlassen, um in Zukunft damit zu arbeiten? Wenn nicht, ist das Modell nutzlos. Eine (ge)schön(t)e Geschichte, nicht mehr. Risikomanager Aaron Brown wendet ein, dass viele Finanzwissenschaftler niemals bereit wären, Geld auf ihre geheimnisvollen Modelle zu wetten. Solche Modelle sind auf die Veröffentlichung in Journalen optimiert, um zu zeigen, wie schlau die Verfasser sind. Sie sind nicht optimiert, um etwas Wahres über die Welt zu sagen und Schlussfolgerungen für die Praxis zu liefern.

Die Argumente, die in der Hochfinanzwelt ausgetauscht werden, sind oft nicht von dieser Welt. Betrachten Sie das Rätsel der US-Closed-end-Fonds: Warum kaufen einige Investoren zur Emission Anteile an diesen geschlossenen Fonds mit großem Aufschlag auf den inneren Wert, ungeachtet der traurigen Realität, dass die Prämie fast immer innerhalb von ein paar Monaten in einer Rabattschlacht zusammenbricht? Prominente Forscher haben Artikel mit Modellen und unterstützenden Daten veröffentlicht, die zeigen, warum ein solches Verhalten rational ist. Der gesunde Menschenverstand könnte indes die Erkenntnis zutage fördern, dass  Börsengänge naiven Investoren aufgedrängt werden. Sofern Sie nicht eine Überdosis an Mathematik genommen haben, sollte klar sein, welcher der beiden Erklärungsansätze der richtige ist!

Lesen Sie hier Teil zwei der Kritik an der Effizienzmarkthypothese. Es erwartet Sie ein Duell zwischen Fama-French und Buffett.

Anmerkungen

1 Josef Lakonishok, Andrei Shleifer, and Robert W. Vishny. „Contrarian Investment, Extrapolation, and Risk.” The Journal of Finance, 1994.

2 John P. A. Ioannidis. „Why Most Published Research Findings Are False.” PLOSMedicine, 2005.

3 John P. A. Ioannidis. „Contradicted and Initially Stronger Effects in Highly Cited Clinical Research.” The Journal of the American Medical Association, 2005.

4 Florian Prinz, Thomas Schlange, and Khusru Asadullah. „Believe It or Not: How Much Can We Rely on Published Data on Potential Drug Targets?” Nature Reviews Drug Discovery, September 2011.

5 C. Glenn Begley and Lee M. Ellis. „Drug Development: Raise Standards for Preclinical Cancer Research.” Nature, 2012. 

Facebook Twitter LinkedIn

Über den Autor

Samuel Lee  Samuel Lee is an ETF Analyst with Morningstar.