ABBILDUNGS- UND TABELLENVERZEICHNIS

1.1 Aktienkurse und Unternehmensgewinne in den USA 1871 bis 2014

1.2 Reale Aktienkurse in zehn Ländern und der Welt, Januar 1995 bis Juli 2014

1.3 Das zyklenbereinigte KGV (CAPE) und die Zinsen in den USA von 1881 bis 2014

2.1 Langfristige Zinsen und Inflation in den Vereinigten Staaten von 1871 bis 2014

2.2 Die Rendite inflationsindexierter Anleihen in vier Ländern von 1985 bis 2014

3.1 Häuserpreise, Baukosten, Bevölkerung und Zinsen in den Vereinigten Staaten, 1890 bis 2014

3.2 Die Häuserpreise in ausgewählten US-amerikanischen Städten, quartalsweise 1983 bis 2014

3.3 Häuserpreise in einigen Weltstädten und weltweit, quartalsweise 1985 bis 2014

5.1 Aktien als beste Anlage, 1996 bis 2014

5.2 Immobilien als beste Anlage, 2003 bis 2013

5.3 Die Meinung nach einem Börsencrash, 1996 bis 2014

5.4 Valuation Confidence Index, 1989 bis 2014

11.1 Das zyklusbereinigte KGV (CAPE) als Vorhersagefaktor für Renditen über zehn Jahre

11.2 Aktienkurse und aktueller Wert der Dividenden, 1871 bis 2013

A.1 Der reale S&P Composite Stock Price Index sowie zwei Zeitwerte der künftigen realen auf den Index anfallenden Dividenden bei konstantem Abzinsungssatz, 1871 bis 2013

A.2 Realer S&P Composite Stock Price Index und drei Zeitwerte der künftig auf den Index anfallenden Dividenden, 1871 bis 2013

A.3 Aktuelle Werte künftiger Änderungen der Dividenden im Vergleich zum Dividenden-Kurs-Verhältnis von 49 einzelnen US-Aktien, 1926 bis 1976

A.4 Zwei Indizes der US-Häuserpreise, geteilt durch den Verbraucherpreisindex CPI-U, 1987 bis 2013

Tabellenverzeichnis

8.1 Die größten realen Jahresanstiege von Aktienindizes in der jüngeren Vergangenheit

8.2 Die größten realen Jahresrückgänge von Aktienindizes in der jüngeren Vergangenheit

8.3 Die größten realen 5-Jahres-Anstiege von Aktienindizes in der jüngeren Vergangenheit

8.4 Die größten realen 5-Jahres-Rückgänge von Aktienindizes in der jüngeren Vergangenheit

ANHANG

Rede zur Verleihung des Alfred-Nobel-Gedächtnispreises für Wirtschaftswissenschaften: Spekulative Wertpapierpreise

Ich möchte diese Rede mit ein paar allgemeinen Gedanken zu den Determinanten der Preise langfristiger Anlagen beginnen, wie zum Beispiel von Aktienkursen oder Häuserpreisen: Was veranlasst diese Preise letzten Endes, sich von Zeit zu Zeit zu ändern, und wie können wir diese Änderungen interpretieren? Ich werde den Diskurs unserer Zunft über die Rolle betrachten, die Rationalität bei der Bildung solcher Preise spielt, den zunehmenden Trend zur Behavioral Finance beziehungsweise zur allgemeineren Verhaltensökonomie sowie die Tatsache, dass die Bedeutung alternativer psychologischer, soziologischer und epidemiologischer Faktoren für die Preisbildung zunehmend akzeptiert wird. Dabei befasse ich mich vor allem mit statistischen Methoden, mit deren Hilfe wir etwas über die Ursachen von Preisschwankungen am Aktien- und Immobilienmarkt erfahren können, sowie mit Belegen, die in den letzten Jahrzehnten zur Revolution der Behavioral Finance im Denken der Finanzwissenschaft geführt haben.

Dahinter steht die allgemeinere Absicht, die Verheißungen der Finanztechnologie zu beurteilen. In diesen Tagen ist viel populäre Skepsis gegenüber finanziellen Institutionen unterwegs, nachdem sich die Finanz- und Wirtschaftskrise seit den schlimmsten Tagen des Jahres 2008 immer noch hinzieht. Ich möchte lieber die allgemeinen Zukunftsperspektiven des Finanzwesens betrachten als mich auf die aktuellen Notmaßnahmen zu konzentrieren, mit denen Symptome unserer derzeitigen Wirtschaftskrise opportunistisch bekämpft werden. Der Diskurs über die Rationalität der Märkte ist das Vorspiel zum Diskurs über Finanztechnologie, denn er untermauert unsere Auffassung von den Möglichkeiten, die diese neue Technologie bietet.

Am Ende komme ich zu dem Schluss, dass die Märkte bereits so auf die menschlichen Faktoren ausgelegt sind, dass sie bemerkenswert gut funktionieren. Und wenn wir die Psychologie besser verstehen, die zu Blasen und zu den damit verbundenen Problemen führt, können wir weitere Innovationen erfinden, dank deren die Märkte noch besser funktionieren.

Preisschwankungen, rationale Erwartungen und Blasen

Die Ideengeschichte der Finanzmärkte weist einen überraschenden Mangel an Übereinstimmung hinsichtlich einer ganz grundlegenden Frage auf: Was verursacht letztlich die vielen Schwankungen der Preise spekulativer Vermögenswerte wie Unternehmensaktien, Rohstoffe oder Immobilien? Man sollte doch meinen, eine derart grundsätzliche Frage sei schon längst überzeugend beantwortet worden. Doch die Antwort auf diese Frage lässt sich gar nicht so leicht finden.1

Gleichzeitig hat sich in anderen Kreisen weitgehend die Vorstellung durchgesetzt, dass die Märkte erheblich von der Psychologie angetrieben werden. Richard Thaler und ich sind seit 1991 Direktoren des Behavioral-Economics-Programms des National Bureau of Economic Research. Im Rahmen dieses Programms wurden Hunderte von Forschungsartikeln veröffentlicht, die größtenteils der allgemeinen Wahrnehmung der Rationalität an den Finanzmärkten widersprechen.2

Der Begriff „Spekulationsblase“ wird oft leichtfertig benutzt. Zum ersten Mal wurde das Wort „Blase“ zur Zeit der Mississippi-Blase, die 1720 endete, an den europäischen Börsen populär. Diese Zeit wird zwar oft als verrückt bezeichnet, aber ob diese Periode mit ausufernder Irrationalität am besten beschrieben ist, ist nach wie vor umstritten; siehe Garber (2000) und Goetzmann et al. (2013). Ich würde sagen, eine Spekulationsblase ist eine spezielle Art von Modeerscheinung oder sozialer Epidemie, die an spekulativen Märkten regelmäßig auftritt: keine wilde Orgie der Wahnvorstellungen, sondern eine natürliche Folge sozialpsychologischer Prinzipien, gepaart mit unvollkommenen Nachrichtenmedien und Informationskanälen. In der zweiten Auflage meines Buches „Irrationaler Überschwang“ lieferte ich eine Definition von „Blase“, die meiner Meinung nach die beste Verwendung des Begriffs darstellt:

„Eine Situation, in der Meldungen über Preisanstiege die Begeisterung der Anleger anheizen, die sich dann über psychologische Ansteckung von Mensch zu Mensch überträgt. Dabei verstärkt sie Geschichten, die den Preisanstieg rechtfertigen könnten, und bringt eine immer größere Klasse von Anlegern ins Spiel, die sich trotz ihrer Zweifel am wahren Wert der Anlage hineinziehen lassen, teils weil sie die anderen um ihren Erfolg beneiden, teils wegen der Begeisterung von Glücksspielern.“

Im Mittelpunkt meiner Definition stehen die epidemische Ausbreitung, die Emotionen der Anleger und die Natur der Medien, die Nachrichten und Informationen vermitteln. Meines Erachtens haben Blasen nichts mit der Verrücktheit von Anlegern zu tun, sondern vielmehr damit, dass die Anleger massenhaft von einer oberflächlich plausiblen Theorie über die gängige Bewertung zur anderen hin und her geschubst werden. Das lässt einen daran denken, dass ein guter Diskutant bei vielen Debatten beide Seiten vertreten kann und dass er – wenn der Diskutant auf der anderen Seite nicht so geschickt ist – das Publikum von beiden Seiten in erheblichem Maße überzeugen kann. Diskussionsgruppen in Colleges demonstrieren dieses Phänomen regelmäßig, und zwar tun sie dies, indem sie bestimmte Tatsachen weglassen und andere ausschmücken. Im Falle von Blasen wechselt die Rückkopplung der Preisänderungen von Zeit zu Zeit die Seiten, wenn – verursacht durch Preisanstiege – vermehrt an grundlegende Tatsachen erinnert wird, die ein Diskutant verwenden könnte, um die Blase zu verteidigen. Die Nachrichtenmedien beherrschen die Präsentation von Argumentationen noch besser als der durchschnittliche College-Debattierer.

Investment-Ideen können sich wie Epidemien ausbreiten. Traditionell interessieren sich Volkswirte nicht besonders für Epidemiologie, Soziologie, Sozialpsychologie oder Kommunikation und Journalismus und es kostet sie einige Mühe, solche fachfremden akademischen Traditionen in ihre Überlegungen einzubeziehen.

Leider besteht eine Spaltung in begeisterte Verfechter der Markteffizienz (die überzeugt sind, dass der Markt alle öffentlich verfügbaren Informationen exakt in sich aufnimmt, und die bezweifeln, ob Blasen überhaupt existieren) und in diejenigen, die von der Behavioral Finance überzeugt sind (und eher glauben, man könne Blasen und andere Phänomene, die der Markteffizienz widersprechen, nur verstehen, wenn man auf andere Sozialwissenschaften wie etwa die Psychologie zurückgreift). Ich vermute, einiges dieser scheinbaren Spaltung ist eine Illusion und rührt daher, dass es keine allgemein akzeptierte Definition des Begriffs „Blase“ gibt. Diese Metapher könnte ja nahelegen, dass Spekulationsblasen immer plötzlich und unwiderruflich platzen, so wie es auch Seifenblasen ausnahmslos tun. Das wäre jedoch töricht, denn die Geschichte stützt die Vorstellung eines katastrophalen Platzens im Allgemeinen nicht. Dass in den Jahren 1929, 2000 und 2007 Börsenbooms so abrupt endeten, scheint zwar mit dieser Metapher in Einklang zu stehen, aber diese Blasen bliesen sich schon bald wieder auf (1933-1937, 2003-2007 und 2009 bis heute).

Ich glaube, dass die Möglichkeit des plötzlichen unwiderruflichen Platzens kein wesentlicher Bestandteil des allgemeinen Begriffs „Spekulationsblase“ in dessen angemessener Verwendung ist. Die Metapher ist vielleicht irreführend: Sie deutet mehr Dramatik an, als in Wirklichkeit vorhanden ist, und vermittelt das Gefühl, die aktuellen Ereignisse seien einzigartig. Das könnte auch erklären, weshalb dieser Begriff so beliebt bei Journalisten ist, die um die Aufmerksamkeit der Leser buhlen. Genauso wie Reporter die Menschen gerne dadurch aufrütteln, dass sie berichten, ein Index habe ein weiteres Rekordhoch erreicht (ungeachtet der Tatsache, dass Rekordhochs recht oft vorkommen, vor allem da Reporter so gut wie nie eine Inflationsbereinigung vornehmen), so deuten sie auch gerne an, es stehe womöglich ein Zusammenbruch bevor, an den man sich noch viele Jahre lang erinnern wird.

Manchmal wünschte ich, wir hätten eine andere Metapher. Man könnte sich überlegen, sie durch den Begriff „Windhandel“ zu ersetzen, der während der Tulpenmanie verwendet wurde (niederländisch ebenfalls „Windhandel“), des berühmten Aufstiegs und Falls der Tulpenpreise Anfang des 17. Jahrhunderts. Der Hinweis, dass bloß mit Luft gehandelt wird, scheint mir besser zu passen als die Andeutung einer fragilen Blase.

Interessanterweise berief sich auch James E. Rothman (2013) bei seiner Rede in der Nobelwoche in Stockholm 2013 auf Seifenblasen als Vergleich mit den Zellvesikeln, auf die sich seine mit dem Nobelpreis belohnten Forschungen beziehen. Er führte ein Video von zwei Seifenblasen vor, die aneinandergedrückt wurden und zur Überraschung der meisten von uns nicht platzten, sondern zu einer größeren Blase verschmolzen. Er erklärte, das könnten die Zellvesikel auch. Da fragte ich mich, ob man vielleicht sagen könnte, dass die Aktienblase und die Immobilienblase Anfang der 2000er-Jahre auf irgendeine Art zu einer größeren Blase verschmolzen, die etwa 2008 platzte und eine weitreichende Finanzkrise lostrat. Fantasievolles Denken macht Spaß und kann sogar anregend sein, aber wir dürfen es nicht zulassen, dass die Blasenmetapher oder irgendein anderer einfacher Vergleich unsere Modelle über die allerersten Anfänge hinaus bestimmt, denn jede Metapher erweist sich als unpassend, wenn man sie bis zu ihren absurden Schlussfolgerungen treibt.

Die Effizienzmarkthypothese

Eugene Fama war von Anfang an, bereits in seiner Dissertation, die er 1964 unter Merton Miller und Harry Roberts schrieb, der Meinung, man könne Aktienkurse nicht besonders gut vorhersagen. Er fand damals heraus, dass der durchschnittliche Korrelationskoeffizient zwischen den logarithmischen Preisänderungen der 30 im Dow Jones enthaltenen Aktien von Tag zu Tag von 1957 bis 1962 nur 0,03 betrug. Diesen Wert bezeichnete er als „wahrscheinlich sowohl für den Statistiker als auch für den Anleger bedeutungslos“.3 Im selben Jahr erschien „The Random Character of Stock Market Prices“ von Paul Cootner, der hinsichtlich der Markteffizienz zu ähnlichen Schlussfolgerungen kam.

Die „Effizienzmarkthypothese“, die im Allgemeinen Fama (1970) zugeschrieben wird, und die wissenschaftlichen Arbeiten, die dadurch angeregt wurden, besagt, die Preise besäßen eine rationale Grundlage in Form fundamentaler Gegebenheiten wie der optimalen Ertragsprognose oder Einschätzungen der Standardabweichung von Risikofaktoren, von denen Unternehmen betroffen sind. Die Theorie besagt weiter, da diese fundamentalen Faktoren rational determiniert seien, würden sie sich von Tag zu Tag vor allem aufgrund „echter“, also neuer, Nachrichten ändern, die ja von Natur aus im Wesentlichen unberechenbar sind. Famas Arbeit trat in der Finanzwissenschaft eine Revolution der Markteffizienz los. Ich gehörte auch zu dieser Bewegung, als ich nicht einmal zehn Jahre später meine Dissertation (1972) über die Effizienz des Marktes für langfristige Anleihen schrieb.

Alternative Sichtweisen und die Vorhersagbarkeit von Renditen

Diese Schlüsse wurden vor dem Hintergrund gezogen, dass sich die Öffentlichkeit damals dank einer kräftigen Hausse in den Vereinigten Staaten für Spekulationsblasen interessierte: In den Jahren 1948 bis 1964 waren die Aktienkurse auf mehr als das Vierfache gestiegen. John Kenneth Galbraiths Bestseller „Der große Crash 1929: Ursachen, Verlauf, Folgen“ beschrieb anschaulich die Torheiten des Booms der 1920er-Jahre und den darauf folgenden Kollaps und schloss, dass die „Chancen, dass wieder eine Spekulationsorgie stattfindet, recht gut stehen“.4

Es folgte ein weiteres populäres Werk, „Manien, Paniken, Crashs“ (1978) von Charles Poor Kindleberger, das eine ähnliche Methode anwendete und einen Bericht über Ereignisse in der Geschichte der Menschheit lieferte, verwoben mit Beschreibungen der menschlichen Torheit. Beide Autoren schrieben viele Jahre vor der Revolution der Behavioral Finance und keiner von ihnen griff in einem bedeutsamen Ausmaß auf wissenschaftliche Forschungen aus der Psychologie oder der Soziologie zurück. Das hatte zur Folge, dass ihre Arbeiten auf manche Leser substanzlos wirkten. Galbraith und Kindleberger waren zwar geachtete Wissenschaftler und die Geschichten in ihren Büchern waren oft fesselnd, aber viele waren der Ansicht, ihre Bücher besäßen nicht die gleiche wissenschaftliche Glaubwürdigkeit wie die sorgfältige Analyse von Daten, mit der die Theorie der Markteffizienz im Allgemeinen untermauert wurde – auch wenn sie wirklich provokativ waren.

Ob man die beiden einander anscheinend widersprechenden Ansichten miteinander versöhnen kann, ist eine Frage der richtigen statistischen Überprüfungen. Es stellte sich heraus, dass die scheinbar beeindruckenden Beweise für die Markteffizienz nicht unanfechtbar waren.

Modelle des erwarteten Zeitwerts der überschüssigen Volatilität

Die einfachste Version des Modells der Markteffizienz – die besagt, man könne Aktienkursbewegungen vollständig so auffassen, dass sie Informationen über die künftigen Dividendenausschüttungen widerspiegeln, deshalb gebe es nie einen guten oder schlechten Zeitpunkt, sich am Markt zu engagieren – hat als brauchbare Näherung für komplexere Modelle seit Beginn der Revolution der Markteffizienz die Vorstellungskraft der Gelehrten fest im Griff. Diese Version setzt die Preise mit den erwarteten künftigen Dividenden gleich, wobei die Erwartung durch die zum Zeitpunkt der Berechnung des Zeitwerts öffentlich verfügbaren Informationen bedingt ist und die Dividenden mit einem im zeitlichen Verlauf konstanten Diskontierungssatz abgezinst werden:

image

Man kann dieses Modell der Markteffizienz unter anderem dadurch überprüfen, dass man eine Regression der Rendite zwischen t und t + 1, t = 1, …, n über die zum Zeitpunkt t bekannten Informationsvariablen It, t = 1, …, n durchführt. Solche Tests kann man häufig näherungsweise als Überprüfung der „Random-Walk-Hypothese“ beschreiben, wonach die Preisänderungen rein zufällig und nicht vorhersagbar seien. Man akzeptiert das Modell der Markteffizienz, wenn die Koeffizienten der Informationsvariablen, die man verwendet, um die künftige Rendite oder die künftigen Preisänderungen vorherzusagen, nicht signifikant von null entfernt sind. Und selbst wenn man das Modell ablehnt, aber der vorhergesagte Anteil der Varianz an den Renditen gering ist, kommt man zu dem Schluss, es sei eine gute Näherung für die Realität.

Solche Tests und diverse analoge Tests der Markteffizienz finden sich in der Literatur reichlich. Es kann aber sein, dass solche Überprüfungen der ewigen Nichtvorhersagbarkeit von Renditen gegenüber der Alternative, die besagt, die Welt sei ausschließlich von vorübergehenden Moden und Marotten getrieben – ohne fundamentalen Grund für irgendeine Preisänderung –, nicht besonders gut standhalten, denn plausible Alternativen dieser Art implizieren auch, dass nur ein kleiner Bruchteil der Renditen von Monat zu Monat vorhersagbar sei (Shiller 1984, 1989; Summers 1986).

Viele Überprüfungen der Markteffizienz verwenden Tageskurse und da diese Werte so häufig auftreten, kann es sein, dass man Tausende Werte hat, obwohl sich die Daten nur über wenige Jahrzehnte erstrecken. Viele Menschen neigen zu dem Glauben, Hunderte Werte müssten vielen Daten entsprechen. Wenn man aber ein Modell der Markteffizienz von einer relevanten Alternative abgrenzen will, muss das nicht unbedingt eine große Datenmenge sein.

Wir könnten zum Beispiel versuchen festzustellen, ob eine Serie von Aktienkursen über eine bestimmte Zeit ein Random Walk ist oder ein über die Zeit stetiger autoregressiver Prozess erster Ordnung.5 Im ersten Fall hat es für die künftigen Preisänderungen keine Vorhersagekraft, ob die Preise zu hoch oder zu niedrig sind. Im zweiten Fall müssten die Preise, wenn sie im Verhältnis zum Mittel zu hoch sind, letztendlich tendenziell wieder fallen (gewissermaßen platzt eine Blase, wenn auch nicht besonders plötzlich oder dramatisch). Doch kann es sein, dass die Tests sehr wenig für die Abgrenzung der beiden Modelle leisten, wenn die autoregressiven Parameter nahe genug bei eins liegen – selbst wenn man eine große Anzahl von Werten heranzieht, und selbst wenn man Tages- oder Minutenkurse nimmt. Wenn die Daten einen feststehenden Zeitraum abdecken, steigert die Erhöhung der Beobachtungsfrequenz – sogar bis an die Grenze der Stetigkeit – nicht die Leistungsfähigkeit eines der Modelle (Shiller und Perron 1985, Phillips und Perron 1988).

Im „Wissenschaftlichen Hintergrund“ zum Wirtschaftsnobelpreis 2013 (Wirtschaftswissenschaftlicher Preisausschuss der Schwedischen Akademie der Wissenschaften) heißt es, die Ergebnisse der diesjährigen Preisträger würden bestätigen, dass man die Renditen spekulativer Anlagen über längere Zeiträume besser vorhersagen kann (in Bezug auf R-Quadrat). Das passt zu dem althergebrachten Rat, Anleger sollten Geduld haben, denn über kurze Zeiträume könnten sie keine soliden Renditen erwarten. Dies ist allerdings exakt das Gegenteil dessen, was man von einer Wettervorhersage erwartet, denn die morgige Temperatur können die Experten recht gut vorhersagen, aber gewiss nicht die Temperatur in einem Jahr.

Es leuchtet natürlich ein, wieso die Vorhersagbarkeit der Preisänderungen von Vermögenswerten, in die man investieren kann, in gewissem Sinne unwahrscheinlich sein sollte: Wenn man die Anlagerenditen von einem Tag auf den anderen in hohem Maße vorhersagen könnte, wäre es allzu leicht, beispielsweise innerhalb eines Jahres dadurch reich zu werden, dass man aufgrund solcher Vorhersagen handelt, aber wir wissen ja, dass es nicht leicht sein kann, durch solchen Handel viel Geld zu verdienen. Sims (1984) hat diese Auffassung in einem stetigen Zeitrahmen formalisiert, wobei er die „momentane Nichtvorhersagbarkeit“ des Preises einer spekulativen Anlage als die Bedingung definierte, dass R-Quadrat der Vorhersage von Zeitpunkt t zu Zeitpunkt t + s gegen null geht, wenn s gegen null geht. Er zeigte unter gewissen Bedingungen der Regelmäßigkeit, dass dann, wenn die Preise momentan nichtvorhersagbar sind, einfache, auf schnellem Handel basierende Systeme unbegrenzte Gewinne erzielen könnten – was natürlich nicht der Realität entsprechen kann.

Berücksichtigen wir diese wesentlichen Gründe für den Zweifel daran, dass Renditen über kurze Zeithorizonte vorhersagbar seien, können wir es weder überraschend noch interessant finden, dass R-Quadrat in vielen Tests der kurzfristigen Markteffizienz so niedrig ist. Diese Tests sagen uns nur, was ohnehin auf der Hand liegt, und sie sagen nichts über die Rationalität von Märkten aus, was über die Tatsache hinausginge, dass sich die Menschen keine Chancen entgehen lassen, sehr schnell reich zu werden.

Ich habe dargelegt, dass eine alternative Art der Überprüfung, die auf der geschätzten Volatilität der Renditen beruht – Tests auf „Übervolatilität“ –, gegenüber den bedeutenden Alternativen zur Markteffizienzhypothese mehr Aussagekraft hätte: Zuerst widerlegte ich für den Anleihemarkt das Erwartungsmodell der Zinsstruktur anhand von Zahlen aus den Vereinigten Staaten und Großbritannien (Shiller 1979) und dann widerlegte ich das einfachste Modell der Markteffizienz für den US-amerikanischen Aktienmarkt (Shiller 1981a).6 Unabhängig davon verwendete Kenneth Singleton (1980) einen Variance-Bounds-Test, um das Erwartungsmodell der Zinsstruktur anhand von Zahlen aus den Vereinigten Staaten zu widerlegen, und Stephen LeRoy und Richard Porter (1981) widerlegten die einfache Effizienzmarkthypothese für den Aktienmarkt der Vereinigten Staaten. Außerdem wurden Variance-Bounds-Tests verwendet, um Effizienzmarktmodelle zu überprüfen, die auf dem abgezinsten Konsum basieren (Shiller 1982, Hansen und Jagannathan 1991). Effizienzmarktmodelle implizieren außerdem Begrenzungen der Kovarianz zwischen Anlagepreisen (Beltratti und Shiller 1993).

Diese Tests dürften gegenüber den bedeutenden Alternativen leistungsfähiger sein als Regressionstests einfacher Auffassungen von der Markteffizienz. Es stimmt durchaus, dass die gängigen Annahmen des Regressionsmodells, also der übliche t-Test des Koeffizienten einer Prognosevariable in einer Regression mit der Überrendite als abhängige Variable, bekanntermaßen Optimalitätseigenschaften haben.7 Doch wenn man die Markteffizienz dadurch testet, dass man eine Regression der Überrenditen anhand von Informationsvariablen durchführt, macht man keinen Gebrauch von der Abbruchbedingung, dass alle Preisbewegungen durch Informationen über spätere Veränderungen der Fundamentaldaten gerechtfertigt sein müssen. Ich habe gezeigt (1981b), dass der Regressionstest nicht optimal ist, wenn man die behauptete Hypothese um diese Bedingung erweitert. Tatsächlich ist unter bestimmten extremen Annahmen hinsichtlich des Datenabgleichs ein einfacher F-Test anstelle eines Regressionstests in allen Fällen am leistungsfähigsten.8

Eine andere Überprüfung der Markteffizienz ist die Event-Studie, eine Analyse der Auswirkungen eines spezifischen Ereignisses (zum Beispiel eines Aktiensplits) auf den Preis einer Anlage in den Tagen vor und nach dem Ereignis. Dabei nimmt man viele verschiedene Beispiele für eine Ereignisart und stellt die zugehörige durchschnittliche Preisentwicklung dar. Dies ist analog zu einem Test der Signifikanz von Koeffizienten in einer Regression in einem Feld aus Zeitreihen der Tagesrenditen vieler Aktien anhand einer Scheinvariable, die den Tag darstellt, an dem eine bestimmte Art von Ereignis eintritt, und anhand von Scheinvariablen, die die Tage nach dem öffentlichen Bekanntwerden des Ereignisses darstellen. Die Markteffizienz wird hier dadurch getestet, dass die Signifikanz der Koeffizienten von Scheinvariablen getestet wird, die den Tagen nach dem Ereignis entsprechen. Die erste Event-Studie der wissenschaftlichen Literatur führte zwar bereits Dolley (1933) durch, aber wie der Wissenschaftliche Hintergrund zum Wirtschaftsnobelpreis 2013 festhält, wurde erst mit dem beeindruckenden Artikel aus dem Jahr 1969 von Eugene Fama, Lawrence Fisher, Michael Jensen und Richard Roll demonstriert, dass unter den Bedingungen eines Ereignisses tendenziell ein Mangel an konsistenten und bedeutenden weiteren Preisbewegungen herrscht, nachdem das Ereignis öffentlich bekannt geworden ist. Dolley war in seinem Artikel 1933 in die vielen Details über Aktiensplits vertieft und erwähnte die Effizienzmarkthypothese selbstverständlich nicht. Fama, Fisher, Jensen und Roll hingegen zeigten Belege für diese neu entwickelte und erweiterte Theorie auf, und zwar Belege, die man in einem Diagramm der Aktienrenditen vor und nach dem Ereignis auf beeindruckende Weise sehen konnte.

Aber auch hier haben die Effizienzmarkttests, die im Grunde auf Regressionstests hinauslaufen, nicht die Macht, uns zu sagen, ob es auch Blasen gibt, die sich auf die Preise auswirken – oder ob Blasen gar die hauptsächliche Komponente von Aktienkursbewegungen sind.

Man sollte die Widerlegungen durch Variance-Bounds-Tests ebenso wenig als korrekt, aber bedeutungslos abtun wie die Ineffizienzen, die die Literatur der Markteffizienz aufgedeckt hat, denn sie legen ja nahe, dass sich der größte Teil der Veränderungen des gesamten Aktienmarkts nicht durch Informationen über künftige fundamentale Gegebenheiten erklären lässt.

Gegen die Variance-Bounds-Tests meldeten sich reichlich Kritiker zu Wort und ich nahm es zunächst auf mich, einigen von ihnen zu antworten, indem ich auf Marsh und Merton (1986) sowie auf Kleidon (1986) reagierte (Shiller 1986, 1988). Doch der Umfang der Literatur wuchs über meine Antwortkapazitäten hinaus an und wechselte dabei auch signifikant die Richtung. Manche Entgegnungen bewegten sich in den abstrakten Bereich und warfen tief greifende Fragen der Erkenntnistheorie und der Philosophie der Logik auf.9 Das Ergebnis dieser Debatte muss ich einem breiteren Konsens innerhalb der Zunft überlassen.

Ich fasste meine Artikel zu diesem Thema in dem Buch „Market Volatility“ (1989) zusammen, als ich meine ökonometrischen Arbeiten über übertriebene Volatilität bereits weitgehend eingestellt hatte. Andere arbeiteten in dieser Richtung weiter und seither hat sich viel getan.

Visuelle Darstellungen der überschüssigen Volatilität und der Aktienmarkt als Prognostiker

Ebenso wie die Event-Studien viele Leser optisch davon überzeugten, dass die Effizienzmarkthypothese einiges für sich hat, indem sie Diagramme mit den Aktienkursen vor und nach einem Ereignis zeigten, so überzeugen einen, wenn auch auf andere Art, andere einfache Diagramme davon, dass die Aktienmärkte in Wirklichkeit doch nicht so effizient sind.

Abbildung A.1 ist die aktualisierte Fassung eines Charts, den ich in meinem Artikel 1981a gezeigt habe, was etwa ein Dritteljahrhundert her ist. Sie zeigt die reale Entwicklung des Aktienmarkts seit 1871 und dazu die Entwicklung des Gegenwartswerts der künftigen realen zu einem konstanten Diskontierungssatz abgezinsten Dividenden. Die dargestellten realen Aktienkurse sind diejenigen, die Standard & Poor’s unter der Bezeichnung S&P Composite (ab 1957 S&P 500) veröffentlicht hat, bereinigt um den Verbraucherpreisindex der Vereinigten Staaten.

Nach dem Interesse zu schließen, auf das das Diagramm stieß, bildete es das Kernstück meines damaligen Artikels. Offenbar verstört ein einfaches Diagramm oft mehr als eine formale Analyse. Es ist, also ob man eine Fotoreportage über ein historisches Ereignis betrachtet, anstatt einen chronologischen Bericht zu lesen: Sie wirkt unmittelbarer und regt zu intuitiven Vergleichen an.

Um diese Abbildung zu erstellen, habe ich die Barwerte der Dividenden für alle Zeitpunkte von 1871 bis 2013 aus den tatsächlichen späteren realen Dividenden anhand eines konstanten realen Abzinsungssatzes von r = 7,6 Prozent pro Jahr berechnet, was der realen durchschnittlichen historischen Rendite des Aktienmarkts seit 1871 entspricht. Dafür konnte ich, wie in meinem Buch (1989) erklärt, die von Standard & Poor’s ab 1926 veröffentlichten Dividenden verwenden, die Alfred Cowles (1939) bis in das Jahr 1871 zurück ergänzt hat. Als ich die Originalfassung veröffentlichte, waren die Dividenden nach 1979 noch nicht bekannt, und zum jetzigen Zeitpunkt sind die Dividenden nach 2013 noch nicht bekannt.

Für meinen Vortrag im Jahr 2013 habe ich ebenso wie 1981 einige einfache Annahmen über die noch unbekannten über das Jahr 2013 hinausgehenden Dividenden getroffen. Diesmal habe ich dafür ein gängiges Modell für die Diskontierung von Dividenden verwendet, das Gordon Growth Model, und als Basis für die Prognosen der Dividenden nach 2013 die neuesten realen Dividenden 2013 des S&P 500 eingesetzt, und zwar unter zwei unterschiedlichen Annahmen bezüglich der Dividenden nach 2013. Das eine Mal nahm ich an, die realen Dividenden würden ab der letzten bekannten Dividende 2013 weiterhin mit der durchschnittlichen Wachstumsrate der letzten zehn Jahre steigen, also um 5,1 Prozent im Jahr, woraus sich für 2013 ein P* von 1.292 ergibt. Das andere Mal ist die Berechnung die gleiche, nur dass ich als Wachstumsrate der Dividenden nach 2013 das geometrische Mittel der durchschnittlichen Wachstumsrate der letzten 30 Jahre genommen habe, also 2,5 Prozent im Jahr. Dadurch ergibt sich für 2013 ein P* von 669. Man kann beide Werte mit dem realen Marktwert des S&P 500 im Laufe des Jahres 2013 vergleichen, der von 1.494 bis 1.802 reichte.10

Abbildung A.1 Der reale S&P Composite Stock Price Index sowie zwei Zeitwerte der künftigen realen auf den Index anfallenden Dividenden bei konstantem Abzinsungssatz, 1871 bis 2013

image

Die beiden Barwerte unterscheiden sich hinsichtlich des nach 2013 angenommenen Dividendenwachstums.

Sollten wir lieber das reale Dividendenwachstum der letzten zehn Jahre verwenden als das der letzten 30 Jahre oder über einen anderen Zeitraum? Die 10-Jahres-Zahlen sind zwar aktueller, aber historisch gesehen sind zehn Jahre eine kurze Zeit und die Jahre 2003 bis 2013 waren ungewöhnlich, sie begannen mit den Nachwehen der Rezession 2001 und beinhalteten die schwerste Finanzkrise sowie die größten Konjunkturprogramme seit der Großen Depression. Vernünftige Menschen finden sicherlich Gründe, anderer Meinung zu sein. Und was noch schlimmer ist: Es gibt keine objektive Möglichkeit, Dividenden auf Jahrzehnte hinaus vorherzusagen. Deshalb stelle ich hier beide Möglichkeiten dar, um ungefähr zu verdeutlichen, wie ungewiss die künftigen Dividenden heute sind und wie schwer es fällt, sich vorzustellen, der Markt „kenne“ irgendwie die richtige optimale Prognose.

Die Darstellung zweier verschiedener P*-Serien zeigt zwar deutlich, dass hinsichtlich des Gegenwartswerts der Dividenden nach 2013 erhebliche Unsicherheit besteht, jedoch sehen wir vom heutigen Standpunkt, dass der Gegenwartswert der auf frühere Jahre bezogenen künftigen Dividenden gar nicht so sehr geschwankt hat. Von früheren Jahren aus gesehen, beispielsweise von 1980 aus, liegt das Jahr 2013 so weit in der Zukunft und die Abzinsung ist derart groß, dass sich aus einer breiten Spanne von möglichen Dividenden-Werten für das Jahr 2013 keine großen Unterschiede für P* ergeben.

Das Frappierende ist, dass der Zeitwert der Dividenden unter beiden Annahmen (und in der hier gewählten logarithmischen Darstellung) sehr große Ähnlichkeiten mit einer stetigen exponentiellen Wachstumskurve hat, während der Aktienmarkt stark um diese Linie herum oszilliert. Im Jahr 1981 fragte ich: Wenn es so ist, wie die Effizienzmarkthypothese sagt, und der tatsächliche Aktienkurs zu jedem Zeitpunkt die optimale Prognose für den Barwert zum betreffenden Zeitpunkt ist, wieso ist dann der Aktienmarkt so volatil?

Verschiedene Menschen reagieren auf diese Abbildung wohl unterschiedlich, aber eine gängige Reaktion besagt, das Effizienzmarktmodell Pt = Et(Pt*) scheine hier nicht plausibel zu sein. Warum springt der Preis so sehr hin und her, wenn der Wert, dem er folgt, ein so einfacher Trend ist? Dabei ist es ja nicht so, dass Pt im zeitlichen Verlauf immer gleichmäßiger erscheinen sollte als P*t, denn es fügt sich in das Modell, dass es plötzliche Preisbewegungen geben kann, wenn bedeutsame neue Informationen über feine Änderungen des Trends bekannt werden. Man sollte aber auch meinen, dass solche bedeutsamen neuen Informationen nur selten auftreten dürften – wenn man den gleichmäßigen Charakter der Dividenden betrachtet.

Um das Problem zu sehen, das sich hier für die Effizienzmarkthypothese stellt, stellen Sie sich vor, die als P*t bezeichnete Zeitreihe wäre nicht der Preis, sondern die Lufttemperatur, und Pt wäre die Vorhersage eines Meteorologen für die Temperatur am Tag t. Dann könnten wir auf die Idee kommen, diesen Meteorologen als wahnsinnig zu bezeichnen. Zwar bekommen Prognostiker am Aktienmarkt kein direktes Feedback auf Vorhersagefehler, aber trotzdem sollten sie es vermeiden, ihre Prognosen dauernd nach oben und unten anzupassen, außer wenn wirklich neue Informationen bekannt werden – und das war eindeutig nicht der Fall, jedenfalls keine Informationen über etwas, das in der Börsengeschichte tatsächlich passiert wäre.

Etwas sehr Grundlegendes, was diese Abbildung offenbart, ist die Tatsache, dass das Modell, wonach die Menschen im Prinzip die Zukunft kennen würden – ein Modell, das häufig als Näherung angeboten wird –, in allen Zeiträumen extrem falsch ist. Manche haben vorgeschlagen, die niedrigen Aktienkurse während der Großen Depression der 1930er-Jahre seien dadurch gerechtfertigt, dass die Menschen rational die Beeinträchtigung der künftigen realen Dividenden durch die Depression gesehen hätten. Doch in Wahrheit waren die auf die schlimmste Zeit der Börsendepression – das Jahr 1932 – bezogenen späteren Dividenden keineswegs lange genug tief genug, um P*1932 deutlich nach unten zu drücken. Noch nie hat etwas je die realen Dividenden sehr lange um mehr als ein paar Prozent von ihrem langfristigen Wachstumstrend abgebracht.

In meinem ursprünglichen Artikel (1981a) habe ich die Zahlen um den Trend bereinigt – zu sehen in einer Darstellung des Diagramms in den Unterlagen zum wissenschaftlichen Hintergrund, die auf der Website der Nobel-Stiftung eingestellt wurden –, weil ich es für vernünftig hielt anzunehmen, die Menschen würden den Trend kennen. Unter dieser Annahme impliziert das Modell der Markteffizienz, dass die Varianz um den Trend für P kleiner sein muss als für P*, was in Abbildung A.1 ganz einfach nicht der Fall ist. Allerdings reagierten viele Kritiker meines Artikels negativ auf die Annahme, der Trend sei im Prinzip bekannt.

Im Allgemeinen besagte die Kritik, es gebe immer irgendeinen Grund zu der Annahme, der Verlauf der Dividenden würde irgendwann deutlich von seinem historischen Wachstumspfad abweichen, die Anleger würden ständig neue Informationen über diese Möglichkeit bewerten und das sei selbst dann rationales Verhalten, wenn der Wachstumspfad der Dividende nie weit von einem Trendverlauf abweicht. Dahinter steht die Annahme, alle Schwankungen würden aus echten Informationen über die bekannten, als „schwarze Schwäne“ bezeichneten Ausreißer-Ereignisse resultieren, die über den Zeitraum von mehr als einem Jahrhundert hätten eintreten können, aber nun mal nicht eingetreten sind. Manchmal bezog sich die Kritik auf die Möglichkeit, dass die Dividendenreihe eine Einheitswurzel haben könnte, sodass der scheinbar gleichmäßige Trend nur ein zufälliges Ergebnis wäre, das sich in Zukunft vielleicht nicht fortsetzt.11

Die Unsicherheit bezüglich des Gegenwartswerts der Dividenden nach 2013, die in Abbildung A.1 zu sehen ist, weist auf ein bedeutendes Problem hin. Diese Unsicherheit bezüglich der künftigen Dividenden muss ja zu allen Zeitpunkten der Geschichte bestanden haben. Es gibt immer Faktoren oder prominente Theorien, auf die sich kreative Geister berufen können und die für die künftigen Dividenden eine höhere oder niedrigere Wachstumsrate vermuten lassen.

Als Beispiel: Können wir eine zur Effizienzmarkthypothese passende Story erzählen, weshalb der Aktienmarkt während der Großen Depression so niedrig stand? Der Gegenwartswert der künftigen Dividenden war während der Depression nicht besonders niedrig, aber vielleicht dachten die Menschen ja wegen der damals kursierenden Theorien, er sei niedrig. Oder sie dachten vielleicht, der Staat würde irgendwann den Aktienmarkt ohne Entschädigung verstaatlichen. Man könnte behaupten, es sei nicht offenkundig irrational und nicht verrückt, an solche Geschichten zu glauben. Aber wieso kommen dann solche Storys von Zeit zu Zeit auf, verursachen Marktschwankungen und verschwinden dann wieder?

Variationen des Barwertmodells

Natürlich ist es, wie bereits erwähnt, für die grundlegende Auffassung der Markteffizienz nicht notwendig, dass der Diskontierungssatz konstant ist oder dass die Renditen nicht vorhersehbar sind. In einer allgemeineren Formulierung der Markteffizienz dürfte der Diskontierungssatz von dem im zeitlichen Verlauf veränderlichen Zinssatz der einzelnen Perioden abhängen:

image

In einem anderen Modell, das von LeRoy (1973) und Lucas (1978) vorgeschlagen und von Grossman und Shiller (1981) sowie von Hansen und Singleton (1983) entwickelt wurde, könnte er vom Konsum abhängen, wobei man die Grenzrate der Substitution zwischen dem Konsum der aufeinander folgenden Perioden als Diskontierungssatz verwenden könnte:

image

wobei gilt: Mt ist die Grenzrate der Substitution des Konsums von t auf t + 1, was sich (unter der Annahme einer konstanten relativen Risikoaversion A) als ρ(Ct/Ct+1)A ergibt, wobei Ct der reale Pro-Kopf-Konsum zum Zeitpunkt t ist.

Abbildung A.2 zeigt die tatsächlichen Aktienkurse in den Vereinigten Staaten und die Aktienkurse, die sich aus Prognosen aufgrund perfektem Vorwissen anhand aller drei Maßstäbe ergeben.12 Auch diese Abbildung zeigt deutlich, dass es kaum Übereinstimmung zwischen den laut einem dieser Maßstäbe ex post rationalen Aktienkursen und den tatsächlichen Aktienkursen gibt. Die Menschen verhielten sich also bei der Festlegung der Aktienkurse nicht so, als würden sie die Zukunft dieser Variablen kennen und auf dieses Wissen rational reagieren. Und wenn man dann noch annimmt, dass sie die Zukunft in Wirklichkeit gar nicht kannten, muss man sich wirklich fragen, wieso sich die Aktienkurse im Laufe der Zeit so stark wie die aus perfektem Vorauswissen resultierenden Preise oder noch stärker geändert haben.

Abbildung A.2 Realer S&P Composite Stock Price Index und drei Zeitwerte der künftigen auf den Index anfallenden Dividenden, 1871 bis 2013

image

Alle drei Zeitwerte gehen davon aus, dass sich das reale Dividendenwachstum von 2003 bis 2013 nach dem Jahr 2013 ewig fortsetzen wird. Die drei Zeitwerte unterscheiden sich nur hinsichtlich der angenommenen Zeitreihe der Abzinsungssätze voneinander.

Es wird ständig versucht, das konsumbasierte Modell so zu verändern, dass es besser passt – siehe Campbell und Cochrane (1999) und Lars Peter Hansens Nobel-Rede (2013) –, aber bislang gibt es noch kein Modell, das man in Abbildung A.2 als inspirierende Bestätigung der Markteffizienzhypothese auffassen könnte.

John Campbell und John Ammer (1993) nahmen eine Varianzzerlegung (anhand des von Campbell 1991 skizzierten Konzepts) von unerwarteten Überrenditen anhand von Zeitreihenmodellen und Nachkriegszahlen aus den Vereinigten Staaten vor. Die Zerlegung basiert auf der Linearisierung der Zeitwert-Relation, die Campbell und Shiller (1988b) verwendeten. Es lässt sich zeigen, dass die Innovation des Erwartungswerts, der Überrendite Et+1 - Et zum Zeitpunkt t + 1 bei einer risikolosen Verzinsung von et +1 und bei Stationarität als Abbruchbedingung eine Tautologie ergibt, weil sie die Summe dreier Innovationen ist:

image

Anhand dieser Zerlegung und eines vektorautoregressiven Modells in Differentialdarstellung unter Verwendung der Aktienmarktrenditen seit dem Zweiten Weltkrieg fanden Campbell und Ammer heraus, dass die Innovationen der Überrendite eine zwei- bis dreimal so hohe Standardabweichung aufweisen wie die Innovationen des künftigen Dividendenwachstums. Somit wurden die Schwankungen des Gesamtmarkts von Schwankungen der vorhergesagten künftigen Renditen geprägt und nicht von Meldungen über künftige Dividenden, die an die Anleger ausgeschüttet werden sollten.13

Interpretationen der Vorhersagbarkeit von Renditen

Die Soziologen bieten eine mögliche Interpretation dieser Ergebnisse, in der sich ein Denkgebäude niederschlägt, das mehr als 100 Jahre zurückreicht. Der Markt schwankt, wenn der Hauch der Geschichte zu verschiedenen Zeiten verschiedene Geisteshaltungen hervorruft – jeweils einen anderen Zeitgeist. Émile Durkheim (1893) sprach von dem „kollektiven Bewusstsein“, das die gemeinsamen Überzeugungen, Einstellungen und moralischen Urteile umfasst, die eine historische Periode prägen. Maurice Halbwachs (1925) sprach vom „kollektiven Gedächtnis“, also einer Ansammlung von Tatsachen, an die man sich zu einem gegebenen Zeitpunkt allgemein erinnert, die aber vergessen werden, wenn die mündliche Weitergabe und die aktiven Medien die Erinnerung nicht mehr aufrechterhalten. Medien haben die Neigung, ihre Storys auf Ideen zurechtzubiegen, an denen gerade allgemeines Interesse besteht, anstatt sinnvolle Fakten zu vermitteln, für die sich die Leser aber nicht mehr interessieren.14 Sicherlich wirkt sich das schlichte Vergessen vergangener Erlebnisse auf die populären Urteile aus. Wie viele Menschen könnten wohl heute noch irgendetwas über die Finanzpanik von 1907 berichten oder über den Immobilienboom der 1940er-Jahre? Hätte man damals irgendjemanden auf der Straße angesprochen, hätte man ohne Weiteres einen Bericht darüber zu hören bekommen, aber heute müsste fast jeder eingestehen, dass er davon keine Ahnung hat. Wenn sich eine Blase aufbaut, ist es ganz natürlich, dass manche Tatsachen wegfallen und andere ausgeschmückt werden (wie bei der Strategie erfolgreicher College-Diskutanten), weil das kollektive Gedächtnis nachlässt, wenn die Medien und die allgemeinen Unterhaltungen die Erinnerungen nicht mehr verstärken, und weil andere Faktoren durch Storys verstärkt werden, die von Marktereignissen ins Leben gerufen wurden.

Es ist wohl kaum glaubhaft, dass spekulative Preise effektiv von sämtlichen Informationen über die Wahrscheinlichkeiten künftiger Dividenden Gebrauch machen. Viel plausibler ist, dass sich in den Preisänderungen des Gesamtmarkts unstetige Wahrnehmungen niederschlagen: Veränderungen, auf die Keynes mit dem Begriff „animalische Instinkte“ verwies und die das Denken sogar der Vertreter des sogenannten „Smart Money“ infizieren. Keynes nahm dies schon 1921 in seiner Abhandlung „Über Wahrscheinlichkeit“ vorweg, wo er schrieb, Wahrscheinlichkeiten seien nicht in dem Sinne messbar, von dem die Entscheidungstheorie ausgeht, sondern es bestünden immer Mehrdeutigkeiten. Er schrieb, wegen dieser grundsätzlichen Mehrdeutigkeit gebe es bei Finanzgeschäften unweigerlich eine „gewisse Willkür“.15 Wichtige Entscheidungen würden eher spontan als kalkuliert getroffen. Man habe vielleicht Wahrscheinlichkeiten berechnet, sei aber normalerweise von seinen eigenen Berechnungen nicht vollständig überzeugt und richte sich nach seinem Bauchgefühl.

In einem meiner ersten Artikel über Behavioral Finance mit dem Titel „Stock Prices and Social Dynamics“ (1984) schlug ich noch ein anderes Modell für den erwarteten Zeitwert vor, das man als Modell für Aktienkurse in Betracht ziehen könnte, allerdings können wir es im Gegensatz zu den drei oben erklärten und dargestellten Barwertmodellen nicht bis in das Jahr 1871 zurück darstellen, weil es von einem zeitlich variablen Faktor abhängt, der sich nicht objektiv quantifizieren lässt, jedenfalls vorläufig noch nicht. Ich habe zwar versucht, einen solchen Marktfaktor mithilfe von Erhebungen unter Privatanlegern und institutionellen Anlegern zu bestimmen, aber das tue ich erst seit 1989. Es gibt zwar noch andere Umfragen zur Anlegerstimmung, aber ihre Ergebnisse sind nicht gerade definitiv. Die Umfragen unter privaten und institutionellen Investoren, die ich 1989 begonnen habe16, sowie die gemeinsamen Umfragen mit Karl E. Case unter Hauskäufern ab 198817 werden von der Yale School of Management fortgeführt.

Vor 30 Jahren nannte ich diesen noch nicht gemessenen Faktor „Nachfrage nach Aktien vonseiten durchschnittlicher Anleger“, aber heute möchte ich ihn als animalischen Instinkt oder At bezeichnen. At stellt die Nachfrage nach Aktien pro Anzahl umlaufender Aktien zum Zeitpunkt t seitens aller dar, die nicht zum Smart Money gehören, also von Menschen, die nicht wirklich darauf achten, die nicht systematisch vorgehen, die kein Research betreiben, die sich von zufällig aufgeschnappten Informationen hin und her schubsen lassen. Das ist sicherlich die Mehrheit der Anleger und nehmen wir, um das Modell ins Extreme zu treiben, an, ihre Meinungen würden ausschließlich wechselnde Moden und Marotten darstellen, leeres Gerede, und Überreaktionen auf irrelevante Nachrichtenmeldungen. At verhält sich im zeitlichen Verlauf wahrscheinlich träge, denn normalerweise ändern nicht alle Menschen massenhaft und prompt ihre Meinung.

Dahinter steht der Kerngedanke, dass es auch Anleger gibt, die zum Smart Money gehören und die sich keine Illusionen machen, die bei Investitionen am Aktienmarkt aber umsichtig vorgehen müssen. Sie müssen nicht nur deshalb mit Bedacht vorgehen, weil die künftigen Dividenden nicht mit Sicherheit bekannt sind, sondern auch weil die Durchschnittsanleger in gewissem Maße unberechenbar sind und ihr launisches Verhalten Preisänderungen hervorrufen könnte, die dem Smart Money Verluste bescheren könnten, wenn es zu viel in den Markt investiert. Für die Investoren, die das Smart Money darstellen, kommen ständig Informationen über wahrscheinliche künftige Werte von At herein, die wie alle wahrhaft neuen Informationen im zeitlichen Verlauf unkorreliert und unvorhersehbar sind. Ich ging davon aus, dass die Nachfrage nach Aktien pro Anzahl der Aktien seitens des Smart Money der von ihm erwarteten Überrendite des Aktienmarkts über eine risikolose Rendite r hinaus entspricht, die ich der Einfachheit halber als konstant betrachte, und die Differenz wird durch einen konstanten Risikofaktor φ geteilt. Diese beiden Nachfragen – die Nachfrage durch die Durchschnittsanleger und die Nachfrage durch das Smart Money – müssen zusammen eins ergeben, damit die Märkte geräumt werden. Die Auflösung des Modells rationaler Erwartungen, das sich daraus ergibt, liefert uns ein viertes Modell für den Gegenwartswert:18

image

Wenn φ = 0, ist das Smart Money vorherrschend, dann reduziert sich das Ganze auf Gleichung (1). Geht φ gegen unendlich, fällt das Smart Money heraus, die Gleichung reduziert sich auf Pt = At und die Durchschnittsanleger bestimmen vollständig den Preis. Das Interessante daran ist der Bereich dazwischen. In diesem Zwischenbereich ist der Preis im Einklang mit der Effizienzmarkthypothese womöglich selbst dann von Tag zu Tag oder von Monat zu Monat schwer vorhersehbar, wenn die animalischen Instinkte die breiten Bewegungen von Pt dominieren. Lange, langsame Ausschläge von At können lange, langsame Ausschläge der Aktienkurse verursachen (vielleicht die mehrjährigen Haussen und Baissen), obwohl die täglichen Aktienkursbewegungen im zeitlichen Verlauf fast nicht korreliert sind. Der Preis reagiert auf Nachrichten über die animalischen Instinkte, nicht nur auf Nachrichten über die künftigen Dividenden. Dann kann es sein, dass die Event-Studien, die wie oben erklärt überprüfen, wie der Markt im zeitlichen Verlauf auf Nachrichten über Ereignisse wie etwa Aktiensplits und dann auf ihr Eintreten reagiert, die Markteffizienz wunderbar stützen, denn ein Großteil der Auswirkungen von Ereignissen auf die Dividenden und auf die animalischen Instinkte wird dann in den Kurs eingepreist, sobald das Ereignis für das Smart Money zur Nachricht wird, und nicht sobald das Ereignis tatsächlich eintritt.

φφ