Paul Krugman
Oxford Review of Economic Policy, Volume 34, Issue 1-2, 5 January 2018,
This paper argues that when the financial crisis came policy-makers relied on some version of the Hicksian sticky-price IS-LM as their default model; these models were ‘good enough for government work’. While there have been many incremental changes suggested to the DSGE model, there has been no single ‘big new idea’ because the even simpler IS-LM type models were what worked well. In particular, the policy responses based on IS-LM were appropriate. Specifically, these models generated the insights that large budget deficits would not drive up interest rates and, while the economy remained at the zero lower bound, that very large increases in monetary base wouldn’t be inflationary, and that the multiplier on government spending was greater than 1. The one big exception to this satisfactory understanding was in price behaviour. A large output gap was expected to lead to a large fall in inflation, but did not. If new research is necessary, it is on pricing behaviour. While there was a failure to forecast the crisis, it did not come down to a lack of understanding of possible mechanisms, or of a lack of data, but rather through a lack of attention to the right data.
It’s somewhat startling, at least for those of us who bloviate about economics for a living, to realize just how much time has passed since the 2008 financial crisis. Indeed, the crisis and aftermath are starting to take on the status of an iconic historical episode, like the stagflation of the 1970s or the Great Depression itself, rather than that of freshly remembered experience. Younger colleagues sometimes ask me what it was like during the golden age of economics blogging, mainly concerned with macroeconomic debates, which they think of as an era that ended years ago.
Yet there is an odd, interesting difference, both among economists and with a wider audience, between the intellectual legacies of those previous episodes and what seems to be the state of macroeconomics now.
Each of those previous episodes of crisis was followed both by a major rethinking of macroeconomics and, eventually, by a clear victor in some of the fundamental debates. Thus, the Great Depression brought on Keynesian economics, which became the subject of fierce dispute—and everyone knew how those disputes turned out: Keynes, or Keynes as interpreted by and filtered through Hicks and Samuelson, won the argument.
In somewhat the same way, stagflation brought on the Friedman–Phelps natural rate hypothesis—yes, both men wrote their seminal papers before the 1970s, but the bad news brought their work to the top of the agenda. And everyone knew, up to a point anyway, how the debate over that hypothesis ended up: basically everyone accepted the natural rate idea, abandoning the notion of a long-run trade-off between inflation and unemployment. True, the profession then split into freshwater and saltwater camps over the effectiveness or lack thereof of short-run stabilization policies, a development that I think presaged some of what has happened since 2008. But I’ll get back to that.
For now, let me instead just focus on how different the economics-profession response to the post-2008 crisis has been from the responses to depression and stagflation. For this time there hasn’t been a big new idea, let alone one that has taken the profession by storm. Yes, there are lots of proclamations about things researchers should or must do differently, many of them represented in this issue of the Oxford Review. We need to put finance into the heart of the models! We need to incorporate heterogeneous agents! We need to incorporate more behavioural economics! And so on.
But while many of these ideas are very interesting, none of them seems to have emerged as the idea we need to grapple with. The intellectual impact of the crisis just seems far more muted than the scale of crisis might have led one to expect. Why?
Well, I’m going to offer what I suspect will be a controversial answer: namely, macroeconomics hasn’t changed that much because it was, in two senses, what my father’s generation used to call ‘good enough for government work’. On one side, the basic models used by macroeconomists who either practise or comment frequently on policy have actually worked quite well, indeed remarkably well. On the other, the policy response to the crisis, while severely lacking in many ways, was sufficient to avert utter disaster, which in turn allowed the more inflexible members of our profession to ignore events in a way they couldn’t in past episodes.
In what follows I start with the lessons of the financial crisis and Great Recession, which economists obviously failed to predict. I then move on to the aftermath, the era of fiscal austerity and unorthodox monetary policy, in which I’ll argue that basic macroeconomics, at least in one version, performed extremely well. I follow up with some puzzles that remain. Finally, I turn to the policy response—and its implications for the economics profession.
When all hell broke loose in financial markets, Queen Elizabeth II famously asked why nobody saw it coming. This was a good question—but maybe not as devastating as many still seem to think.
Obviously, very few economists predicted the crisis of 2008–9; those who did, with few exceptions I can think of, also predicted multiple other crises that didn’t happen. And this failure to see what was coming can’t be brushed aside as inconsequential.
There are, however, two different ways a forecasting failure of this magnitude can happen, which have very different intellectual implications. Consider an example from a different field, meteorology. In 1987 the Met Office dismissed warnings that a severe hurricane might strike Britain; shortly afterwards, the Great Storm of 1987 arrived, wreaking widespread destruction. Meteorologists could have drawn the lesson that their fundamental understanding of weather was fatally flawed—which they would presumably have done if their models had insisted that no such storm was even possible. Instead, they concluded that while the models needed refinement, the problem mainly involved data collection—that the network of weather stations, buoys, etc. had been inadequate, leaving them unaware of just how bad things were looking.
How does the global financial crisis compare in this respect? To be fair, the DSGE models that occupied a lot of shelf space in journals really had no room for anything like this crisis. But macroeconomists focused on international experience—one of the hats I personally wear—were very aware that crises triggered by loss of financial confidence do happen, and can be very severe. The Asian financial crisis of 1997–9, in particular, inspired not just a realization that severe 1930s-type downturns remain possible in the modern world, but a substantial amount of modelling of how such things can happen.
So the coming of the crisis didn’t reveal a fundamental conceptual gap. Did it reveal serious gaps in data collection? My answer would be, sort of, in the following sense: crucial data weren’t so much lacking as overlooked.
This was most obvious on the financial side. The panic and disruption of financial markets that began in 2007 and peaked after the fall of Lehman came as a huge surprise, but one can hardly accuse economists of having been unaware of the possibility of bank runs. If most of us considered such runs unlikely or impossible in modern advanced economies, the problem was not conceptual but empirical: failure to take on board the extent to which institutional changes had made conventional monetary data inadequate.
This is clearly true for the United States, where data on shadow banking—on the repo market, asset-backed commercial paper, etc.—were available but mostly ignored. In a less obvious way, European economists failed to pay sufficient intention to the growth of interbank lending as a source of finance. In both cases the institutional changes undermined the existing financial safety net, especially deposit insurance. But this wasn’t a deep conceptual issue: when the crisis struck, I’m sure I wasn’t the only economist whose reaction was not ‘How can this be happening?’ but rather to yell at oneself, ‘Diamond–Dybvig, you idiot!’
In a more subtle way, economists were also under-informed about the surge in housing prices that we now know represented a huge bubble, whose bursting was at the heart of the Great Recession. In this case, rising home prices were an unmistakable story. But most economists who looked at these prices focused on broad aggregates—say, national average home prices in the United States. And these aggregates, while up substantially, were still in a range that could seemingly be rationalized by appealing to factors like low interest rates. The trouble, it turned out, was that these aggregates masked the reality, because they averaged home prices in locations with elastic housing supply (say, Houston or Atlanta) with those in which supply was inelastic (Florida—or Spain); looking at the latter clearly showed increases that could not be easily rationalized.
Let me add a third form of data that were available but largely ignored: it’s fairly remarkable that more wasn’t made of the sharp rise in household debt, which should have suggested something unsustainable about the growth of the 2001–7 era. And in the aftermath of the crisis macroeconomists, myself included (Eggertsson and Krugman, 2012) began taking private-sector leverage seriously in a way they should arguably have been doing before.
So did economists ignore warning signs they should have heeded? Yes. One way to summarize their (our) failure is that they ignored evidence that the private sector was engaged in financial overreach on multiple fronts, with financial institutions too vulnerable, housing prices in a bubble, and household debt unsustainable. But did this failure of observation indicate the need for a fundamental revision of how we do macroeconomics? That’s much less clear.
First, was the failure of prediction a consequence of failures in the economic framework that can be fixed by adopting a radically different framework? It’s true that a significant wing of both macroeconomists and financial economists were in the thrall of the efficient markets hypothesis, believing that financial overreach simply cannot happen—or at any rate that it can only be discovered after the fact, because markets know what they are doing better than any observer. But many macroeconomists, especially in policy institutions, knew better than to trust markets to always get it right—especially those who had studied or been involved with the Asian crisis of the 1990s. Yet they (we) also missed some or all of the signs of overreach. Why?
My answer may seem unsatisfying, but I believe it to be true: for the most part what happened was a demonstration of the old line that predictions are hard, especially about the future. It’s a complicated world out there, and one’s ability to track potential threats is limited. Almost nobody saw the Asian crisis coming, either. For that matter, how many people worried about political disruption of oil supplies before 1973? And so on. At any given time there tends to be a set of conventional indicators everyone looks at, determined less by fundamental theory than by recent events, and big, surprise crises almost by definition happen due to factors not on that list. If you like, it’s as if meteorologists with limited resources concentrated those resources in places that had helped track previous storms, leading to the occasional surprise when a storm comes from an unusual direction.
A different question is whether, now that we know whence the 2008 crisis came, it points to a need for deep changes in macroeconomic thinking. As I’ve already noted, bank runs have been fairly well understood for a long time; we just failed to note the changing definition of banks. The bursting of the housing bubble, with its effects on residential investment and wealth, was conceptually just a negative shock to aggregate demand.
The role of household leverage and forced deleveraging is a bigger break from conventional macroeconomics, even as done by saltwater economists who never bought into efficient markets and were aware of the risk of financial crises. That said, despite the impressive empirical work of Mian and Sufi (2011)and my own intellectual investment in the subject, I don’t think we can consider incorporating debt and leverage a fundamental new idea, as opposed to a refinement at the margin.
It’s true that introducing a role for household debt in spending behaviour makes the short-run equilibrium of the economy dependent on a stock variable, the level of debt. But this implicit role of stock variables in short-run outcomes isn’t new: after all, nobody has ever questioned the notion that investment flows depend in part on the existing capital stock, and I’m not aware that many macroeconomists consider this a difficult conceptual issue.
And I’m not even fully convinced that household debt played that large a role in the crisis. Did household spending fall that much more than one would have expected from the simple wealth effects of the housing bust?
My bottom line is that the failure of nearly all macroeconomists, even of the saltwater camp, to predict the 2008 crisis was similar in type to the Met Office failure in 1987, a failure of observation rather than a fundamental failure of concept. Neither the financial crisis nor the Great Recession that followed required a rethinking of basic ideas.
Once the Great Recession had happened, the advanced world found itself in a situation not seen since the 1930s, except in Japan, with policy interest rates close to zero everywhere. This raised the practical question of how governments and central banks should and would respond, of which more later. For economists, it raised the question of what to expect as a result of those policy responses. And the predictions they made were, in a sense, out-of-sample tests of their theoretical framework: economists weren’t trying to reproduce the historical time-series behaviour of aggregates given historical policy regimes, they were trying to predict the effects of policies that hadn’t been applied in modern times in a situation that hadn’t occurred in modern times.
In making these predictions, the deep divide in macroeconomics came into play, making a mockery of those who imagined that time had narrowed the gap between saltwater and freshwater schools. But let me put the freshwater school on one side, again pending later discussion, and talk about the performance of the macroeconomists—many of them trained at MIT or Harvard in the 1970s—who had never abandoned their belief that activist policy can be effective in dealing with short-run fluctuations. I would include in this group Ben Bernanke, Olivier Blanchard, Christina Romer, Mario Draghi, and Larry Summers, among those close to actual policy, and a variety of academics and commentators, such as Simon Wren-Lewis, Martin Wolf, and, of course, yours truly, in supporting roles.
I think it’s fair to say that everyone in this group came into the crisis with some version of Hicksian sticky-price IS-LM as their default, back-of-the-envelope macroeconomic model. Many were at least somewhat willing to work with DSGE models, maybe even considering such models superior for many purposes. But when faced with what amounted to a regime change from normal conditions to an economy where policy interest rates couldn’t fall, they took as their starting point what the Hicksian approach predicted about policy in a liquidity trap. That is, they did not rush to develop new theories, they pretty much stuck with their existing models.
These existing models made at least three strong predictions that were very much at odds with what many influential figures in the political and business worlds (backed by a few economists) were saying.
These were not common-sense propositions. Non-economists were quite sure that the huge budget deficits the US ran in 2009–10 would bring on an attack by the ‘bond vigilantes’. Many financial commentators and political figures warned that the Fed’s expansion of its balance sheet would ‘debase the dollar’ and cause high inflation. And many political and policy figures rejected the Keynesian proposition that spending more would expand the economy, spending less lead to contraction.
In fact, if you’re looking for a post-2008 equivalent to the kinds of debate that raged in the 1930s and again in the 1970s—a conflict between old ideas based on pre-crisis thinking, and new ideas inspired by the crisis—your best candidate would be fiscal policy. The old guard clung to the traditional Keynesian notion of a government spending multiplier somewhat limited by automatic stabilizers, but still greater than 1. The new economic thinking that achieved actual real-world influence during the crisis and aftermath—as opposed, let’s be honest, to the kind of thinking found in this issue—mostly involved rejecting the Keynesian multiplier in favour of the doctrine of expansionary austerity, the argument that cutting public spending would crowd in large amounts of private spending by increasing confidence (Alesina and Ardagna, 2010). (The claim that bad things happen when public debt crosses a critical threshold also played an important real-world role, but was less a doctrine than a claimed empirical observation.)
So here, at least, there was something like a classic crisis-inspired confrontation between tired old ideas and a radical new doctrine. Sad to say, however, as an empirical matter the old ideas were proved right, at least insofar as anything in economics can be settled by experience, while the new ideas crashed and burned. Interest rates stayed low despite huge deficits. Massive expansion in the monetary base did not lead to inflation. And the experience of austerity in the euro area, coupled with the natural experiments created by some of the interregional aspects of the Obama stimulus, ended up strongly supporting a conventional, Keynesian view of fiscal policy. Even the magnitude of the multiplier now looks to be around 1.5, which was the number conventional wisdom suggested in advance of the crisis.
So the crisis and aftermath did indeed produce a confrontation between innovative new ideas and traditional views largely rooted in the 1930s. But the movie failed to follow the Hollywood script: the stodgy old ideas led to broadly accurate predictions, were indeed validated to a remarkable degree, while the new ideas proved embarrassingly wrong. Macroeconomics didn’t change radically in response to crisis because old-fashioned models, confronted with a new situation, did just fine.
I’ve just argued that the lack of a major rethinking of macroeconomics in the aftermath of crisis was reasonable, given that conventional, off-the-shelf macroeconomics performed very well. But this optimistic assessment needs to be qualified in one important respect: while the demand side of economy did just about what economists trained at MIT in the 1970s thought it would, the supply side didn’t.
As I said, the experience of stagflation effectively convinced the whole profession of the validity of the natural-rate hypothesis. Almost everyone agreed that there was no long-run inflation–unemployment trade-off. The great saltwater–freshwater divide was, instead, about whether there were usable short-run trade-offs.
But if the natural-rate hypothesis was correct, sustained high unemployment should have led not just to low inflation but to continually declining inflation, and eventually deflation. You can see a bit of this in some of the most severely depressed economies, notably Greece. But deflation fears generally failed to materialize.
Put slightly differently, even saltwater, activist-minded macroeconomists came into the crisis as ‘accelerationists’: they expected to see a downward-sloping relationship between unemployment and the rate of change of inflation. What we’ve seen instead is, at best, something like the 1960s version of the Phillips curve, a downward-sloping relationship between unemployment and the level of inflation—and even that relationship appears weak.
Obviously this empirical failure has not gone unnoticed. Broadly, those attempting to explain price behaviour since 2008 have gone in two directions. One side, e.g. Blanchard (2016), invokes ‘anchored’ inflation expectations: the claim that after a long period of low, stable inflation, price-setters throughout the economy became insensitive to recent inflation history, and continued to build 2 per cent or so inflation into their decisions even after a number of years of falling below that target. The other side, e.g. Daly and Hobijn (2014), harking back to Tobin (1972) and Akerlof et al. (1996), invokes downward nominal wage rigidity to argue that the natural rate hypothesis loses validity at low inflation rates.
In a deep sense, I’d argue that these two explanations have more in common than they may seem to at first sight. The anchored-expectations story may preserve the outward form of an accelerationist Phillips curve, but it assumes that the process of expectations formation changes, for reasons not fully explained, at low inflation rates. The nominal rigidity story assumes that there is a form of money illusion, opposition to outright nominal wage cuts, that is also not fully explained but becomes significant at low overall inflation rates.
Both stories also seem to suggest the need for aggressive expansionary policy when inflation is below target: otherwise there’s the risk that expectations may become unanchored on the downward side, or simply that the economy will suffer persistent, unnecessary slack because the downward rigidity of wages is binding for too many workers.
Finally, I would argue that it is important to admit that both stories are ex post explanations of macroeconomic behaviour that was not widely predicted in advance of the post-2008 era. Pre-2008, the general view even on the saltwater side was that stable inflation was a sufficient indicator of an economy operating at potential output, that any persistent negative output gap would lead to steadily declining inflation and eventually outright deflation. This view was, in fact, a key part of the intellectual case for inflation targeting as the basis of monetary policy. If inflation will remain stable at, say, 1 per cent even in a persistently depressed economy, it’s all too easy to see how policy-makers might give themselves high marks even while in reality failing at their job.
But while this is a subjective impression—I haven’t done a statistical analysis of recent literature—it does seem that surprisingly few calls for a major reconstruction of macroeconomics focus on the area in which old-fashioned macroeconomics did, in fact, perform badly post-crisis.
There have, for example, been many calls for making the financial sector and financial frictions much more integral to our models than they are, which is a reasonable thing to argue. But their absence from DSGE models wasn’t the source of any major predictive failures. Has there been any comparable chorus of demands that we rethink the inflation process, and reconsider the natural rate hypothesis? Of course there have been some papers along those lines, but none that have really resonated with the profession.
Why not? As someone who came of academic age just as the saltwater–freshwater divide was opening up, I think I can offer a still-relevant insight: understanding wage- and price-setting is hard—basically just not amenable to the tools we as economists have in our kit. We start with rational behaviour and market equilibrium as a baseline, and try to get economic dysfunction by tweaking that baseline at the edges; this approach has generated big insights in many areas, but wages and prices isn’t one of them.
Consider the paths followed by the two schools of macroeconomics.
Freshwater theory began with the assumption that wage- and price-setters were rational maximizers, but with imperfect information, and that this lack of information explained the apparent real effects of nominal shocks. But this approach became obviously untenable by the early 1980s, when inflation declined only gradually despite mass unemployment. Now what?
One possible route would have been to drop the assumption of fully rational behaviour, which was basically the New Keynesian response. For the most part, however, those who had bought into Lucas-type models chose to cling to the maximizing model, which was economics as they knew how to do it, despite attempts by the data to tell them it was wrong. Let me be blunt: real business cycle theory was always a faintly (or more than faintly) absurd enterprise, a desperate attempt to protect intellectual capital in the teeth of reality.
But the New Keynesian alternative, while far better, wasn’t especially satisfactory either. Clever modellers pointed out that in the face of imperfect competition the aggregate costs of departures from perfectly rational price-setting could be much larger than the individual costs. As a result, small menu costs or a bit of bounded rationality could be consistent with widespread price and wage stickiness.
To be blunt again, however, in practice this insight served as an excuse rather than a basis for deep understanding. Sticky prices could be made respectable—just—allowing modellers to assume something like one-period-ahead price-setting, in turn letting models that were otherwise grounded in rationality and equilibrium produce something not too inconsistent with real-world observation. New Keynesian modelling thus acted as a kind of escape clause rather than a foundational building block.
But is that escape clause good enough to explain the failure of deflation to emerge despite multiple years of very high unemployment? Probably not. And yet we still lack a compelling alternative explanation, indeed any kind of big idea. At some level, wage and price behaviour in a depressed economy seems to be a subject for which our intellectual tools are badly fitted.
The good news is that if one simply assumed that prices and wages are sticky, appealing to the experience of the 1930s and Japan in the 1990s (which never experienced a true deflationary spiral), one did reasonably well on other fronts.
So my claim that basic macroeconomics worked very well after the crisis needs to be qualified by what looks like a big failure in our understanding of price dynamics—but this failure didn’t do too much damage in giving rise to bad advice, and hasn’t led to big new ideas because nobody seems to have good ideas to offer.
In 2009 Barry Eichengreen and Kevin O’Rourke made a splash with a data comparison between the global slump to date and the early stages of the Great Depression; they showed that at the time of writing the world economy was in fact tracking quite close to the implosion that motivated Keynes’s famous essay ‘The Great Slump of 1930’ (Eichengreen and O’Rourke, 2009)
Subsequent updates, however, told a different story. Instead of continuing to plunge as it did in 1930, by the summer of 2009 the world economy first stabilized, then began to recover. Meanwhile, financial markets also began to normalize; by late 2009 many measures of financial stress were more or less back to pre-crisis levels.
So the world financial system and the world economy failed to implode. Why?
We shouldn’t give policy-makers all of the credit here. Much of what went right, or at least failed to go wrong, reflected institutional changes since the 1930s. Shadow banking and wholesale funding markets were deeply stressed, but deposit insurance still protected a good part of the banking system from runs. There never was much discretionary fiscal stimulus, but the automatic stabilizers associated with large welfare states kicked in, well, automatically: spending was sustained by government transfers, while disposable income was buffered by falling tax receipts.
That said, policy responses were clearly much better than they were in the 1930s. Central bankers and fiscal authorities officials rushed to shore up the financial system through a combination of emergency lending and outright bailouts; international cooperation assured that there were no sudden failures brought on by shortages of key currencies. As a result, disruption of credit markets was limited in both scope and duration. Measures of financial stress were back to pre-Lehman levels by June 2009.
Meanwhile, although fiscal stimulus was modest, peaking at about 2 per cent of GDP in the United States, during 2008–9 governments at least refrained from drastic tightening of fiscal policy, allowing automatic stabilizers—which, as I said, were far stronger than they had been in the 1930s—to work.
Overall, then, policy did a relatively adequate job of containing the crisis during its most acute phase. As Daniel Drezner argues (2012), ‘the system worked’—well enough, anyway, to avert collapse.
So far, so good. Unfortunately, once the risk of catastrophic collapse was averted, the story of policy becomes much less happy. After practising more or less Keynesian policies in the acute phase of the crisis, governments reverted to type: in much of the advanced world, fiscal policy became Hellenized, that is, every nation was warned that it could become Greece any day now unless it turned to fiscal austerity. Given the validation of Keynesian multiplier analysis, we can confidently assert that this turn to austerity contributed to the sluggishness of the recovery in the United States and the even more disappointing, stuttering pace of recovery in Europe.
Figure 1 sums up the story by comparing real GDP per capita during two episodes: Western Europe after 1929 and the EU as a whole since 2007. In the modern episode, Europe avoided the catastrophic declines of the early 1930s, but its recovery has been so slow and uneven that at this point it is tracking below its performance in the Great Depression.
Figure 1:
Slumps and recoveries in two crises, real GDP per capita, pre-crisis = 100
Note: The x-axis shows the number of years after each crisis.
Now, even as major economies turned to fiscal austerity, they turned to unconventional monetary expansion. How much did this help? The literature is confusing enough to let one believe pretty much whatever one wants to. Clearly Mario Draghi’s ‘whatever it takes’ intervention (Draghi, 2012) had a dramatic effect on markets, heading off what might have been another acute crisis, but we never did get a clear test of how well outright monetary transactions would have worked in practice, and the evidence on the effectiveness of Fed policies is even less clear.
The purpose of this paper is not, however, to evaluate the decisions of policy-makers, but rather to ask what lessons macroeconomists should and did take from events. And the main lesson from 2010 onwards was that policy-makers don’t listen to us very much, except at moments of extreme stress.
This is clearest in the case of the turn to austerity, which was not at all grounded in conventional macroeconomic models. True, policy-makers were able to find some economists telling them what they wanted to hear, but the basic Hicksian approach that did pretty well over the whole period clearly said that depressed economies near the zero lower bound should not be engaging in fiscal contraction. Never mind, they did it anyway.
Even on monetary policy, where economists ended up running central banks to a degree I believe was unprecedented, the influence of macroeconomic models was limited at best. A basic Hicksian approach suggests that monetary policy is more or less irrelevant in a liquidity trap. Refinements (Krugman, 1998; Eggertsson and Woodford, 2003) suggested that central banks might be able to gain traction by raising their inflation targets, but that never happened.
The point, then, is that policy failures after 2010 tell us relatively little about the state of macroeconomics or the ways it needs to change, other than that it would be nice if people with actual power paid more attention. Macroeconomists aren’t, however, the only researchers with that problem; ask climate scientists how it’s going in their world.
Meanwhile, however, what happened in 2008–9—or more precisely, what didn’t happen, namely utter disaster—did have an important impact on macroeconomics. For by taking enough good advice from economists to avoid catastrophe, policy-makers in turn took off what might have been severe pressure on economists to change their own views.
Why hasn’t macroeconomics been transformed by (relatively) recent events in the way it was by events in the 1930s or the 1970s? Maybe the key point to remember is that such transformations are rare in economics, or indeed in any field. ‘Science advances one funeral at a time,’ quipped Max Planck: researchers rarely change their views much in the light of experience or evidence. The 1930s and the 1970s, in which senior economists changed their minds—e.g. Lionel Robbins converting to Keynesianism, were therefore exceptional.
What made them exceptional? Each case was marked by developments that were both clearly inconsistent with widely held views and sustained enough that they couldn’t be written off as aberrations. Lionel Robbins published The Great Depression, a very classical/Austrian interpretation that prescribed a return to the gold standard, in 1934. Would he have become a Keynesian if the Depression had ended by the mid-1930s? The widespread acceptance of the natural-rate hypothesis came more easily, because it played into the neoclassical mindset, but still might not have happened as thoroughly if stagflation had been restricted to a few years in the early 1970s.
From an intellectual point of view, I’d argue, the Great Recession and aftermath bear much more resemblance to the 1979–82 Volcker double-dip recession and subsequent recovery in the United States than to either the 1930s or the 1970s. And here I can speak in part from personal recollection.
By the late 1970s the great division of macroeconomics into rival saltwater and freshwater schools had already happened, so the impact of the Volcker recession depended on which school you belonged to. But in both cases it changed remarkably few minds.
For saltwater macroeconomists, the recession and recovery came mainly as validation of their pre-existing beliefs. They believed that monetary policy has real effects, even if announced and anticipated; sure enough, monetary contraction was followed by a large real downturn. They believed that prices are sticky and inflation has a great deal of inertia, so that monetary tightening would produce a ‘clockwise spiral’ in unemployment and inflation: unemployment would eventually return to the NAIRU (non-accelerating inflation rate of unemployment) at a lower rate of inflation, but only after a transition period of high unemployment. And that’s exactly what we saw.
Freshwater economists had a harder time: Lucas-type models said that monetary contraction could cause a recession only if unanticipated, and as long as economic agents couldn’t distinguish between individual shocks and an aggregate fall in demand. None of this was a tenable description of 1979–82. But recovery came soon enough and fast enough that their worldview could, in effect, ride out the storm. (I was at one conference where a freshwater economist, questioned about current events, snapped ‘I’m not interested in the latest residual.’)
What I see in the response to 2008 and after is much the same dynamic. Half the macroeconomics profession feels mainly validated by events—correctly, I’d say, although as part of that faction I would say that, wouldn’t I? The other half should be reconsidering its views—but they should have done that 30 years ago, and this crisis, like that one, was sufficiently well-handled by policy-makers that there was no irresistible pressure for change. (Just to be clear, I’m not saying that it was well-handled in an objective sense: in my view we suffered huge, unnecessary losses of output and employment because of the premature turn to austerity. But the world avoided descending into a full 1930s-style depression, which in effect left doctrinaire economists free to continue believing what they wanted to believe.)
If all this sounds highly cynical, well, I guess it is. There’s a lot of very good research being done in macroeconomics now, much of it taking advantage of the wealth of new data provided by bad events. Our understanding of both fiscal policy and price dynamics are, I believe, greatly improved. And funerals will continue to feed intellectual progress: younger macroeconomists seem to me to be much more flexible and willing to listen to the data than their counterparts were, say, 20 years ago.
But the quick transformation of macroeconomics many hoped for almost surely isn’t about to happen, because events haven’t forced that kind of transformation. Many economists—myself included—are actually feeling pretty good about our basic understanding of macro. Many others, absent real-world catastrophe, feel free to take the blue pill and keep believing what they want to believe.
La macroeconomia dalla crisi: buona abbastanza per il lavoro dei Governi?
Di Paul Krugman
(dalla “Rivista di politica economica di Oxford”).
Sintesi
Questo saggio sostiene che quando intervenne la crisi finanziaria, le istituzioni della politica economica [1] si basarono, come loro modello di default, su una qualche versione dello hicksiano IS-LM e che i loro modelli furono ‘buoni abbastanza per i compiti dei Governi’. Mentre ci sono stati molti cambiamenti progressivi del modello DSGE, non c’è stata alcuna ‘nuova grande idea’, perché anche i più semplici modelli del genere dell’IS-LM funzionavano bene. In particolare, le risposte operative basate sullo IS-LM sono risultate appropriate. Questi modelli, in modo più specifico, hanno prodotto le intuizioni secondo le quali ampi deficit di bilancio non avrebbero spinto in alto i tassi di interesse e, nel mentre l’economia restava al limite inferiore dello zero dei tassi di interesse, quegli incrementi molto ampi della base monetaria non sarebbero stati inflazionistici, e che il moltiplicatore della spesa pubblica sarebbe stato superiore a 1. L’unica grande eccezione a questa soddisfacente comprensione è stata nel comportamento dei prezzi. Ci si aspettava che un ampio squilibrio nella produzione portasse ad una vasta caduta dell’inflazione, ma così non è stato. Se è necessaria una nuova ricerca, essa deve riguardare il comportamento dei prezzi. Se c’è stata una incapacità nel prevedere la crisi, essa non è derivata da una mancanza di comprensione del possibile meccanismo, o da una mancanza di dati, quanto piuttosto da una mancanza di attenzione ai dati giusti.
I – Introduzione
In qualche modo è sorprendente, almeno per quelli tra noi che discettano da una vita sui temi dell’economia, realizzare quanto tempo è passato dalla crisi finanziaria del 2008. In effetti, la crisi e le sue conseguenze sanno cominciando ad assumere lo status di un episodio storico emblematico, come la Stagflazione degli anni ’70 o la stessa Grande Depressione, piuttosto che quello di una esperienza recente riportata alla memoria. Colleghi più giovani talvolta mi chiedono cosa sia stata l’epoca aurea dei blog economici, soprattutto caratterizzata dai dibattiti macroeconomici, che essi ritengono appartenesse ad un periodo terminato anni orsono.
C’è tuttavia una curiosa, interessante differenza, sia tra gli economisti e che in un pubblico più ampio, tra le eredità intellettuali di quei precedenti episodi e quella che sembra essere ai giorni nostri la condizione della macroeconomia.
Ciascuno di questi precedenti episodi di crisi fu seguito da un importante ripensamento della macroeconomia e, alla fine, da un chiaro vincitore in alcune delle dispute principali. Così, la Grande Depressione portò all’economia keynesiana, che divenne l’oggetto di una contesa feroce – e tutti sapevano come queste dispute si risolsero: Keynes, oppure Keynes per come venne interpretato e filtrato da Hicks e Samuelson, vinse la contesa.
Praticamente nello stesso modo, la stagflazione condusse alla ipotesi di Friedman e Phelps sul tasso naturale – è vero che entrambi scrissero i loro saggi fondamentali prima degli anni ’70, ma le brutte notizie spinsero il loro lavoro in cima all’agenda. Tutti sapevano come, almeno fino a un certo punto, si era concluso il dibattito su quell’ipotesi: sostanzialmente tutti accettarono l’idea del tasso naturale, abbandonando l’idea di uno scambio di lungo periodo tra l’inflazione e la disoccupazione. È vero, poi la disciplina, a proposito dell’efficacia o della mancanza di efficacia delle politiche di stabilizzazione di breve periodo, si divise tra i campi delle scuola dell’ “acqua dolce” e dell’ “acqua salata” [2], uno sviluppo che penso facesse presagire qualcosa che accadde a partire dal 2008. Ma tornerò su questo aspetto.
Per il momento, consentite che mi concentri soltanto su come le diverse risposte della disciplina economica alla crisi successiva al 2008 siano derivate dalle risposte alla depressione ed alla stagflazione. In questa occasione non ci fu alcuna nuova grande idea, per non dire un’idea che abbia conquistato la disciplina economica. È vero, ci sono stati molti proclami sulle cose che i ricercatori dovrebbero o debbono fare diversamente, molti di loro rappresentati su questo numero di Oxford Review. Abbiamo bisogno di inserire al centro dei modelli gli aspetti finanziari! Abbiamo bisogno di incorporare gli ‘agenti eterogenei’! Abbiamo bisogno di incorporare una dose maggiore di economia comportamentale! E così via.
Ma mentre molte di queste idee sono molto interessanti, nessuna di esse sembra essere emersa come l’idea con la quale dobbiamo cimentarci. L’impatto intellettuale della crisi sembra proprio molto più tenue di quanto le dimensioni della crisi avrebbero indotto ad aspettarsi. Perché?
Ebbene, sono in procinto di offrire una risposta che suppongo risulterà controversa: in particolare, la macroeconomia non è cambiata così tanto perché è stata, in un duplice senso, quello che la generazione di mio padre era solita chiamare ‘buona abbastanza per il lavoro del governo’. Da una parte, i modelli di base utilizzati dai macroeconomisti, da coloro che praticano la politica economica o che la commentano frequentemente, hanno effettivamente funzionato abbastanza bene, in effetti notevolmente bene. Dall’altra la risposta politica alla crisi, se è stata gravemente difettosa in molti sensi, è stata sufficiente ad evitare un completo disastro, il che a sua volta ha permesso ai più inflessibili componenti della nostra disciplina di ignorare gli eventi in un modo che non sarebbe stato possibile negli episodi passati.
In quello che segue prendo le mosse dalle lezioni della crisi finanziaria e della Grande Recessione, che gli economisti naturalmente non avevano saputo prevedere. Poi passerò alle conseguenze, all’epoca della austerità nella finanza pubblica e della politica monetaria non ortodossa, nella quale sosterrò che la macroeconomia fondamentale, almeno in una versione, si è comportata ottimamente. Proseguirò con alcuni interrogativi che restano aperti. Infine, mi rivolgerò ai risultati della politica – e alle loro implicazioni per la disciplina economica.
II – La domanda della Regina
Quando un vero e proprio inferno si liberò nei mercati finanziari, la Regina Elisabetta II notoriamente si domandò perché nessuno l’aveva visto arrivare. Era una buona domanda – ma forse non così devastante come molti sembrano ancora pensare.
Ovviamente, molti pochi economisti avevano previsto la crisi del 2008-2009; quelli che lo fecero, con poche eccezioni che mi vengono in mente, avevano anche previsto un buon numero di altre crisi che non avvennero. E questa incapacità di vedere quello che si stava preparando non può essere messa da parte come irrilevante.
Ci sono, tuttavia, due modi diversi di prevedere che un fallimento di queste dimensioni possa aver luogo, che hanno implicazioni intellettuali molto differenti. Si consideri un esempio da un campo diverso, la meteorologia. Nel 1987 l’Ufficio Meteorologico liquidò le messe in guardia su un grave uragano che avrebbe potuto colpire l’Inghilterra: poco tempo dopo arrivò la Grande Tempesta del 1987, portando con sé distruzioni generalizzate. I meteorologi potevano trarne la lezione che la loro comprensione di fondo del maltempo era fatalmente difettosa – cosa che presumibilmente avrebbero fatto se i loro modelli avessero stabilito che una tale tempesta era addirittura impossibile. Invece, giunsero alla conclusione che mentre i modelli avevano bisogno di qualche correzione, il problema riguardava principalmente la raccolta dei dati – che la rete delle stazioni meteorologiche, delle boe di segnalazione, era stata inadeguata, lasciandoli inconsapevoli di quanto fossero negative le cose che stavano osservando.
Sotto questo aspetto, quale paragone può essere fatto con la crisi finanziaria globale? Ad essere onesti, i modelli DSGE che occupavano molto spazio sugli scaffali delle riviste specializzate, non ne avevano per cose come questa crisi. Ma i macroeconomisti che si concentravano sulle esperienze internazionali – una delle discipline delle quali mi occupo personalmente – erano molto consapevoli che crisi innescate dalla perdita della fiducia finanziaria possono effettivamente accadere, e possono essere molto gravi. La crisi finanziaria asiatica del 1997-9, in particolare, non solo ci suggeriva la comprensione che gravi recessioni del genere di quella degli anni ’30 restano possibili nel mondo moderno, ma anche una sostanziale quantità di modelli su come cose del genere possono accadere.
Dunque, l’arrivo della crisi non mise in evidenza un ritardo concettuale di fondo. Mise in evidenza seri ritardi nella raccolta dei dati? Direi di sì, in una certa misura, nel senso seguente: i dati cruciali non erano tanto mancanti, quanto sottovalutati.
Questo era particolarmente evidente sotto il profilo finanziario. Il panico e il terremoto dei mercati finanziari che ebbe inizio nel 2007 e giunse al picco dopo la caduta della Lehman, arrivò come una grande sorpresa, ma a fatica si potrebbe accusare gli economisti di essere inconsapevoli della possibilità del fenomeno degli assalti agli sportelli delle banche. Se la maggioranza di noi considerava tali assalti come improbabili o impossibili nelle moderne economie avanzate, il problema non era concettuale ma empirico: l’incapacità ad ammettere in quale misura i mutamenti istituzionali avevano reso i dati monetari convenzionali inadeguati.
Questo è chiaramente vero per gli Stati Uniti, dove i dati sul sistema bancario ombra – sul mercato dei repo [3] , sulle carte commerciali garantite da asset, etc. – erano disponibili ma in gran parte ignorati. In un modo meno evidente, gli economisti europei non avevano saputo prestare sufficiente attenzione alla crescita del prestito interbancario come fonte della finanza. In entrambi i casi i mutamenti istituzionali avevano messo a repentaglio le reti esistenti della sicurezza finanziaria, in particolare l’assicurazione sui depositi. Ma non si trattava di un profondo tema concettuale: quando la crisi esplose, sono sicuro di non essere stato l’unico economista la cui reazione non fu “Come è possibile che avvenga?”, ma piuttosto nell’urlare a me stesso “Diamond-Dybvig, idiota che non sei altro!” [4].
In un modo più sottile, gli economisti erano anche insufficientemente informati sulla crescita dei prezzi immobiliari che oggi sappiamo costituirono una notevole bolla, il cui scoppio fu al cuore della Grande Recessione. In questo caso, la crescita dei prezzi delle abitazioni era una storia inequivocabile. Ma la maggior parte degli economisti che osservavano questi prezzi si concentravano sugli aggregati generali – ad esempio, sulle medie nazionali dei prezzi delle abitazioni negli Stati Uniti. E questi aggregati, se erano in crescita sostanziale, erano ancora in un intervallo che poteva apparentemente essere compreso sulla base di fattori cha attiravano l’attenzione come i tassi di interesse. Si scoprì che il guaio era che questi aggregati mascheravano la realtà, perché mediavano i prezzi delle abitazioni in località con una offerta immobiliare elastica (ad esempio, Houston e Atlanta) con quelli nei quali l’offerta era anelastica (la Florida – oppure la Spagna): se si fosse guardato a quest’ultima chiaramente sarebbero apparsi incrementi che non potevano facilmente essere razionalizzati.
Lasciatemi aggiungere una terza specie di dati che erano disponibili ma largamente ignorati: è abbastanza considerevole che non si fece di più sulla brusca crescita del debito delle famiglie, che avrebbe dovuto suggerire che c’era qualcosa di insostenibile nella crescita del periodo 2001-2007. E all’indomani della crisi i macroeconomisti, incluso il sottoscritto (Eggertsson e Krugman, 2012), cominciarono a prendere sul serio il rapporto di indebitamento del settore privato, come probabilmente avrebbero dovuto fare in precedenza.
Dunque gli economisti ignorarono i segni di ammonimento ai quali avrebbero dovuto prestare attenzione? Sì. Un modo per sintetizzare il loro (nostro) insuccesso è che essi ignorarono le prove che il settore privato era gravato dall’essersi spinto troppo oltre su vari fronti, con gli istituti finanziari troppo vulnerabili, i prezzi immobiliari in una bolla e i debiti delle famiglie insostenibili. Ma questo fallimento nella constatazione dei fatti indica la necessità di una revisione di fondo del modo in cui facciamo macroeconomia? Questo è molto meno chiaro.
Anzitutto, il fallimento nelle previsioni era la conseguenza di un fallimento del modello economico che cui si poteva porre rimedio adottando un modello radicalmente diverso? È vero che un settore significativo sia di macroeconomisti che di economisti delle finanze era alla mercé dell’ipotesi dei mercati efficienti, credendo che l’eccesso di rischio finanziario semplicemente non poteva avvenire – o in ogni caso che poteva essere registrato solo dopo il fatto, perché i mercati sanno quello che stanno facendo meglio di qualsiasi osservatore. Ma molti macroeconomisti, specialmente nelle istituzioni della politica economica, avevano ben altre competenze del solo credere che i mercati hanno sempre ragione – particolarmente coloro che avevano studiato o si erano occupati della crisi asiatica degli anni ’90. Tuttavia essi (noi) trascurarono alcuni o tutti i segni dell’eccesso di rischio. Perché?
La mia risposta può sembrare insoddisfacente, ma credo che risponda alla verità: perché la maggior parte di quello che accadde era una conferma della vecchia battuta secondo la quale le previsioni sono difficili, in particolare quelle relative al futuro. Sono molte le cose complicate in giro nel mondo, e la capacità di una persona di seguire le tracce delle minacce potenziali è limitata. Quasi tutti neanche si accorsero della crisi asiatica in arrivo. Nello stesso modo, quante persone si preoccuparono prima del 1973 del grande disordine che investì l’offerta di petrolio? Si potrebbe continuare. In ogni dato momento tende a formarsi un complesso di indicatori ai quali guardano tutti, spinti meno dalla teoria fondamentale che da eventi recenti, e le grandi, sorprendenti crisi avvengono quasi per definizione a seguito di fattori che non erano nella lista. Se volete, è come se i meteorologi con limitate risorse concentrassero le loro risorse in luoghi che erano stati utili nel seguire passate tempeste, comportando la saltuaria sorpresa, quando la tempesta proviene da una direzione inconsueta.
Una questione diversa è se, ora che sappiamo da dove è venuta la crisi del 2008, essa indichi il bisogno di mutamenti profondi nel pensiero macroeconomico. Come ho già notato, gli assalti gli sportelli erano compresi abbastanza bene da tanto tempo; semplicemente non siamo stati capaci di osservare che stava cambiando la definizione stessa delle banche. Lo scoppio della bolla immobiliare, con i suoi effetti sugli investimenti residenziali e la ricchezza, concettualmente è stato solo uno shock negativo sulla domanda aggregata.
Il ruolo del debito delle famiglie e la obbligata riduzione del rapporto di indebitamento costituiscono una rottura maggiore per la macroeconomia convenzionale, anche in quanto avanzata dagli economisti dell’acqua salata che non avevano mai creduto ai mercati efficienti e erano consapevoli dei rischi delle crisi finanziarie. Ciò detto, nonostante l’impressionante lavoro empirico di Mian e Sufi (2011) e il mio personale impegno intellettuale sul tema, non penso che possiamo considerare di inserire il debito e il rapporto di indebitamento tra le idee fondamentalmente nuove, anziché come un miglioramento al margine.
È vero che stabilire un ruolo per il debito delle famiglie nei comportamenti di spesa rende l’equilibrio di breve termine dell’economia dipendente da un fattore variabile dello stock [5], il livello del debito. Ma questo ruolo implicito dei fattori variabili dello stock nei risultati di breve periodo non è una novità: dopo tutto, nessuno ha mai messo in dubbio il concetto che i flussi di investimento dipendono in parte dallo stock di capitale esistente, e non mi risulta che molti macroeconomisti considerino questo un tema concettualmente complesso.
Inoltre, non sono pienamente convinto che il debito delle famiglie abbia giocato un ruolo così grande nella crisi. La spesa delle famiglie è caduta così tanto di più di quello che ci si sarebbe aspettati dai semplici effetti sulla ricchezza dello scoppio della bolla immobiliare?
La mia conclusione è che l’incapacità di quasi tutti i macroeconomisti, anche della scuola dell’acqua salata, nel prevedere la crisi del 2008 sia stata simile all’insuccesso dell’Ufficio Meteorologico del 1987, un fallimento di osservazione, piuttosto che un fallimento concettuale di fondo. Neanche la crisi finanziaria o la Grande Recessione che ne è seguita, hanno richiesto un ripensamento delle idee di base.
III Non credere nelle fate (della fiducia)
Una volta che la Grande Recessione è intervenuta, il mondo avanzato si è ritrovato in una situazione che non si vedeva dagli anni ’30, ad eccezione del Giappone, con i tassi di interesse di riferimento prossimi dappertutto allo zero. Questo sollevò la questione pratica di come i Governi e le banche centrali avrebbero dovuto e potuto rispondere, sulla qual cosa tornerò in seguito. Per gli economisti, sollevò la domanda do cosa aspettarsi da quelle risposte politiche. E le previsioni che vennero fatte erano, in un certo senso, verifiche a campione dei loro modelli teorici: gli economisti non stavano cercando di riprodurre la condotta delle serie temporali storiche di aggregati dati i regimi politici storici, cercavano di prevedere gli effetti di politiche che non erano state applicate nei tempi moderni in una situazione che non si era data in precedenza nei tempi moderni.
Nel fare queste previsioni entrarono in gioco i profondi divari nella macroeconomia, deridendo coloro che si erano immaginati che il tempo avesse ristretto le differenze tra le scuole dell’acqua salata e dell’acqua dolce. Ma fatemi mettere da parte la scuola dell’acqua dolce, ancora lasciandola in sospeso per l’argomentazione successiva, e fatemi parlare della risposta dei macroeconomisti – molti dei quali formatisi al MIT e ad Harvard negli anni ’70 – che non avevano mai abbandonato il loro convincimento che una politica attiva possa essere efficace nel misurarsi con le fluttuazioni di breve periodo. Includerei in questo gruppo Ben Bernanke, Olivier Blanchard, Christina Romer, Mario Draghi e Larry Summers, tra coloro vicini alle istituzioni operative, ed una varietà di accademici e di commentatori, quali Simon Wren-Lewis, Martin Wolf, e naturalmente il sottoscritto, in ruoli di supporto.
Penso che sia corretto dire che tutti in questo gruppo entrarono nella crisi con qualche versione hicksiana dello IS-LM sulla vischiosità dei prezzi come loro approssimativo modello macroeconomico di default. Molti erano almeno in qualche modo disponibili a lavorare con modelli DSGE, forse persino considerando per vari scopi tali modelli superiori. Ma di fronte a quello che corrispondeva ad un mutamento di regime rispetto alle normali condizioni di un’economia dove i tassi di interesse non potevano scendere, essi assunsero come punto di partenza quello che l’approccio hicksiano prevedeva sulla politica in una trappola di liquidità. Ovvero, non si precipitarono a sviluppare nuove teorie, rimasero sostanzialmente attaccati ai loro modelli esistenti.
Questi modelli esistenti avanzavano almeno tre decise previsioni che erano piuttosto agli antipodi con quello che molti influenti personaggi nei mondi della politica e degli affari (seguiti da alcuni economisti) venivano dicendo.
-La prima: la macroeconomia hicksiana diceva che deficit di bilancio molto ampi, che normalmente ci si aspettava spingessero verso tassi di interesse più elevati, non avrebbero avuto tale effetto in prossimità del limite inferiore dello zero (dei tassi di interesse praticati).
-La seconda, lo stesso approccio prevedeva che persino incrementi molto ampi nella base monetaria non avrebbero portato ad una elevata inflazione, o neppure a corrispondenti incrementi nei più ampi aggregati monetari.
-La terza, questa approccio prevedeva un moltiplicatore positivo, quasi certamente maggiore di 1, dai mutamenti nella spesa pubblica e nelle tasse.
Non si trattava di concetti di senso comune. I non economisti erano quasi certi che gli ampi deficit di bilancio che gli Stati Uniti gestirono nel 2009-10 avrebbero portato ad un attacco dei “guardiani dei bond”. Molti commentatori finanziari e personaggi della politica mettevano in guardia che l’ampliamento degli equilibri patrimoniali della Fed avrebbe “svalutato il dollaro” e provocato una alta inflazione. E molti personaggi della politica e del governo economico respingevano il concetto keynesiano che spendere maggiormente avrebbe espanso l’economia, spendere di meno avrebbe portato ad una contrazione.
In effetti, se cercate un equivalente nelle vicende successive al 2008 rispetto al genere di dibattiti che imperversarono negli anni ’30 ed ancora negli anni ’70 – un conflitto tra le vecchie idee basate sul pensiero precedente alla crisi e le nuove idee ispirate dalla crisi – il vostro miglior candidato sarebbe la politica della finanza pubblica. La vecchia guardia si affidò al tradizionale concetto keynesiano secondo il quale il moltiplicatore della spesa pubblica, pur limitato in qualche modo dagli stabilizzatori automatici, era comunque superiore ad 1. Il nuovo pensiero economico che ottenne una influenza effettiva nel mondo reale durante la crisi e in seguito ad essa – contrariamente, per dirla chiaramente, al genere di concetti che trovate in questa pubblicazione – era soprattutto dedito a respingere il moltiplicatore keynesiano a favore della dottrina della austerità espansiva, l’argomento secondo il quale tagliando la spesa pubblica si sarebbe fatto posto ad ampi quantitativi di spesa privata aumentando la fiducia (Alesina e Ardagna, 2010). (L’argomento secondo il quale nascono problemi gravi quando il debito pubblico oltrepassa una soglia critica giocò anch’esso un ruolo importante nel mondo reale, ma era una pretesa osservazione empirica, piuttosto che una dottrina).
Dunque, c’è stato almeno qualcosa come un classico scontro, ispirato dalla crisi, tra vecchie stanche idee e una nuova dottrina radicale. Triste a dirsi, tuttavia, da un punto di vista empirico le vecchie idee si sono mostrate giuste, almeno nella misura in cui ogni cosa in economia può essere definita dall’esperienza, mentre le nuove idee si sono rivelate un disastro. I tassi di interesse sono rimasti bassi nonostante ampi deficit. La massiccia espansione della base monetaria non ha portato all’inflazione. E l’esperienza dell’austerità nell’area euro, assieme agli esperimenti naturali determinati da alcuni aspetti interregionali dello stimolo di Obama, hanno finito col dare sostegno al convenzionale punto di vista keynesiano sulla politica delle finanze pubbliche. Persino la grandezza del moltiplicatore adesso appare essere attorno a 1,5, che era il dato che la saggezza convenzionale suggeriva prima della crisi.
Dunque la crisi e le sue conseguenze hanno per davvero prodotto uno scontro tra nuove idee innovative e punti di vista tradizionali ampiamente radicati negli anni ’30. Ma il film non è riuscito a seguire il copione hollywoodiano: le noiose vecchie idee hanno portato in generale a previsioni accurate, sono state in sostanza convalidate in misura considerevole, mentre le nuove idee si sono dimostrate sbagliate in modo imbarazzante. In risposta alla crisi la macroeconomia non è cambiata radicalmente perché i modelli antichi, a confronto con una situazione nuova, hanno proprio funzionato bene.
IV – Il caso della deflazione perduta
Ho appena sostenuto che la mancanza di un importante ripensamento della macroeconomia, dato che la macroeconomia convenzionale, quella di pronto uso, ha funzionato ottimamente. Ma questo giudizio ottimistico deve essere precisato sotto un aspetto importante: mentre dal lato della domanda l’economia si è comportata proprio come gli economisti formatisi al MIT negli anni ’70 avevano pensato, lo stesso non è avvenuto dal lato dell’offerta.
Come ho detto, l’esperienza della stagflazione aveva efficacemente persuaso l’intera disciplina della validità dell’ipotesi del tasso naturale. Quasi tutti erano d’accordo che nel lungo periodo non c’era alcuno scambio tra inflazione e disoccupazione. La grande divisione tra le scuole dell’acqua salata e dell’acqua dolce era stata, piuttosto, se ci fossero o meno scambi di breve periodo utilizzabili.
Ma se l’ipotesi del tasso naturale era corretta, una perdurante elevata disoccupazione avrebbe dovuto portare non solo alla bassa inflazione ma ad una inflazione in continuo declino, e alla fine alla deflazione. Si può osservare un po’ di questo in alcune delle economie maggiormente depresse, in particolare in Grecia. Ma i timori della deflazione in genere non sono riusciti a materializzarsi.
Per dirla in termini leggermente diversi, persino i macroeconomisti dell’acqua salata, sono entrati nella crisi come “accelerazionisti”: si aspettavano di constatare una curva che inclinava verso il basso tra disoccupazione e tasso di cambiamento dell’inflazione. Quello che si è invece constatato, nel migliore dei casi, è stata una versione della curva di Phillips simile a quella degli anni ’60, una curva che ha inclinato verso il basso tra disoccupazione e livello dell’inflazione – e persino quella relazione appare debole.
Ovviamente, questo insuccesso empirico non è passato inosservato. In generale, coloro che tentano di spiegare il comportamento dei prezzi a partire dall’anno 2008 si sono mossi in due direzioni. Da una parte, ad esempio Blanchard (2016), invoca aspettative ‘ancorate’ di inflazione: la tesi secondo la quale, dopo un periodo di inflazione bassa e stabile, coloro che definiscono i prezzi nei vari settori dell’economia diventano insensibili alla storia recente dell’inflazione, e continuano a recepire una inflazione attorno al 2 per cento o giù di lì nelle loro decisioni anche dopo un certo numero di anni di caduta al di sotto dell’obbiettivo programmato. Dall’altra parte, ad esempio Daly e Hobijin (2014), richiamano le tesi di Tobin (1972) e di Akelrof ed altri (1996), invocano la rigidità verso il basso dei salari nominali per sostenere che l’ipotesi del tasso naturale perde di validità a bassi tassi di inflazione.
Sosterrei che queste due spiegazioni, in senso profondo, sono più simili di quanto possa sembrare a prima vista. La spiegazione delle aspettative ancorate può preservare la forma esteriore di una curva di Phillips ‘accelerazionista’, ma considera che il processo di formazione delle aspettative, per ragioni non pienamente spiegate, si modifica con bassi tassi di inflazione. La spiegazione della rigidità dei salari nominali considera che c’è una forma di illusione monetaria, in opposizione a espliciti tagli dei salari nominali, che anch’essa non è pienamente spiegata, ma diventa significativa a bassi tassi di inflazione complessivi.
Entrambe le spiegazioni sembrano indicare la necessità di una politica espansiva aggressiva quando l’inflazione è al di sotto dell’obbiettivo programmato: altrimenti c’è il rischio che le aspettative si possano disancorare verso il basso, o semplicemente che l’economia soffra di una prolungata, non necessaria fiacchezza perché la rigidità verso il basso dei salari è vincolante per troppi lavoratori.
Infine, direi che è importante riconoscere che entrambi i racconti sono spiegazioni ex post di un comportamento macroeconomico che non era generalmente previsto prima del periodo successivo al 2008. Prima del 2008, l’opinione generale persino da parte della scuola dell’acqua salata era che una inflazione stabile era un indicatore sufficiente di un’economia che operava alla sua produzione potenziale, che ogni persistente divario produttivo negativo avrebbe condotto ad una inflazione in costante declino e alla fine ad una aperta deflazione. Questo punto di vista era, di fatto, una parte fondamentale dell’argomento teorico del porre obiettivi all’inflazione alla base della politica monetaria. Se l’inflazione resterà stabile, ad esempio, all’1 per cento, in una economia persistentemente depressa, sarà assai semplice constatare come gli operatori della politica potevano darsi alti voti anche quando in realtà non erano capaci di fare il loro lavoro.
Ma se questa è una impressione soggettiva – non ho fatto una analisi statistica della recente letteratura – sembra che sorprendentemente poche richieste di una riformulazione di fondo della macroeconomia si siano concentrate sull’area nella quale la macroeconomia del passato ha avuto, di fatto, prestazioni negative successivamente alla crisi.
Ci sono state, ad esempio, molte richieste per rendere il settore finanziario e le frizioni finanziarie molto più organiche ai nostri modelli di quanto siano, che è una tesi ragionevole da sostenere. Ma la loro assenza nei modelli DSGE non è stata all’origine di alcun importante fallimento previsionale. C’è stato un coro paragonabile di richieste per un ripensamento del processo inflattivo, e per una riconsiderazione dell’ipotesi del tasso naturale? Naturalmente ci sono stati alcuni saggi lungo queste linee, ma nessuno di essi ha affettivamente avuto un’eco nella disciplina.
Perché no? Essendo uno che è maturato nell’attività accademica proprio quando il divario tra le scuole dell’acqua salata e dell’acqua dolce si stava aprendo, penso di poter offrire una intuizione ancora pertinente: comprendere i meccanismi della fissazione dei salari e dei prezzi è difficile – fondamentalmente non è proprio agevole con gli strumenti che noi economisti abbiamo nel nostro armamentario. Noi prendiamo le mosse dai comportamenti razionali e dall’equilibrio di mercato come un punto di partenza, e cerchiamo di comprendere le disfunzioni economiche modificando leggermente i confini di quel punto di partenza; questo approccio ha generato in molte aree grandi intuizioni, ma i salari e i prezzi non sono tra tali aree.
Si considerino gli indirizzi seguiti dalle due scuole della macroeconomia. La teoria dell’acqua dolce cominciò con l’assunto che coloro che fissavano i salari e i prezzi sfruttavano con la massima razionalità le informazioni, ma queste erano imperfette e questa inadeguatezza delle informazioni spiegava gli effetti apparentemente reali degli shock nominali. Ma questo approccio divenne evidentemente indifendibile nei primi anni ’80, quando l’inflazione calò solo gradualmente nonostante una disoccupazione massiccia. E dunque?
Una strada possibile sarebbe stata metter da parte l’assunto del comportamento pienamente razionale, la quale fondamentalmente fu la risposta dei neo keynesiani. Per la massima parte, tuttavia, coloro che avevano creduto nei modelli del genere di Lucas scelsero di aggrapparsi al massimo sfruttamento del modello, che era l’economia come loro sapevano farla, nonostante i tentativi delle statistiche di dir loro che era sbagliata. Consentitemi di dirlo senza peli sulla lingua: la teoria del ciclo economico reale è sempre stata niente di più che una impresa assurda (forse peggio ancora), un tentativo disperato di difendere un capitale intellettuale a fronte della realtà.
Ma neanche l’alternativa neo keynesiana, seppure assai migliore, era particolarmente soddisfacente. Modellatori intelligenti misero in evidenza che a fronte di una competizione imperfetta i costi aggregati delle deviazioni da una fissazione dei prezzi perfettamente razionale avrebbero potuto essere molto più ampi dei costi individuali. Di conseguenza, i costi di un piccolo assortimento o un po’ di addomesticata razionalità sarebbero stati coerenti con la diffusa vischiosità dei prezzi e dei salari.
Ancora senza peli sulla lingua, tuttavia, in pratica questa intuizione serviva come una scusa piuttosto che come base di una comprensione profonda. I prezzi vischiosi potevano essere resi appena rispettabili consentendo ai modellatori di mettere nel conto qualcosa come una definizione dei prezzi per un periodo successivo, inoltre consentendo che modelli, che erano altrimenti basati sulla razionalità e sull’equilibrio, non fossero troppo incoerenti con l’osservazione del mondo reale. La modellazione neo keynesiana operava dunque come una clausola di recesso, piuttosto che come un mattone fondativo.
Ma questa clausola di recesso è sufficientemente adatta a spiegare l’incapacità della deflazione a manifestarsi nonostante svariati anni di disoccupazione molto elevata? Probabilmente no. E tuttavia manchiamo ancora di una spiegazione alternativa convincente, in sostanza di una grande idea di qualche genere. In un certo senso, il comportamento dei salari e dei prezzi in una economia depressa sembra essere un oggetto per il quale i nostri strumenti intellettuali sono poco calzanti.
L’aspetto positivo è che se semplicemente si assumeva che i prezzi ed i salari sono rigidi, appellandosi all’esperienza degli anni ’30 e al Giappone degli anni ’90, funzionava ragionevolmente bene su altri fronti.
Dunque, la mia tesi è che la macroeconomia funzionò piuttosto bene dopo la crisi ha bisogno di essere precisata per quello che sembra un notevole fallimento nella nostra comprensione della dinamica dei prezzi – ma questo fallimento non fece molto danno nel dar luogo a consigli negativi, e non portò a nuove grandi idee perché non sembra che su questo nessuno abbia buone idee da offrire.
V – Il sistema in un certo senso ha funzionato
Nel 2009 Barry Eichengreen e Kevin O’Rourke fecero clamore con un confronto di dati tra la recessione globale e i primi stadi della Grande Depressione: mostrarono che nel tempo in cui scrivevano l’economia mondiale era di fatto abbastanza sulle tracce dell’implosione che era stata all’origine del famoso saggio di Keynes ‘Il grande crollo del 1930’ (Eichengreen e O’Rourke, 2009).
Aggiornamenti successivi, tuttavia, raccontarono una storia diversa. Invece di continuare a precipitare come aveva fatto nel 1930, con l’estate del 2009 l’economia mondiale anzitutto si stabilizzò, poi cominciò a riprendersi. Nel frattempo, anche i mercati finanziari cominciarono a normalizzarsi: con l’ultima parte del 2009 molte misure di sofferenza finanziaria erano più o meno tornate ai livelli precedenti alla crisi.
Dunque, il sistema finanziario e l’economia mondiale non implosero. Perché?
In questo caso, non dovremmo dare agli operatori della politica economica tutto il merito. Molto di quello che funzionò, o che almeno non andò storto, rifletteva i mutamenti istituzionali che si determinarono con gli anni ’30. Il sistema bancario ombra e l’insieme dei mercati di finanziamento furono in profonda sofferenza, ma l’assicurazione sui depositi continuò a proteggere il sistema finanziario dagli assalti agli sportelli. Non ci fu mai uno stimolo discrezionale delle finanze pubbliche, ma gli stabilizzatori automatici associati con ampi stati assistenziali ebbero il loro effetto, appunto, in modo automatico: la spesa venne sostenuta dai trasferimenti pubblici, mentre il reddito disponibile venne attutito dalla caduta delle entrate fiscali.
Ciò detto, la risposta della politica economica fu chiaramente molto migliore di quello che era stato negli anni ’30. I dirigenti delle banche centrali e delle autorità finanziarie pubbliche si precipitarono a puntellare il sistema finanziario attraverso una combinazione di prestiti di emergenza e di veri e propri salvataggi; la cooperazione internazionale assicurò che non ci fossero improvvisi fallimenti provocati dalla scarsità delle valute fondamentali. Di conseguenza, la turbolenza sui mercati del credito fu limitata sia nelle dimensioni che nella durata. Le misure delle sofferenze finanziarie, col giugno del 2009, tornarono ai livelli precedenti alla Lehman.
Nel frattempo, nonostante che lo stimolo della finanza pubblica fosse modesto, raggiungendo un massimo del 2 per cento del PIL negli Stati Uniti, durante il 2008-2009 almeno i Governi si astennero da drastiche restrizioni della politica della finanza pubblica, consentendo agli stabilizzatori automatici – che, come ho detto, furono assai più forti di quanto erano stati negli anni ’30 – di funzionare.
Soprattutto, poi, la politica fece un lavoro relativamente adeguato di contenimento della crisi durante la sua fase più acuta. Come Daniel Drezner sostenne (2012) ‘il sistema funzionò’ – in ogni caso, in modo sufficiente da evitare il collasso.
Sin qua tutto bene. Sfortunatamente, una volta che fu evitato il rischio di un collasso catastrofico, la storia della politica cominciò ad essere assai meno felice. Dopo aver praticato politiche più o meno keynesiane nella fase acuta della crisi, i Governi tornarono sui loro passi: in gran parte del mondo avanzato, la politica della finanza pubblica si ellenizzò, ovvero ogni nazione venne messa in guardia che poteva diventare come la Grecia da un momento all’altro, se non passava alla austerità finanziaria. Data la convalida della analisi keynesiana del moltiplicatore, possiamo con sicurezza asserire che questo passaggio all’austerità contribuì alla fiacchezza della ripresa negli Stati Uniti e al persino più deludente, balbettante ritmo della ripresa in Europa.
La Figura 1 ricapitola quella storia confrontando il PIL reale procapite durante due episodi: l’Europa Occidentale dopo il 1929 e l’Unione Europea nel suo complesso a partire dal 2007. Nell’episodio moderno, l’Europa evitò i declini catastrofici dei primi anni ’30, ma la sua ripresa fu così lenta e ineguale che a questo punto essa sta proseguendo al di sotto della sua prestazione nella Grande Depressione.
Figura 1
Recessioni e riprese in due crisi, PIL reale procapite, situazione prima della crisi = 100. L’asse orizzontale mostra il numero degli anni dopo ciascuna crisi.
Ora, persino quando le economie più importanti si volsero all’austerità della finanza pubblica, esse ricorsero ad una espansione monetaria non convenzionale. Quanto fu utile? La letteratura è sufficientemente confusa da consentire di credere praticamente a quello che si vuole. Chiaramente, l’intervento di Mario Draghi denominato ‘tutto quello che serve’ (Draghi, 2012) ha avuto un effetto spettacolare sui mercati, dirottando quella che avrebbe potuto essere un’altra crisi acuta, ma non abbiamo mai avuto una prova chiara di quanto avrebbero interamente bene operato le transazioni monetarie, e la prova della efficacia della Fed è anche meno chiara.
Tuttavia, lo scopo di questo saggio non è una valutazione delle decisioni degli operatori della politica economica, semmai è quello di chiedere quali lezioni i macroeconomisti avrebbero dovuto trarre dagli eventi. E la principale lezione dal 2010 in avanti fu che gli operatori della politica economica non ci ascoltarono granché, eccetto nei momenti di estrema tensione.
Questo fu massimamente chiaro nel caso del passaggio all’austerità, che non era affatto basato su modelli macroeconomici convenzionali. È vero, gli operatori della politica economica riuscirono a trovare qualche economista che raccontò loro quello che volevano sentirsi dire, ma l’approccio di base hicksiano che aveva funzionato abbastanza bene durante l’intero periodo diceva che economie depresse vicine al limite inferiore dello zero (nei tassi di interesse) non avrebbero dovuto impegnarsi in contrazioni della finanza pubblica. Ma tant’è, lo fecero lo stesso.
Persino sulla politica monetaria, laddove gli economisti finirono per gestire le banche centrali in un grado che credo sia stato senza precedenti, l’influenza dei modelli macroeconomici rimase nel migliore dei casi limitata. Un approccio di base hicksiano suggerisce che la politica monetaria è più o meno irrilevante in una trappola di liquidità. Alcuni affinamenti (Krugman 1998; Eggertsson e Woodford, 2003) indicarono che le banche centrali potevano essere capaci di guadagnare forza di trazione elevando i loro obbiettivi di inflazione, ma ciò non accadde mai.
Il punto, allora, è che i fallimenti nella gestione economica ci dicono relativamente poco sulle condizioni della macroeconomia o sui modi nei quali essa necessita un cambiamento, sennonché sarebbe bene che la gente con un potere affettivo prestasse più attenzione. I macroeconomisti, tuttavia, non sono gli unici ricercatori con quel problema: chiedete agli scienziati del clima come sta andando dalle loro parti.
Nel frattempo, tuttavia, quello che accadde nel 2008-9 – o più precisamente, quello che non accadde, vale a dire un completo disastro – ha avuto un impatto importante sulla macroeconomia. Perché accettando consigli abbastanza utili dagli economisti per evitare la catastrofe, i gestori della politica economica a loro volta si sono spogliati di quella che poteva essere una grave pressione sugli economisti perché cambiassero i loro punti di vista.
VI – Cosa mostrano gli anni ’80
Perché la macroeconomia non è stata trasformata da eventi (relativamente) recenti nel modo in cui fu trasformata dagli eventi degli anni ’30 o ’70? Forse l’aspetto fondamentale da tenere a mente è che tali trasformazioni sono rare nell’economia, come del resto in ogni disciplina. “La scienza progredisce con un funerale alla volta”, secondo la battuta di Max Planck: i ricercatori cambiano raramente i loro punti di vista, soprattutto alla luce dell’esperienza o delle prove. Di conseguenza gli anni ’30 e ’70, durante i quali esperti economisti modificarono le loro opinioni – ad esempio Lionel Robbins, che si convertì al keynesismo – furono eccezionali.
Cosa li rese eccezionali? Entrambi i casi furono segnati da sviluppi che erano sia chiaramente incoerenti con punti di vista generalmente condivisi, che sufficientemente prolungati da non poter essere ascritti ad aberrazioni. Lionel Robbins pubblicò La Grande Depressione, una interpretazione molto ispirata alla classica scuola austriaca che nel 1934 prescriveva un ritorno al gold standard. Sarebbe diventato keynesiano se la depressione fosse terminata alla metà degli anni ’30? La generale accettazione dell’ipotesi del tasso naturale venne più facilmente, ma anche quella poteva non essere stata così diffusa se la stagflazione fosse stata limitata a pochi anni, agli inizi del decennio del 1970.
Da un punto di vista intellettuale, direi che la Grande Recessione e le sue conseguenze hanno molta più somiglianza con la recessione a due cifre di Volcker nel 1979-82 e la successiva ripresa negli Stati Uniti, che non con gli anni ’30 e ’70. E in questo caso posso parlare sulla base di ricordi personali.
Sulla fine degli anni ’70, la grande divisione nella macroeconomia tra le scuole rivali dell’acqua salata e dell’acqua dolce era già avvenuta, cosicché l’impatto della recessione di Volcker dipese dalla scuola alla quale si apparteneva. Ma in entrambi i casi essa modificò considerevolmente poche mentalità.
Per gli economisti dell’acqua salata la recessione e la ripresa intervennero principalmente come una convalida dei loro convincimenti preesistenti. Essi credevano che la politica monetaria avesse effetti reali, anche se annunciati e anticipati: come previsto, la contrazione monetaria venne seguita da un declino reale vasto. Essi credevano che i prezzi fossero relativamente rigidi e l’inflazione avesse una grande misura di inerzia, cosicché la restrizione monetaria avrebbe prodotto una ‘spirale in senso orario’ nella disoccupazione e nell’inflazione: la disoccupazione sarebbe alla fine tornata al livello del NAIRU (tasso di disoccupazione che non accelera l’inflazione) con un tasso di inflazione più basso, ma soltanto dopo un periodo di transizione caratterizzato da elevata disoccupazione. E questo è quanto effettivamente constatammo.
Gli economisti dell’acqua dolce ebbero maggiori difficoltà: i modelli del genere di quello di Lucas dicevano che la contrazione monetaria avrebbe provocato una recessione solo se non anticipata, e per il periodo in cui gli agenti economici non riuscivano a distinguere tra shock individuali e una caduta aggregata della domanda. Niente di questo rappresentò una descrizione sostenibile di quanto accadde tra il 1979 e il 1982. Ma la ripresa intervenne abbastanza presto e con sufficiente velocità perché la loro concezione del mondo potesse, in effetti, superare la tempesta (assistetti ad una conferenza nella quale un economista dell’acqua dolce, interrogato sugli eventi recenti, se ne uscì con la battuta “Non sono interessato agli ultimissimi fatti residuali”).
Quello che osservo nella risposta al 2008 e anni successivi ha molto la stessa dinamica. Metà della disciplina macroeconomica si sente principalmente confermata dagli eventi – correttamente, direi, sebbene lo direi facendo parte di quella fazione, non dovrei farlo? L’altra metà dovrebbe riconsiderare i suoi punti di vista – ma essi avrebbero dovuto farlo 30 anni prima, e questa crisi, come quella precedente, è stata sufficientemente ben gestita dagli operatori della politica economica, al punto che non c’è stata alcuna spinta irresistibile al cambiamento (per maggiore chiarezza, non sto dicendo che è stata ben gestita in senso soggettivo: secondo la mia opinione abbiamo sofferto vaste perdite non necessarie di produzione e di occupazione a causa della prematura scelta dell’austerità. Ma il mondo ha evitato di finire in una recessione piena come negli anni ’30, il che in effetti lascia gli economisti dottrinari liberi di continuare a credere in quello che volevano credere).
Se tutto questo appare un po’ troppo cinico, ebbene, suppongo che dipenda dal fatto che lo è. In questo momento vengono fatte una gran quantità di ottime ricerche in macroeconomia, molte delle quali traggono vantaggio dalla ricchezza dei nuovi dati forniti dagli eventi negativi. La nostra comprensione sia della politica della finanza pubblica che delle dinamiche dei prezzi, credo che siano assai migliorate. E i funerali continueranno ad alimentare il progresso intellettuale: i macroeconomisti più giovani mi sembrano molto più flessibili e disposti ad ascoltare dei loro omologhi, diciamo, di 20 anni orsono.
Ma la rapida trasformazione della macroeconomia che molti davano quasi per sicura non è destinata ad avvenire, perché gli eventi non hanno costretto ad una trasformazione di questo genere. Molti economisti – incluso il sottoscritto – si sentono abbastanza a loro agio per la nostra comprensione di fondo della macro. Molti altri, in mancanza di una catastrofe del mondo reale, si sentono liberi di prendere la pillola blu [6] e di continuare a credere in quello che vogliono credere.
[1] Il termine ‘policy-maker’ non può essere tradotto genericamente con ‘operatori della politica’ (includendo il ruolo, ad esempio, di governanti, congressisti o parlamentari). I quali normalmente non hanno alcuna idea dei modelli dei “Modelli stocastici dinamici dell’equilibrio generale” (DSGE), ovvero dei modelli economici neo keynesiani. Il punto che “policy” è, nel linguaggio anglosassone, la politica operativa, il governo reale dei grandi aggregati sociali ed economici; cosa diversa da “politics”, che è la politica delle relazioni politiche, delle assemblee e dei partiti. Si riferisce frequentemente, dunque, alle istituzioni operative – in particolare alle banche centrali.
[2] Vedi sulle Note della Traduzione alla voce “freshwater and saltwater economists”.
[3] (repurchase agreement) Contratto fra due soggetti («accordo di riacquisto»), più noto nella terminologia finanziaria come pronti contro termine (➔), dove un soggetto A vende all’altro B, un titolo contro pagamento in contanti (operazione a pronti), impegnandosi a riacquistarlo a un prezzo prefissato a una certa scadenza futura (operazione a termine).
[4] l modello di Diamond-Dybvig (1983) è un modello teorico che si propone di spiegare le modalità attraverso cui si determina un fenomeno di run bancario (corsa agli sportelli), fornendo al contempo una rappresentazione teorica del meccanismo attraverso cui le banche creano liquidità. Il modello rappresenta ad oggi il punto di riferimento teorico per la spiegazione dei fenomeni considerati, e non a caso di esso sono state proposte varie riformulazioni successive.
[5] Conservo nella traduzione il termine ‘stock’ – riserva, scorte – perché normalmente in economia si ricorre a questa distinzione fondamentale tra stock e flussi. Uno stock si riferisce al valore di un bene ad una data di saldo (o momento), mentre un flusso si riferisce al valore totale delle operazioni (vendite o acquisti, entrate o uscite) durante un periodo contabile. Il livello del debito è evidentemente un ‘fattore di stock’, anche se il debito ovviamente deve essere restituito. Mi pare intuibile in quale senso tale variabile complichi la pretesa della completa onniscienza dei mercati.
[6] Suppongo che derivi dal film di fantascienza Matrix (1999), in una scena del quale un protagonista (Morpheus) presenta due pillole, una blu ed una rossa. La prima agisce nel senso di convalidare il proprio mondo dei sogni.
By mm
E' possibile commentare l'articolo nell'area "Commenti del Mese"