The General Theory of Employment, Interest and Money (Keynes 1936) is sometimes credited with creating modern macroeconomics. Today that observation appears highly questionable for two reasons. The first relates to policy. We have once again found ourselves in a global liquidity trap of just the kind that The General Theory was designed to explain and avoid. Yet policy-makers have prolonged that liquidity trap by doing precisely the opposite of what The General Theory recommended. Can anyone doubt that Keynes would be turning in his grave seeing the current obsession with fiscal austerity?
There is of course nothing that compels policy-makers to base their decisions on macroeconomic theory, and a large part of what is currently going on may just be politicians using populist analogies between state and household budgets to achieve goals to do with the size of the state. Yet we have to ask whether they would be able to get away with that if macroeconomists were united in their opposition to fiscal austerity. Instead, the economics profession appears much more divided. This in turn reflects the second reason why the importance of The General Theory to modern macroeconomics might be questioned. The reality is that most academic macroeconomists no longer regard The General Theory as the defining text of their discipline. If they had to name one, they might be more likely to choose one of the seminal texts of the New Classical revolution: Lucas and Sargent (1979), which is aptly titled ‘After Keynesian Macroeconomics’.
Much discussion of current divisions within macroeconomics focuses on the ‘saltwater/freshwater’ divide. This understates the importance of the New Classical Counter Revolution (hereafter NCCR). It may be more helpful to think about the NCCR as involving two strands. The one most commonly talked about involves Keynesian monetary and fiscal policy. That is of course very important, and plays a role in the policy reaction to the recent Great Recession. However I want to suggest that in some ways the second strand, which was methodological, is more important. The NCCR helped completely change the way academic macroeconomics is done.
Before the NCCR, macroeconomics was an intensely empirical discipline: something made possible by the developments in statistics and econometrics inspired by The General Theory. After the NCCR and its emphasis on microfoundations, it became much more deductive. As Hoover (2001, p. 72) writes, ‘[t]he conviction that macroeconomics must possess microfoundations has changed the face of the discipline in the last quarter century’. In terms of this second strand, the NCCR was triumphant and remains largely unchallenged within mainstream academic macroeconomics.
To understand the position of The General Theory today, and why so many policy-makers felt they had to go back to it to understand the Great Recession, we need to understand the NCCR, and why it was so successful.
One explanation, which I consider in Section 2, could be summed up in Harold Macmillan‘s phrase ‘events, dear boy, events’. Just as the inability of economists to understand the Great Depression gave rise to The General Theory and the Keynesian consensus that followed, the Great Inflation of the 1960s and 1970s undermined that Keynesian consensus. The suggestion is that the NCCR was a response to the empirical failure of the Keynesian consensus. I will argue instead that the NCCR was primarily driven by ideas rather than events.
Section 3 considers the methodological revolution brought about by the NCCR and the microfoundations research strategy that it championed. Section 4 argues that this research methodology weakened the ability of macroeconomics to respond to the financial crisis and the Great Recession that followed. Although microfounded macroeconomic models are quite capable of examining financial and real economy interactions, and there is a huge amount of recent work, it is important to ask why so little was done before the crisis. I will suggest that a focus on explaining only partial properties of the data and an obsession with internal consistency are partly to blame, and this focus comes straight from the methodology.
Many economists involved with policy have commented that they found texts written prior to the NCCR, like The General Theory, or texts written by those outside the post-NCCR mainstream, more helpful during the crisis than mainstream macroeconomics based on microfounded models. Does that mean that macroeconomics needs to discard the innovations brought about by the NCCR, just as that revolution wanted to discard so much of Keynesian economics? In Section 5 I argue that that would make exactly the same mistake as the NCCR made. We do not need a discipline punctuated by periodic revolutions. The mistake that the discipline made in the 1980s and 1990s was to cast aside, rather than supplement, older ways of doing things. As experience in the UK shows, it is quite possible for microfounded modelling to coexist with other ways of modelling and estimation, and furthermore that different approaches can learn from each other.
There is a widely held view of macroeconomic revolutions that goes as follows. The General Theory arose out of the failure of the then mainstream economic view (classical economics) to explain the Great Depression (persistently high involuntary unemployment). The New Classical Counter Revolution (NCCR) arose out of the failure of the mainstream (by then Keynesian macro) to explain the Great Inflation and stagflation (high unemployment and inflation). Some have used this logic to suggest the global financial crisis might spur another revolution.
There is a major problem with this view. Whereas the Keynesian revolution explained why the Great Depression happened (as a failure of aggregate demand), the NCCR did not explain stagflation. What subsequently explained stagflation came from within the existing Keynesian paradigm: a combination of Friedman’s vertical long-run Phillips curve and the reluctance of governments and central banks to use policy to raise unemployment sufficiently to control inflation. In contrast, the Real Business Cycle models that were the initial result of the NCCR had no explanation of inflation at all beyond naive neutrality.
We can set this out more formally as follows. A standard account of scientific revolutions can be simplified to the following sequence:
The Keynesian revolution fits this standard account: ‘A’ is classical theory, ‘Y’ is the Great Depression, ‘B’ is Keynesian theory. Does the NCCR also fit, with Y being stagflation? As we shall note below, Lucas and Sargent (1979) do talk about the failure of Keynesian theory to account for stagflation, but what is absent from their account is how their alternative approach will be more successful in doing so. Put simply, in the NCCR stages 3 and 4 appear to be absent, but nevertheless stage 5 happened.
For stage 3, traditional Keynesian theory could and subsequently did account for stagflation. The way it did this is usually associated with Friedman’s 1968 presidential address, or with Phelps, although as Forder (2014) points out the need to augment the Phillips curve with a term in expected inflation was not an insight unique to these two authors. He also shows that the idea that policy-makers had previously been working with a non-inflation augmented Phillips curve in the belief that they could get lower unemployment at the cost of only a small permanent increase in inflation seems to be largely a myth.
Lakatos (1970) talks about progressive and degenerate responses of a dominant theory to new events, but I think Zinn (2013) argues convincingly that changes to Keynesian theory to account for stagflation were progressive. For example, Tobin (1980) contains a clear account of how a restrictive monetary policy could reduce inflation without permanently raising unemployment using the NAIRU concept. I would argue that this adaptation was still empirically inadequate and further progress needed rational expectations, but as I note below it is perfectly possible to incorporate rational expectations within the traditional Keynesian framework. The idea of the long-run vertical Phillips curve came from thinking about microeconomic theory, but innovations in traditional Keynesian macroeconomics had always come from an eclectic mixture of microeconomic theory and evidence, as Fair (2012) points out.
More critically, stage 4 did not happen: New Classical models were not able to explain the behaviour of output and inflation in the 1970s and 1980s, let alone the Great Depression. In the contest to explain stagflation, traditional theory adapted in a progressive way beat the newcomer hands down. So, according to the standard account, the NCCR should have been a revolution that was very quickly seen to fail. Yet the opposite is the case.
To understand why, we just need to study what could be regarded as the seminal text of the NCCR: Lucas and Sargent (1979 – hereafter LS), aptly titled ‘After Keynesian Macroeconomics’. The article itself is both clear and well argued. Any macroeconomist under the age of 50 will probably recognise much of this discussion as what they were taught as part of the macroeconomics postgraduate course.
LS start their article with references to stagflation and the failure of Keynesian theory. A fundamental rethink is required. What follows next is crucial. If the Counter Revolution was all about stagflation, we might expect an account of why conventional theory failed to predict stagflation: the equivalent, perhaps, to the discussion of classical theory in The General Theory. Instead we get something much more general: a discussion of why identification restrictions typically imposed in the Structural Econometric Models (SEMs) 1 of the time are incredible from a theoretical point of view, and an outline of the Lucas critique. The essential criticism in LS is methodological: the way empirical macroeconomics has been done since Keynes is flawed.
Using this critique, LS argue that traditional SEMs cannot be trusted as a guide for policy. Only in one paragraph do LS try to link this general critique to stagflation:
Though not, of course, designed as such by anyone, macroeconometric models were subjected to a decisive test in the 1970s. A key element in all Keynesian models is a trade-off between inflation and real output: the higher is the inflation rate, the higher is output (or equivalently, the lower is the rate of unemployment). For example, the models of the late 1960s predicted a sustained U.S. unemployment rate of 4% as consistent with a 4% annual rate of inflation. Based on this prediction, many economists at that time urged a deliberate policy of inflation. Certainly the erratic ‘fits and starts’ character of actual U.S. policy in the 1970s cannot be attributed to recommendations based on Keynesian models, but the inflationary bias on average of monetary and fiscal policy in this period should, according to all of these models, have produced the lowest unemployment rates for any decade since the 1940s. In fact, as we know, they produced the highest unemployment rates since the 1930s. This was econometric failure on a grand scale. (Lucas and Sargent 1979, p. 56)
There is no attempt to link this stagflation failure to the identification problems discussed earlier in their text. Indeed, they go on to say that they recognise that particular empirical failures (by inference, like stagflation) might be solved by changes to particular equations within traditional econometric models. Of course that is exactly what mainstream macroeconomics was doing at the time, with the expectations augmented Phillips curve.
This is why LS (ibid., p. 57) go on to say: ‘We have couched our criticisms in such general terms precisely to emphasise their generic character and hence the futility of pursuing minor variations within this general framework’. The rest of the article is about how, given additions like a Lucas supply curve, classical ‘equilibrium’ analysis may be able to explain the ‘facts’ about output and unemployment that Keynes thought classical economics was incapable of doing. It is not about how these models are, or even might be, better able than traditional Keynesian analysis to explain the particular problem of stagflation.
In their conclusion, LS (ibid., p. 69) summarise their argument:
First, and most important, existing Keynesian macroeconometric models are incapable of providing reliable guidance in formulating monetary, fiscal and other types of policy. This conclusion is based in part on the spectacular recent failures of these models, and in part on their lack of a sound theoretical or econometric basis.
Reading the paper as a whole, I think it would be fair to say that these two parts were not equal. The focus of the paper is about the lack of a sound theoretical or econometric basis for traditional Keynesian structural econometric models, rather than the failure to predict or explain stagflation.
Trying to see the NCCR as being primarily inspired by empirical events fails to understand both the nature of that revolution and also why it was so successful. It may also inspire false hopes among some who believe that the global financial crisis must lead to a new revolution in macroeconomic thought and practice.
Although the NCCR used the failure at the time to control inflation as useful ammunition, the revolution itself was about ideas that had little to do with that empirical failure. There was one idea in particular that was central to their critique, and that was rational expectations. Rational expectations were used in what can be seen as two strands of the NCCR: an attack on Keynesian theory and policy, and an attack on the methodology of macroeconomic analysis. From the perspective of today, the first strand of the revolution was ultimately unsuccessful, but the second strand was triumphant.
As there are still some macroeconomists who argue against rational expectations, it is important to understand why the concept was so appealing to the new generation of macroeconomists in the 1980s. It was not because rational expectations performed better empirically. Instead the attraction was theoretical. Rational expectations is about the optimal use of information in the formation of expectations. In microeconomic theory optimisation is standard: utility maximisation, profit maximisation, etc. Rational expectations just apply the same logic to an agent‘s forecasting. It is as natural a starting point as profit or utility maximisation. Of course, you could argue that in particular cases information is costly, or processing it is costly, but you could equally argue that it is unrealistic for firms to know their demand curve when maximising profits. Lucas (1987) described rational expectations as a ‘consistency axiom’, and to most students studying micro as well as macro theory that is exactly what it appeared to be.
In practice macroeconomists building models were faced with a binary choice: assume rational expectations or some form of adaptive expectations. To continue to choose the latter treated agents as naive, on a par with assuming that price mark-ups on average costs are forever fixed, or the marginal propensity to consume from current income was always constant. Critically, it was inconsistent with how microeconomic theory typically treated agents when they made other decisions. Of course, in reality agents did not know the true model but instead learnt about it, and so a large literature on learning developed, to which Sargent has been a major contributor. The drawbacks of assuming adaptive expectations were vividly exposed when rational expectations were added to a traditional Phillips curve.
As we have already noted, stagflation could be explained by ideas already within mainstream Keynesian analysis: an expectations augmented Phillips curve which was vertical in the long run. In that Phillips curve, inflation at time t depends on expectations of inflation at time t, and the deviation of unemployment/output from its natural rate. This formulation was widely used, not just in large-scale econometric models but also in smaller analytical models used by macroeconomic theorists. If you wanted a version of the Keynesian model that had something to say about inflation (and by the 1970s most people did) this was the model to which most people turned.
Before the NCCR, expected inflation was proxied by some combination of past inflation rates. If instead you use rational expectations, it is easy to show that deviations from the natural rate are random. If that is the case, Keynesian economics becomes irrelevant. It was no wonder that many Keynesian macroeconomists at the time saw rational expectations (and therefore all things New Classical) as an existential threat. For a time the New Classical attack on the traditional Keynesian model seemed fatal.
What we now know is that the problem lay not with rational expectations or Keynesian economics, but with the traditional Phillips curve. If you replace expectations of inflation at time t by expectations of inflation at time t + 1, as is done in the New Keynesian Phillips curve, then with rational expectations deviations from the natural rate are no longer random, but can follow a persistence that has to be at the heart of any business cycle theory. If you try to derive a Phillips curve formally using microeconomic theory, then invariably it is expected inflation one period ahead, not expectations of current inflation, that should appear in the Phillips curve.
As a result, although the NCCR led some to briefly announce the death of Keynesian economics, over the next two decades a body of analysis was developed under the umbrella of New Keynesian theory that demonstrated that the basic insight in The General Theory about the importance of aggregate demand in driving business cycles is quite compatible with rational expectations, and for that matter other theoretical developments brought in by the NCCR. Indeed, for most of those interested in monetary policy, New Keynesian economics became the dominant mainstream view, leading some in the early 2000s to announce a new consensus in macroeconomics. That proved a little premature, but it certainly reflected the view of economists working within and with central banks.
New Keynesian theory essentially involves incorporating price stickiness into the Real Business Cycle (RBC) models that the NCCR had inspired. So New Keynesian models typically assume rational expectations and a consumption Euler equation based on intertemporal optimisation by consumers. More importantly, New Keynesian models are claimed to be as microfounded as RBC models. In other words, they follow the methodology outlined by LS. This development is sometimes described as New Keynesian economists being forced to dress Keynesian ideas in New Classical clothes to enable their work to be accepted. While that might be true in some cases, it is probably misleading in most. New Keynesian economists adopted the methodology they did because they thought it was the right way to proceed.
This shows us that, although the NCCR revolution failed in ending Keynesian analysis, it succeeded in fundamentally changing the way academic macroeconomics is done. Once again rational expectations was crucial. To see why, we need to recall how academic macroeconomists typically plied their trade in the 1970s. A large body of work involved mostly single equation time series econometric estimation of aggregate equations for key relationships like consumption, investment and inflation. These estimated equations were the building blocks for a small number of large-scale econometric models (often called structural econometric models, or SEMs), sometimes maintained by policy-makers or private sector forecasters, and occasionally by academics. (For an example of a SEM maintained by an academic, see Fair 2012). Theoretical analysis of macroeconomic systems typically involved analysing small models involving aggregate relationships, where the individual equations were justified using an eclectic mixture of reference to this econometric work and (sometimes informal) appeals to theory. A seminal example is Blinder and Solow (1973).
The main focus of LS was an attack on SEMs. What became known as the Lucas critique showed that these models, by failing to clearly identify structural relationships and deep parameters, could give misleading answers if policy rules changed. In particular, if inflation expectations were modelled implicitly using terms in lagged inflation rather than with rational expectations, these estimated relationships might embody a particular policy regime, and might then be misspecified if the policy regime changed. LS was followed by Sims (1980), entitled ‘Macroeconomics and Reality’, where he questioned the basis of the identification restrictions typically imposed in time series econometrics. Once again, rational expectations were an important part of this critique.
Both of these critiques were successful because they also suggested an alternative way of doing academic work which avoided these criticisms. In the case of LS it was to explicitly derive models from optimisation by representative agents, and for Sims it was to estimate complete systems in an atheoretical way using vector autoregressions (VARs). The impact on academic practice in the United States was revolutionary. In the top journals, single equation econometric estimation was largely replaced by VARs, and all structural models (whether parametrised or not) had to be based on explicit microfoundations, now known as DSGE models.
It is no exaggeration to describe this as a methodological revolution. The way academic macroeconomics was done before the NCCR was empirically orientated: the emphasis was put on consistency with the data, or ‘external consistency’. Theoretical analysis using small aggregate models often justified the specification of individual aggregate equations with an appeal to econometric results as much as microeconomic theory. With SEMs, it was rare to keep an equation within the model when it had been ‘rejected by the data’, however that was defined. In that sense, external consistency was almost a criterion for admissibility. In contrast, empirical relationships were often justified by very informal theoretical arguments, and sometimes (particularly when it came to dynamics) no theoretical justification was provided at all. Some time-series econometricians used the ideas of Karl Popper to justify their approach.
RBC models, and their successor, dynamic stochastic general equilibrium (DSGE) models, are very different. Here it is essential that aggregate equations can be derived from microeconomic theory, and furthermore the theory behind each equation in the model has to be mutually consistent: what is often described as ‘internal consistency’. For acceptance in good academic journals, internal consistency is usually an admissibility criterion. In contrast external consistency is not required: it would not be unusual for a paper to include little or no reference to the data, beyond the fact that constraints in an optimisation problem were ‘plausible’ and that the properties of the model helped explain some empirical puzzle. This is a methodology that is much more deductive, and is closer to Daniel Hausman’s (1992) account of microeconomics. Reference to the data is not completely absent from this methodology (just as reference to microeconomic theory was not absent from its predecessor), because the goal of new models is to describe some feature of the data (a puzzle) that existing theory is unable to provide. In that sense, the microfoundations (DSGE) research programme is progressive: the aim is to reduce the number of empirical puzzles.
Initially, the NCCR could only promise a research programme, based on these microfounded macromodels, that might at some later stage be able to be empirically successful enough to guide policy. As policy-makers still saw the world through Keynesian eyes, RBC models were of little use. Ironically it was the advent of New Keynesian analysis, and DSGE models, that allowed the methodological revolution begun by New Classical economists to be completed. Now DSGE models could be used by central banks, and a DSGE model is currently the core model used by the Bank of England. (The US Fed, and the European Central Bank, are more eclectic in retaining a traditional SEM alongside DSGE models.)
Many economists would argue that the essential message of The General Theory therefore lives on in New Keynesian models. Others would disagree, but this is not a debate I want to enter here. The key point is that most academic macroeconomists today would see the foundation of their discipline as not coming from The General Theory, but as coming from basic microeconomic theory – arguably the ‘classical theory’ that Keynes was so keen to cast aside. The General Theory might be seen as having the insight that price stickiness and aggregate demand are critical in understanding the business cycle, but not as having a profound influence on the very nature of macroeconomics as a discipline.
Many have complained that DSGE models were of little use in understanding both the financial crisis and the Great Recession that followed. Some felt they understood more by going back to (re)read The General Theory. This is sometimes put down to a false sense of security that came from the Great Moderation. Research focused too much on getting the details of monetary policy in ‘normal’ times right, believing that abnormal crises were a thing of the past.
I want to suggest a more critical account. The narrowness of the research focus came in part from the methodology itself. In giving this critical account it is not my intention to argue that microfoundations modelling has not produced many important insights and achievements – in my view it clearly has, which is why I spent over a decade working with models of this kind. The problem as I see it is more that in becoming the only accepted way of doing serious macroeconomic research and policy analysis, it (quite deliberately) crowded out other more traditional approaches that – had they persisted – might have left the discipline in a better position to understand the impact of the financial crisis. Furthermore, these alternative approaches might have encouraged the development of DSGE models in what we now know to be more fruitful directions.
The fundamental drawback of the microfoundations project, as set out in the NCCR, is the priority given to internal theoretical consistency. Internal consistency becomes an admissibility criterion: papers with models that are not internally consistent, or where some relationships are ‘ad hoc’, should not appear in good journals. This has a number of consequences. First, lines of enquiry that are almost inevitably going to fail are pursued because empirical facts can be ignored. The most obvious example is RBC theory itself. The evidence that the business cycle is characterised by increases in involuntary unemployment in a recession is diverse and overwhelming, so attempting to fit models to the data that ignore this evidence is in great danger of being a waste of time.
A danger in any approach that allows clear empirical facts to be put on hold to be addressed at a later date (some might say just ignored) is that it makes it easier for ideological bias to influence research programmes. Once again RBC modelling is a clear case in point. For at least some who have pursued the RBC approach, the implication of these models – that business cycles require no state intervention to counteract them – seems to be a feature rather than a reflection of some empirical failing that needs to be addressed. Pfleiderer (2014) talks about ‘chameleons models’: models built on assumptions with dubious connections to the real world but which lead to conclusions that are uncritically applied to understanding our economy. Although Pfleiderer’s main concern is models in finance, I think RBC models qualify as chameleon models in macroeconomics.
Another more practical issue involved in microfounded modelling is that it is often difficult to ensure that a complete model is internally consistent. It took at least a decade for New Keynesian ideas to be analysed in sufficient depth so that modellers could argue that something like Calvo contracts could be regarded as microfounded. That has two consequences.
First, it leads to an inevitable temptation to put difficult issues to one side unless there is a compelling puzzle to solve that involves them. A clear case of that, which I will explore below, is how the financial sector interacts with the real economy. Second, it mitigates against complexity, even when there may be a good case that complexity is essential. This is particularly true if researchers take what I have called (Wren-Lewis 2011) a microfoundations purist position.
This purist position is exemplified by Chari et al. (2008). They argue that a lot of current DSGE modelling, including New Keynesian analysis, is not well founded in terms of deep parameters and clearly identifiable shocks. As I note in Wren-Lewis (2011), New Keynesian models do in an important sense compromise the ideal of internal consistency, because they allow a proof of internal consistency by indirect reference (sometimes referred to by modellers as ‘short cuts’ or ‘tricks’). For example it is suggested that Calvo contracts reflect what would happen if firms faced menu costs, but menu costs are not directly included in the model. Chari et al. believe it is better to stick with simple models where the microfoundations are clear, and give policy advice using these models. It is a testament to the success of the NCCR that arguments of this kind can be made by economists with a deservedly high reputation, because it amounts to little more than saying that if we do not understand something, it is best when formulating policy to assume that something does not exist! While there is good evidence from the journals that probably a majority of macroeconomists would not take this purist position, the perils of refereeing means that the purists’ influence on practice outweighs their numbers.
In contrast, other more traditional forms of modelling are far more adaptable. Innovations that improve the ability to explain the data can be incorporated into a SEM much more quickly, because there is no requirement to check whether this innovation has implications for other relationships. The properties of small aggregate models can be altered very quickly to reflect empirical regularities if there is no prior requirement to derive every relationship from individual optimisation behaviour in a mutually consistent way.
Of course, adaptation of this kind to SEMs or small aggregate models is not ideal, because internal consistency is not investigated. However that does not mean that such models are worse than DSGE models at generating realistic policy advice, because the DSGE models just ignore the empirical problem. (This is discussed further in Section 5.) Equally important, it shows that it is foolish to argue that one approach is always superior to the other. There is no reason why both cannot be pursued together. DSGE analysis can attempt to microfound relationships that appear empirically robust in SEMs, or important from a system perspective in analysis using small analytic models, while these models and SEMs can gradually incorporate advances in theory that come from DSGE analysis.
So far this is all abstract, with no clear indication that any of this mattered prior to the financial crisis. However in at least one, quite central, area of analysis we have clear indications that it may well have mattered. Macroeconomists have for some time understood the empirical deficiencies of the simple optimising model of consumer behaviour. In particular, aggregate consumption appears to show excess sensitivity to temporary changes in current income. One obvious reason for this, again commonly understood, is that agents may be credit-constrained.
This prompts an obvious question: are these credit constraints constant or do they change over time, and if they change what governs these changes? To answer that question within a DSGE model requires developing a microfounded model of the financial sector. That is hard, and perhaps would be regarded as a time-consuming diversion if your focus is on using your DSGE model just to examine business cycle properties. As a result, the way that many DSGE modellers handled this problem was to postulate the existence of a fixed proportion of ‘rule of thumb’ consumers, who simply consumed all of any change in their aggregate income.
Since the financial crisis, of course, a huge amount of effort has gone into modelling the interactions between the financial and real sectors in a microfounded way. The key question is why most of this work did not occur before the crisis. The answer you will generally receive is that there was no compelling reason to do so, because obviously few believed a crisis would happen. However that ignores a very simple point. As work associated with John Muellbauer and Chris Carroll (for example Aron et al. 2010 and Carroll et al. 2012) demonstrates, it is very difficult to account for broad trends in the savings ratio over the last 30 years in the US or UK without taking changes in credit conditions into account. These trends in the savings ratio, which are quite inconsistent with the standard intertemporal model, were quite apparent before the financial crisis, yet as a result of detrending techniques they can be filtered out by empirical work using DSGE models.
In contrast, SEMs do not pre-filter the data, and so explaining these trends should be a key requirement for any consumption function in a model of this type. If more academics had been actively involved in SEMs and single equation econometric modelling, where fitting the unfiltered time series for consumption over a reasonable length of time is seen as important, it is unlikely that this would not have become more widely known. Those operating these SEMs would have understood that to simply treat credit conditions as an exogenous trend, when it was so important in determining the behaviour of such a critical macroeconomic aggregate, was heroic and potentially dangerous. As a result, research would almost certainly have been directed towards understanding this key financial influence, which in turn should have led to a better understanding of financial/real interactions. Macroeconomics was only able to ignore all this because of the microfoundations methodology that downgrades the importance of external consistency.
If you need to understand financial/real interactions to account for the pre-crisis time series behaviour of consumption in both the US and UK, then it is very misleading to claim that mainstream macroeconomics largely ignored these interactions because there was no empirical reason to do otherwise. In fact these interactions could be ignored because mainstream methodology required only partial external consistency. Of course, even if these alternative approaches had received greater attention it is unlikely the global financial crisis could have been predicted, let alone prevented. However the more serious criticism of mainstream DSGE models at the time was that they were unable to analyse the nature and persistence of the subsequent recession, which depended a great deal on changing credit conditions and consumers’ reaction to them.
Seen in terms of methodology rather than economic policy, the NCCR was highly successful within academia. Microfoundations, which previously had been seen as a gradualist improvement within traditional practice, became the only acceptable way among academics to model the economy. With the advent of New Keynesian theory, estimated versions of DSGE models began to be used by policy-makers to provide empirical policy advice, in some cases displacing more traditional empirical models. Gradually the idea took hold that you could only do serious policy analysis if you simulated a DSGE model.
More empirically based structural econometric models (SEMs) continued to be used, both in policy-making institutions and by private sector forecasters. However, academic involvement with them in the United States was discouraged, as it was believed that these models had been fatally discredited by the NCCR. Articles analysing the time series properties of individual macroeconomic aggregates became quite rare in the top journals.
I argued in the previous section that this methodological revolution directly contributed to macroeconomic research ignoring important interactions between the real and financial sectors, which in turn left it poorly placed to understand the consequences for the economy of the financial crisis. This is why many policy-makers who worked through this period can be so dismissive of DSGE modelling, and why many felt it was much more useful to go back to classics like The General Theory.
Although there has been widespread criticism of DSGE models from policy-makers and others, there is little pressure from within academic macroeconomics for change because the methodology is progressive and researchers are devoting a good deal of time to examining real/financial interactions. The methodology is progressive. I would argue that what should change is the view that all other, more empirically based, methods are inherently inferior. Students are still taught that other methodologies were fatally flawed as a result of the NCCR. This is simply wrong.
DSGE models maintain internal consistency by sacrificing external consistency. Of course the ideal is to have models that are both internally consistent (are fully microfounded) and which are externally consistent (explain the properties of the data you want models of this type to explain). But that goal, even if it could ever be achieved, is a long way off, and in the meantime there is a trade-off: a frontier, if you like, with internal and external consistency on the two axes (see Pagan 2003). You can think of DSGE models as being where that frontier intersects the internal consistency axis, and simple VARs as where it intersects the external consistency axis. There is no logical reason why other points on that frontier should be deemed academically unacceptable.
One confusion is to link DSGE models with policy analysis, and more data-based methods with forecasting. This is an unhelpful distinction. It comes from a view that a model is either theoretically coherent or it is not: we cannot have degrees of theoretical coherence. In terms of theory, there are either DSGE models, or (almost certainly) incorrect models. But policy-makers do not just want stories that are internally consistent. They also want stories that are relevant to the real world! A DSGE model is more likely to be subject to specification errors because it ignores real-world complications, as Fair (2012) documents.
For example, would it have been better after the financial crisis to use a DSGE model where finance played no role in real decisions, or a more empirically based model where these interactions were captured in a rough and ready way? The choice is obvious to policy-makers. Appeals by DSGE modellers that you need to give academic economists time to build a DSGE model that incorporates a financial sector just avoids the point. The claim many make is not just that microfoundations is a progressive research programme, but that it is the only proper way of doing policy analysis. At any particular point in time that is simply false.
A less fictitious example is provided by New Keynesian theory itself. Before New Keynesian theory was developed, microfounded models made no allowance for sticky prices. It is nonsense to suggest that at this time RBC models had to be better as a guide for monetary policy compared to a SEM that incorporated price rigidity by allowing some inertia in price and wage setting. The SEM may have suffered from the Lucas critique and poorly identified equations, but that does not mean the RBC alternative was better.
The idea that the only proper model for policy analysis is a microfounded model has other logical flaws. It may be possible that aggregate relationships can adequately capture a degree of heterogeneity that it would be ridiculous to try to capture using microfoundations. A good example is provided by Carroll (2001). He shows how thousands of simulations, examining the optimal savings behaviour of agents with different ages and asset or income profiles facing uncertainty, approximates features of the aggregate permanent income consumption function proposed by Friedman. This aggregate relationship based on individuals optimising is not, and cannot be, derived analytically as part of a microfounded model.
The microfoundations project tries to cope with such problems using what could be called tricks. The New Keynesian Phillips curve derived from Calvo contracts can be seen in this way. It is based on a firm where the probability of changing prices each period is fixed, and this is justified by reference to other work that examines the optimal response to menu costs. There can be no pretence that this model actually represents how all (or even most) firms operate. The empirical evidence suggests there are many different reasons for price rigidity, of which menu costs are just one. The reason the Calvo contract model is widely used is that it is tractable and implies a New Keynesian Phillips curve, which appears to fit the data. So a specification is chosen not because it represents the typical behaviour of a representative firm, but because it produces an aggregate relationship which works empirically. This makes a pretence at the sanctity of internal consistency a bit of a charade, which is part of the criticism in Chari et al. (2008) of New Keynesian models. The correct response is not, as Chari et al. suggest, to ignore price rigidities, but to recognise that a microfoundations purist position is untenable and that the claim that DSGE models are inherently superior to alternatives is false.
For these reasons, there is absolutely no reason why DSGE models could not have developed alongside more traditional methods of analysis. Furthermore, for a time that did happen, not in the United States but in the United Kingdom, where academic involvement in SEMs continued until the late 1990s. In particular, the UK‘s social science research council provided a sustained period of funding for a ‘Macromodelling Bureau’, which brought together all the major SEMs in the UK, and compared their properties in a critical way (see Smith 1990). The funding of the Bureau only came to an end when other UK academics argued that this was not an efficient use of research funding, where efficiency included the ability to publish papers in the top (mainly US) journals.
The models the Bureau analysed in the 1990s were not the same models that LS criticised so effectively. Many embodied rational expectations as routine, and in that and other ways attempted to reduce the impact of the Lucas critique (see Church et al. 2000). They began to look more like the DSGE models that were being developed at the same time. However they remained quite distinct from these models, because most were concerned to include aggregate equations that were able to track the time-series properties of the data on an equation-by-equation basis, and partly as a result they were almost certainly internally inconsistent. (Inconsistency also came from the need to be a ‘horse for all courses’: see Currie 1985). It is a model of this kind that, for example, is currently used by the US Fed for forecasting and policy analysis (Brayton et al. 2014).
On a personal note, my own model of the UK economy, discussed in Wren-Lewis et al. (1996), included a consumption function based on intertemporal optimisation where a proportion of consumers were credit-constrained. That proportion was not constant, but was an exogenous data series based on particular financial variables. If funding for that model had continued into this century, that exogenous variable would have almost certainly been endogenised by modelling the financial sector, as I suggested in the previous section.
These developments show that it was quite possible for SEMs to evolve, incorporating many of the theoretical ideas that were part of the NCCR, but remain quite different from both DSGE models and VARs. Rather than being the old-fashioned dinosaurs imagined by many academics, they represent a way of modelling the economy that policy-makers find useful, and which in turn can inform those working with DSGE models. In particular, because the need to track individual time series is more important in SEMs than in DSGE models, they and the econometric estimation that accompanies them can provide insights into important empirical regularities that DSGE analysis can miss.
If a revolution was not logically inevitable, and an evolution that had allowed DSGE models to develop alongside other ways of doing macroeconomics had been both possible and preferable, it is important to ask why the evolutionary path was not followed. Were there other reasons, besides any mistaken logical necessity, why the evolutionary road was not taken? The answer is that there are many. The following reasons are speculative and are difficult to document let alone quantify, but I mention them here simply to point out that there many alternative explanations besides (erroneous) logical necessity as to why a methodological revolution occurred.
An analogy that Greg Mankiw (2006) made popular when discussing similar issues involves scientists and engineers. I prefer to compare macroeconomics to medicine, and so Paul Romer’s recent discussion 2 using biomedicine and comparing bench science and clinical studies has more appeal. Here DSGE modellers are the scientists, and those using other approaches the engineers or clinicians. The way I would use the analogy is that engineers prefer models that work, whereas scientists look for a deeper understanding.
There may be a tendency among many academic macroeconomists to want to be scientists. In what has become a highly mathematical discipline, making a mathematical error is one of the most embarrassing mistakes you can make. Developing a model where the microeconomic theory that is used to justify one part of the model conflicts with that used to justify another (internal inconsistency) perhaps comes close in terms of the lexicon of errors to avoid. There is an undeniable appeal in telling a story that is complete and at peace with itself, rather than one where there are awkward inconsistencies and unresolved issues.
Another obvious appeal to a new generation of macroeconomists following the NCCR methodology was the opportunity it gave them to rediscover old truths using new techniques. Even if the economists associated with the old truths were referenced, the analysis could be described as doing the ‘macroeconomics properly’. For academics hungry for publication opportunities this was difficult to ignore.
One other undoubted appeal that the NCCR had was that it allowed macroeconomics to be brought back under the microeconomics umbrella. New Keynesian economists can talk about how business cycles involve an externality (price rigidity reflecting the cost of adjusting individual prices also has an impact on overall demand), and this market failure requires state intervention. This is language their micro colleagues can relate to. (There is, however, a certain irony that at the same time as macroeconomics was putting more emphasis on micro theory, many areas of microeconomics were becoming more empirical.)
It was also clear that there was much to criticise in the existing methodology. SEMs could easily become unmanageable constructs that were difficult to relate to simpler models. However, it is possible to overcome that problem, by for example the method of ‘theoretical deconstruction’ proposed in Wren-Lewis et al (1996). As we have already noted with the Phillips curve, informal theorising could sometimes lead to serious misspecification. The theoretical insights that New Classical economists brought to the table were impressive: besides rational expectations, there was a rationalisation of permanent income and the life-cycle models using intertemporal optimisation, time inconsistency and more.
One final point that should be mentioned is ideology, which links the two strands of the NCCR that I talked about in Section 3. Some at least of the New Classical revolutionaries, or those that came to their side, wanted to overthrow the market interventionism that they thought Keynesian policy typified. They wanted not to modify Keynesian economics but to overthrow it. That required a revolution, and a revolution in methodology which allowed empirical evidence to be partially ignored was a convenient means of achieving that.
One feature of all these explanations is that their force has gradually diminished over time. Old truths have been rediscovered and put into the language of microfounded models. Microeconomists have long since stopped celebrating the return of macro to the fold, and many tire of endless DSGE simulations. Time series econometrics has been neglected to an extent that there is now plenty of scope for new discoveries to be made. An ideologically motivated hope that Keynesian economics could be overthrown has been shown to be incorrect.
It has occasionally been suggested that the financial crisis and Great Recession might prompt a new revolution in the way macroeconomics is done. That may embody an element of wish fulfilment, but it could also represent a misreading of history that I discussed in Section 2. The microfoundations methodology is entrenched, and it also appears to those who use it (rightly in my view) progressive, so it is unlikely that its practitioners will down tools and start afresh. What we can perhaps instead hope for is a renewed interest in time-series econometrics, together with an acceptance that for policy advice other ways of modelling may be of some use. A new revolution, that replaces current methods with older ways of doing macroeconomics, seems unlikely and I would argue is also undesirable. The discipline does not need to advance one revolution at a time.
To understand modern academic macroeconomics, it is no longer essential that you start with The General Theory. It is far more important that you read Lucas and Sargent (1979), which is a central text in what is generally known as the New Classical Counter Revolution (NCCR). That gave birth to DSGE models and the microfoundations programme, which are central to mainstream macroeconomics today.
The NCCR can be thought of as having two strands. The first strand attempted to supplant Keynesian policy, and it failed. New Keynesian models have become dominant among those that study and control the business cycle, although that view is disputed by some academics and is often ignored by politicians. The second strand of the NCCR was methodological, and transformed the way academic macroeconomics is done.
I argue that the NCCR went too far in replacing more empirically based methods of analysis. Although the microfoundations programme is progressive (unless you are a purist), by making theoretical consistency an essential prerequisite it downgrades the importance of empirical evidence. This goes against the spirit of The General Theory, but more importantly I argue that it left macroeconomics ill-prepared for the financial crisis. More traditional methods of analysis are quite capable of being pursued alongside DSGE modelling, and are not fatally flawed despite what is often taught. If there had been more academic involvement in these alternative approaches, the importance of the financial sector for the real economy would have received more attention before the financial crisis. We do not need another methodological revolution as a response to this crisis, but instead a resurrection of the older methods that were inspired by The General Theory.
Sbrogliare la matassa della Controrivoluzione Neoclassica,
di Simon Wren-Lewis
1 gennaio 2016, dal blog Social Europe
SINTESI
1 INTRODUZIONE
La Teoria Generale dell’occupazione, dell’interesse e della moneta (Keynes 1936) viene talvolta accreditata della creazione della moderna macroeconomia. Al giorno d’oggi quella osservazione appare assai discutibile per due ragioni. Ci siamo ancora una volta ritrovati in una trappola globale di liquidità, proprio dello stesso genere cha La Teoria Generale era stata pensata per spiegare ed evitare. Tuttavia, gli operatori politici hanno protratto quella trappola di liquidità facendo esattamente l’opposto di quello che La Teoria Generale aveva raccomandato. Chi può mettere in dubbio che Keynes si sarebbe rivoltato nella tomba, constatando l’attuale ossessione per l’austerità delle finanze pubbliche?
Naturalmente, non c’è niente che obblighi gli operatori politici a basare le loro decisioni sulla teoria macroeconomica, ed una larga parte di quello che sta attualmente accadendo può proprio consistere nel fatto che gli uomini politici stanno utilizzando analogie populistiche tra i bilanci degli Stati e quelli delle famiglie, per realizzare obbiettivi alle dimensioni degli Stati. Tuttavia, dobbiamo chiederci se essi sarebbero capaci di farla franca se i macroeconomisti fossero uniti nella loro opposizione alla austerità della finanza pubblica. Invece, la disciplina economica appare molto più divisa. Questo a sua volta riflette la seconda ragione per la quale si può dubitare dell’importanza de La Teoria Generale per la moderna macroeconomia. La realtà è che la maggioranza dei macroeconomisti accademici non considera più La Teoria Generale come il testo che definisce la loro disciplina. Se essi dovessero nominarne uno, più probabilmente sceglierebbero uno dei testi fondamentali della rivoluzione neoclassica: quello di Lucas e Sargent (1979), che non a caso porta il titolo “Dopo la macroeconomia keynesiana”.
Gran parte del dibattito sulle odierne divisioni nella macroeconomia si concentra sui diversi punti di vista delle scuole dell’ “acqua salata e dell’acqua dolce” [2]. In questo modo si sottovaluta l’importanza della Controrivoluzione Neoclassica (d’ora innanzi, NCCR). Può essere più utile pensare alla NCCR come se fosse fatta di due componenti. Quella della quale si parla più frequentemente, è relativa alla politica monetaria e della finanza pubblica keynesiana. Essa, naturalmente è molto importante, e gioca un ruolo nella reazione politica alla recente Grande Recessione. Tuttavia, vorrei suggerire che la seconda componente, quella di natura metodologica, è la più importante. La NCCR ha contribuito a mutare completamente il modo in cui si fa macroeconomia a livello accademico.
Prima della NCCR, la macroeconomia era una disciplina fortemente empirica: cosa che era resa possibile dagli sviluppi nella statistica e nell’econometria ispirati da La Teoria Generale. Dopo la NCCR e la sua enfasi sui fondamenti microeconomici, divenne molto più deduttiva. Come scrive Hoover (2001, pag. 72), “Il convincimento che la macroeconomia debba possedere fondamenti microeconomici ha cambiato il volto della disciplina nell’ultimo quarto di secolo”. Dal punto di vista di questa seconda componente, la NCCR ha trionfato e rimane ampiamente incontestata all’interno della prevalente macroeconomia accademica”.
Per comprendere la posizione de La Teoria Generale ai nostri giorni, e la ragione per la quale molti operatori politici hanno avuto come la sensazione di dover tornare indietro per comprendere la Grande Recessione, abbiamo bisogno di capire la NCCR e la ragione per la quale ebbe così tanto successo.
Una spiegazione, che prendo in esame nella Seconda Sezione, potrebbe essere sintetizzata con la battuta di Harold Macmillan [3] “gli eventi, signori cari, gli eventi”. Proprio l’incapacità degli economisti di comprendere la Grande Depressione [4] fu all’origine de La Teoria Generale e del consenso al keynesismo che ne seguì. La NCCR viene indicata come una risposta al fallimento empirico di quel consenso keynesiano. Io suggerirei invece che la NCCR fu anzitutto guidata da idee, piuttosto che da eventi.
La Sezione Terza prende in esame la rivoluzione metodologica provocata dalla NCCR e dalla strategia di una strategia di ricerca fondata sulla microeconomia che essa sostenne. La Sezione Quarta spiega come questa metodologia di ricerca indebolì la capacità della macroeconomia di rispondere alla crisi finanziaria, ed alla Grande Recessione che ne seguì. Sebbene i modelli basati su fondamenti microeconomici siano abbastanza in grado di esaminare le interazioni tra economia finanziaria ed economia reale, ed esista una grande quantità di lavori recenti a proposito, è importante chiedersi perché sia stato fatto così poco prima della crisi. Indicherò come si debbano ritenere responsabili di ciò una concentrazione sulle proprietà esplicative soltanto parziali dei dati ed una ossessione sui temi della coerenza interna, e come questo derivi direttamente dalla metodologia.
Molti economisti che operano nella politica hanno commentato di aver scoperto che testi scritti prima della NCCR, come La Teoria Generale, o testi scritti da coloro che erano collocati ai margini dell’orientamento prevalente dopo la NCCR, erano più utili durante la crisi che non la macroeconomia convenzionale, basata su modelli con fondamenti microeconomici. Significa questo che la macroeconomia ha bisogno di scartare le innovazioni poste in essere dalla NCCR, proprio come quella rivoluzione volle scartare così gran parte dell’economia keynesiana? Nella Sezione Quinta sostengo che quello sarebbe esattamente lo stesso errore che fece la NCCR. Non abbiamo bisogno di una disciplina interrotta da periodiche rivoluzioni. L’errore che la disciplina fece negli anni ’80 e ’90 fu quello di buttar via, anziché di integrare, i modi più vecchi di fare le cose. Come mostra l’esperienza nel Regno Unito, è abbastanza possibile per i modelli fondati sulla microeconomia coesistere con altri modalità di modellazione e di valutazione, ed in aggiunta gli approcci diversi possono avvantaggiarsi dagli insegnamenti dell’uno verso l’altro.
2 IDEE, NON EVENTI
C’è un punto di vista generalmente condiviso sulle rivoluzioni macroeconomiche che si esprime nel modo seguente. La Teoria Generale emerse dal fallimento di quello che allora era il punto di vista prevalente (economia classica) per spiegare la Grande Depressione (persistentemente elevata disoccupazione involontaria). La Controrivoluzione Neoclassica (NCCR) nacque dalla incapacità della teoria prevalente (a quei tempi la macroeconomia keynesiana) a spiegare la Grande Inflazione e la stagflazione (elevata disoccupazione e inflazione). Alcuni, con la stessa logica, hanno ipotizzato che la crisi finanziaria globale potrebbe incoraggiare un’altra rivoluzione.
In questo punto di vista c’è un problema importante. Mentre la rivoluzione keynesiana spiegò per quale ragione ebbe luogo la Grande Depressione (come un difetto di domanda aggregata), la NCCR non spiegò la stagflazione. Quello che in seguito spiegò la stagflazione venne dall’interno dell’esistente paradigma keynesiano: una combinazione della verticale curva di Phillips di lungo periodo scoperta da Friedman [5] e della riluttanza dei Governi e delle banche centrali ad utilizzare strumenti politici per elevare la disoccupazione in modo tale da controllare l’inflazione. All’opposto, i modelli del Ciclo Economico Reale, che furono il risultato iniziale della NCCR, non contenevano affatto alcuna spiegazione dell’inflazione, al di là di una ingenua neutralità.
Possiamo nel modo seguente esprimere tutto questo più formalmente. Una esposizione standard delle rivoluzioni scientifiche può essere semplificata nel modo seguente:
La rivoluzione keynesiana è coerente con questo racconto standard: A è la teoria classica, Y è la Grande Depressione, B è la teoria keynesiana. Si adatta a questo schema anche la NCCR, laddove Y indica la stagflazione? Come noteremo più avanti, Lucas e Sargent (1979) in effetti parlano del fallimento della teoria keynesiana nello spiegare la stagflazione, ma quello che è assente nel loro racconto è come il loro approccio alternativo possa avere maggiore successo nel farlo. Per dirla semplicemente, nella NCCR le fasi 3 e 4 sembrano assenti, e neanche compare la fase 5.
Per la fase 3, la tradizionale teoria keynesiana potrebbe spiegare la stagflazione, e di fatto lo fece. Il modo in cui lo fece è di solito associato con il discorso presidenziale [6] di Friedman del 1968 (2014), oppure nel lavoro assieme a Phelps, sebbene come Forder (2014) mette in evidenza il bisogno di accrescere la curva di Phillips del fattore connesso con l’inflazione attesa, non fu una intuizione soltanto di questi due autori. Egli dimostra anche che l’idea secondo la quale gli operatori politici avessero in precedenza operato con una curva di Phillips non incrementata per l’inflazione, nel convincimento che avrebbero potuto ottenere una disoccupazione più bassa soltanto al costo di un piccolo permanente incremento dell’inflazione, sembra essere in gran parte un mito.
Lakatos (1970) parla di risposte progressive e di risposte di inferiore livello di una teoria dominante dinanzi a fenomeni nuovi, ma io penso che Zinn (2013) sostenga in modi convincenti che i cambiamenti alla teoria keynesiana per dar conto della stagflazione furono di natura progressiva. Ad esempio, Tobin (1980) offre un resoconto chiaro di come una politica monetaria restrittiva potrebbe ridurre l’inflazione senza accrescere la disoccupazione utilizzando il concetto del NAIRU [7]. Direi che questo adattamento sia stato ancora empiricamente inadeguato ed un ulteriore progresso avesse bisogno delle aspettative razionali, ma come noto più avanti è perfettamente possibile incorporare le aspettative razionali all’interno dello schema tradizionale keynesiano. L’idea di una curva di Phillips, verticale e di lungo periodo, derivò da una riflessione sulla teoria microeconomica, ma le innovazioni nella macroeconomia keynesiana derivano sempre da una combinazione eclettica di teoria e di prove, come mette in evidenza Fair (2012).
In modo assai più significativo, la fase 4 non si realizzò: i modelli neoclassici non erano capaci di spiegare il comportamento della produzione e dell’inflazione negli anni ’70 e ’80, per non dire della Grande Depressione. Nella competizione a spiegare la stagflazione, la teoria tradizionale, riadattata in modo progressivo [8], sconfisse i nuovi venuti con estrema facilità. Dunque, secondo il resoconto normale, la NCCR avrebbe dovuto essere una rivoluzione che visibilmente e molto velocemente mancò i suoi obbiettivi. Eppure è andata all’opposto.
Per comprenderne le ragioni, abbiamo solo bisogno di studiare quello che potrebbe essere considerato come il testo fondamentale della NCCR: il testo di Lucas e Sargent (1979) appropriatamente titolato “Dopo la macroeconomia keynesiana”. Quel saggio stesso è insieme chiaro e ben argomentato. Ogni macroeconomista meno che cinquantenne molto probabilmente riconoscerà gran parte di questo dibattito come ciò che veniva insegnato come parte di un corso di economia di livello universitario.
Lucas e Sargent iniziano il loro saggio con riferimenti alla stagflazione ed al fallimento della teoria keynesiana. Si imponeva un ripensamento di fondo. Il seguito è cruciale. Se la Controrivoluzione riguardava per intero la stagflazione, ci saremmo aspettati un resoconto dei motivi per i quali la teoria convenzionale era fallita nel prevedere la stagflazione: l’equivalente, in un certo senso, della discussione sulla teoria classica ne La Teoria Generale. Invece ciò che abbiamo è qualcosa di molto più generale: una discussione sul perché le restrizioni di identificazione tipicamente imposte nei Modelli Econometrici Strutturali (SEMs) del tempo fossero non credibili da un punti di vista teoretico, e un profilo della critica di Lucas. La critica fondamentale in Lucas e Sargent è metodologica: il modo in cui la macroeconomia empirica è stata sviluppata era difettoso.
Utilizzando questa critica, Lucas e Sargent sostengono che i tradizionali SEM non possono essere ritenuti una guida per la politica. Solo in un paragrafo Lucas e Sargent provano per davvero a connettere questa critica generale alla stagflazione:
“Sebbene, ovviamente, non ideati da nessuno a tale scopo, i modelli macroeconomici furono soggetti ad un test decisivo negli anni ’70. Un elemento chiave in tutti i modelli keynesiani è uno scambio tra inflazione e produzione reale: più alto è il tasso di inflazione, più alta è la produzione (o più basso è il tasso di disoccupazione, il che è equivalente). Ad esempio, i modelli della fine degli anni ’60 prevedevano un tasso di disoccupazione duraturo del 4 per cento come coerente con un tasso di inflazione annuale del 4 per cento. Basandosi su questa previsione, molti economisti spingevano in quel periodo per una deliberata politica di inflazione. Di sicuro il carattere erratico del tipo ‘metti alla prova e parti’ della politica statunitense degli anni ’70 non può essere attribuito alle raccomandazioni basate sui modelli keynesiani, ma la tendenza inflazionistica nella media delle politiche monetarie e della finanza pubblica in quel periodo doveva, secondo tutti quei modelli, aver prodotto i tassi di disoccupazione più bassi di ogni decennio, a partire dagli anni ’40. Di fatto, come sappiamo, essa produsse i più alti tassi di disoccupazione a partire dagli anni ’30. Questo fu un fallimento econometrico su larga scale (Lucas e Sargent, 1979)”.
Non c’è alcun tentativo di collegare questo fallimento della stagflazione ai problemi di identificazione esaminati in precedenza nel loro testo. In effetti, essi procedono affermando di riconoscere che quel particolare fallimento empirico (per deduzione, del genere della stagflazione) potrebbe essere risolto con modifiche a particolari equazioni all’interno dei modelli econometrici tradizionali. Ovviamente, quello è esattamente ciò che la macroeconomia allora prevalente stava facendo a quel tempo, con le aspettative incrementate della curva di Phillips.
Quella è la ragione per la quale Lucas e Sargent proseguono dicendo (ibid., pag. 57): “Abbiamo fatto cenno alle nostre critiche in termini così generali, precisamente per enfatizzare il loro carattere generale e dunque l’inutilità di perseguire variazioni minori all’interno dello schema generale”. Il resto del saggio è relativo a come, date le aggiunte come una curva dell’offerta di Lucas, l’analisi classica di ‘equilibrio’ può essere capace di spiegare i ‘fatti’ relativi alla produzione ed alla disoccupazione, che Keynes riteneva impossibili da spiegare all’interno del pensiero classico. Esso non riguarda il fatto che quei modelli fossero, o anche potessero essere, più capaci dell’analisi classica tradizionale nello spiegare il particolare problema della stagflazione.
Nella loro conclusione, Lucas e Sargent (ibid., pag. 69) sintetizzavano la loro tesi:
“In primo luogo, e di principale importanza, gli esistenti modelli econometrici keynesiani sono incapaci di fornire una guida affidabile nella formulazione della politica monetaria, della finanza pubblica e di altri generi di politica. Questa conclusione è basata in parte sugli spettacolari recenti fallimenti di questi modelli e in parte sulla loro mancanza di una solida base teorica o econometrica”.
Leggendo lo scritto nel suo intero, penso, sarebbe corretto dire che queste due parti non erano equivalenti. La concentrazione del saggio è sulla mancanza di una solida base teorica ed econometrica dei modelli teorici ed econometrici tradizionali keynesiani, piuttosto che sulla incapacità a prevedere ed a spiegare la stagflazione.
Cercare di capire la NCCR come se fosse principalmente ispirata da eventi empirici impedisce di comprendere sia la natura di quella rivoluzione, che la ragione per la quale ebbe tanto successo. Può anche provocare false speranze tra coloro che credono che la crisi finanziaria globale debba portare ad una nuova rivoluzione nel pensiero e nella pratica macroeconomica.
3 DUE COMPONENTI DELLA RIVOLUZIONE
Sebbene la NCCR utilizzasse l’incapacità di quell’epoca nel controllare l’inflazione come un’arma utile, la rivoluzione stessa riguardava idee che avevano poco a che fare con quell’empirico fallimento. C’era in particolare una idea che era centrale nelle loro critiche, ed era quella delle aspettative razionali. Le aspettative razionali furono usate in quelle che possono essere considerate i due filoni della NCCR: un attacco alla teoria ed alla politica keynesiana, ed un attacco alla metodologia della analisi macroeconomica. Dal punto di vista odierno, il primo filone della rivoluzione fu essenzialmente un insuccesso, ma il secondo fu un trionfo.
Dato che ci sono ancora alcuni macroeconomisti che si schierano contro le aspettative razionali, è importante comprendere perché quel concetto fu così attraente per la nuova generazione di macroeconomisti degli anni ’80. Non accadde perché le aspettative razionali risultarono più utili da un punto di vista empirico. Piuttosto, la attrazione fu di natura teoretica. Le aspettative razionali riguardano l’utilizzo dell’informazione nella formazione delle aspettative. Nella teoria macroeconomica, la ottimizzazione è la condizione normale: massimizzazione dell’utilità, massimizzazione del profitto, etc. Le aspettative razionali applicano semplicemente la stessa logica alle previsioni di un agente economico. Sono un punto di partenza naturale, come la massimizzazione del profitto o dell’utilità. Naturalmente, si può sostenere che in casi particolari l’informazione è dannosa, o che utilizzarla sia dannoso, ma nello stesso modo si può sostenere che sia irrealistico per le imprese conoscere la loro curva della domanda nel mentre massimizzano i profitti. Lucas (1978) descrisse le aspettative razionali come un “assioma di coerenza”. Ed a gran parte degli studenti che studiano la microeconomia come la macroeconomia, questo è quello che esattamente appare.
In pratica, si affrontava la costruzione di modelli macroeconomici attraverso una scelta binaria: si assumevano le aspettative razionali, oppure qualche forma di aspettative flessibili. Per continuare a scegliere la seconda soluzione si trattavano gli agenti economici come ingenui, nello stesso modo in cui si assume che il ricarico del prezzo sui costi medi sia fissato una volta per tutte, o si assume che la propensione marginale al consumo da parte del reddito corrente sia sempre costante. La questione seria è che ciò non era coerente con il modo in cui la teoria microeconomica tipicamente considerava gli agenti economici, quando prendevano decisioni di altra natura. Ovviamente, nella realtà gli agenti non conoscevano il vero modello, piuttosto lo apprendevano, cosicché si sviluppò un’ampia letteratura sull’apprendimento, alla quale venne un importante contributo da Sargent. Gli inconvenienti dell’assumere aspettative flessibili furono chiaramente manifesti quando le aspettative razionali vennero aggiunte alla tradizionale curva di Phillips.
Come abbiamo già notato, la stagflazione poteva essere spiegata con le idee già all’interno della analisi keynesiana convenzionale: una aspettativa aumentava la curva di Phillips che nel lungo periodo diventava così verticale. In quella curva di Phillips, l’inflazione in un tempo t dipende dalle aspettative di inflazione nel tempo t, e dalla deviazione della disoccupazione/produzione dal suo tasso naturale. Questa formulazione venne ampiamente utilizzata, non solo nei modelli econometrici su larga scala, ma anche nei più piccoli modelli analitici utilizzati dai teorici macroeconomici. Se si voleva una versione del modello keynesiano che avesse qualcosa da dire sull’inflazione (e negli anni ’70 gran parte delle persone volevano quello), quello era il modello al quale la maggioranza delle persone ricorrevano.
Prima della NCCR, l’inflazione attesa era derivata sulla base di una qualche combinazione dei tassi di inflazione passati. Se invece si utilizzavano le aspettative razionali, era facile dimostrare che le deviazioni dal tasso naturale erano casuali. Se il punto è quello, l’economia keynesiana diventa irrilevante. Non c’è nessuna meraviglia se, a quel tempo, molti macroeconomisti keynesiani considerarono le aspettative razionali (e di conseguenza tutti gli argomenti neoclassici) alla stregua di una minaccia esistenziale. Per un certo periodi di tempo, l’attacco neoclassico al tradizionale modello keynesiano sembrò esiziale.
Quello che ora sappiamo è che il problema non consisteva nelle aspettative razionali o nella economia keynesiana, ma nella tradizionale curva di Phillips. Se si sostituiscono le aspettative di inflazione in un tempo t con le aspettative di inflazione in un tempo t+1, come si fa nella neokeynesiana curva di Phillips, allora con le aspettative razionali le deviazioni da un tasso naturale non sono più casuali, ma possono seguire un fattore di continuità che deve essere al centro di ogni teoria del ciclo economico. Se provate a derivare una curva di Phillips utilizzando formalmente la teoria microeconomica, allora quello che dovrebbe apparire nella curva di Phillips è l’inflazione attesa di un periodo successivo, non le aspettative della inflazione attuale.
Di conseguenza, sebbene la NCCR abbia indotto qualcuno frettolosamente ad annunciare la morte dell’economia keynesiana, nel corso dei due decenni successivi si sviluppò un corpo di analisi sotto l’ombrello del Neokeynesismo, che dimostrò che l’intuizione di base de La Teoria Generale relativa alla importanza della domanda aggregata nel guidare i cicli economici era abbastanza coerente con le aspettative razionali, e del resto altri sviluppi teorici furono introdotti dalla NCCR. In effetti, per la maggioranza di coloro che erano interessati alla politica monetaria, l’economia neokeynesiana divenne il principale punto di vista prevalente, il che portò qualcuno, nei primi anni 2000, ad annunciare un nuovo consenso in macroeconomia. La qualcosa si dimostrò un po’ prematura, ma certamente rifletteva il punto di vista degli economisti che lavoravano all’interno e con le banche centrali.
La teoria neokeynesiana essenzialmente riguarda l’inclusione della rigidità dei prezzi all’interno dei modelli del Ciclo Economico Reale (RBC) che la NCCR aveva ispirato. Dunque, i modelli neokeynesiani assumono in modo caratteristico le aspettative razionali e una equazione di consumo di Euler [9] basata sulla ottimizzazione intertemporale da parte dei consumatori. In modo più significativo, si rivendica che i modelli neokeynesiani abbiano un fondamento microeconomico come i modelli del Ciclo Economico Reale. In altre parole, essi seguono la metodologia delineata da Lucas e Sargent. Questo sviluppo viene talvolta descritto come se gli economisti neokeynesiani siano stati costretti a rivestire le idee keynesiane con nuovi indumenti neoclassici, per consentire che i loro lavori venissero accettati. Se in alcuni casi ciò potrebbe essere giusto, è probabilmente fuorviante nella maggioranza. Gli economisti neokeynesiani hanno adottato quella metodologia perché ritenevano che fosse il modo giusto di procedere.
Questo ci dimostra che, sebbene la rivoluzione della NCCR non abbia ottenuto il suo scopo di mettere la parole fine sulla analisi keynesiana, essa ha avuto successo nel modificare sostanzialmente il modo in cui si fa macroeconomia negli ambienti universitari. Ancora una volta, le aspettative razionali sono state cruciali. Per vedere come, abbiamo bisogno di richiamare come i macroeconomisti accademici fondamentalmente esercitavano la loro professione negli anni ’70. Una larga parte del lavoro riguardava soprattutto la stima econometrica, nella forma di serie temporali di equazioni singole, di equazioni aggregate relative a relazioni cruciali come i consumi, gli investimenti e l’inflazione. Queste equazioni stimate erano come mattoncini per un piccolo numero di modelli econometrici a vasto raggio (spesso chiamati modelli econometrici strutturali, o SEM), talvolta sostenuti da autorità politiche, o da previsori del settore privato, ed occasionalmente da ambienti accademici (per un esempio di un SEM a carico di una attività accademica, si veda Fair 2012). L’analisi teorica di sistemi macroeconomici di solito riguardava l’analisi di piccoli modelli relativi a relazioni aggregate, dove le equazioni singole venivano giustificate utilizzando una combinazione eclettica di riferimenti a questo lavoro econometrico e (talvolta in modo informale) ricorsi alla teoria. Un esempio fondamentale è il lavoro di Blinder e Solow (1973).
Lucas e Sargent si concentrarono principalmente sull’attacco ai SEM. Quella che venne definita come la critica di Lucas mostrava che questi modelli, non riuscendo ad identificare chiaramente le relazioni strutturali ed i parametri profondi, potevano offrire risposte fuorvianti, se cambiavano gli indirizzi della politica. In particolare, se le aspettative di inflazione venivano modellate utilizzando implicitamente i termini nella versione di una inflazione sfasata anziché con le aspettative razionali, queste relazioni stimate potevano rappresentare un particolare assetto della politica, e potevano poi risultare imprecise se il contesto politico si modificava. Lucas e Sargent furono seguiti dal lavoro di Sims (1980), intitolato “Macroeconomia della realtà”, dove egli metteva in dubbio la base delle restrizioni di identificazione tipicamente imposte dalla econometria delle serie temporali. Ancora una volta, le aspettative razionali erano un aspetto importante di questa critica.
Entrambe queste critiche ebbero successo anche perché essi suggerivano un modo alternativo di fare il lavoro accademico che fosse al riparo di queste criticità. Nel caso di Lucas e Sargent esso consisteva nel derivare esplicitamente i modelli da una ottimizzazione di agenti rappresentativi, e nel caso di Sims consisteva nello stimare i sistemi complessivi con una modalità ateoretica, utilizzando autoregressioni di vettore (VAR) [10]. L’impatto sulla pratica accademica negli Stati Uniti fu rivoluzionario. Nelle riviste specialistiche più importanti, le stime econometriche ad equazione singola furono ampiamente sostituite dai VAR, e tutti i modelli strutturali (che fossero o meno parametrizzati) dovettero basarsi su fondamenti microeconomici espliciti, oggi noti come modelli DSGE.
Non è una esagerazione descrivere questa come una rivoluzione metodologica. Il modo in cui la macroeconomia accademica veniva fatta prima della NCCR era orientato empiricamente: l’enfasi veniva messa sulla coerenza dei dati , o “coerenza esterna”. Utilizzando piccoli modelli aggregati, l’analisi teorica spesso giustificava la specificazione delle singole equazioni aggregate sia con un riferimento ai risultati econometrici che alla teoria microeconomica. Con i SEM, era raro mantenere una equazione dentro il modello quando essa era ‘smentita dai dati’, tuttavia era quello che si illustrava. In quel senso, la coerenza esterna era quasi un criterio di ammissibilità. All’opposto, le relazioni empiriche erano spesso giustificate attraverso argomenti teorici molto informali, e talvolta (quando si arrivava agli aspetti dinamici) senza che fosse fornita affatto alcuna giustificazione teorica. Alcuni econometristi delle serie temporali utilizzavano, per giustificare il loro approccio, le idee di Karl Popper.
I modelli RBC ed i loro successori, i modelli dell’equilibrio generale dinamico e stocastico (DSGE) [11] , sono molto diversi. In questo caso è essenziale che le equazioni aggregate possano essere derivate dalla teoria microeconomica, ed inoltre la teoria dietro ogni equazione nel modello deve essere reciprocamente coerente, il che è spesso descritto come “coerenza interna”. Per essere accolti nelle buone riviste accademiche, la coerenza interna è di solito un criterio di ammissibilità. All’opposto, la coerenza esterna non è richiesta: non sarebbe inusuale per uno studio includere pochi o nessun riferimento ai dati, oltre al fatto che i limiti di un problema di ottimizzazione siano ‘plausibili’ e che le proprietà del modello aiutino a spiegare alcuni rompicapo empirici. Questa è una metodologia che è molto più deduttiva, ed è più vicina alla rappresentazione della microeconomia di Daniel Hausman (1992). Il riferimento ai dati non è completamente assente in questa metodologia (proprio come il riferimento alla teoria microeconomica non lo era nei suoi predecessori), giacché l’obbiettivo dei nuovi modelli è descrivere alcune caratteristiche dei dati (un aspetto misterioso) che la teoria esistente era incapace di fornire. In questo senso, il programma di ricerca dei DSGE è progressivo: lo scopo è ridurre il numero degli enigmi empirici.
All’inizio, la NCCR poteva soltanto promettere un programma di ricerca, basato su questi modelli macro con fondamento nella microeconomia, che potevano in qualche stadio successivo avere sufficiente successo empirico da orientare la politica. Dato che le autorità economiche ancora guardavano il mondo con occhi keynesiani, i modelli RBC erano molto poco utilizzati. Paradossalmente, fu l’avvento della analisi neokeynesiana, e dei modelli DSGE, che permise che la rivoluzione metodologica avviata dagli economisti neoclassici fosse completata. A quel punto i modelli DSGE poterono essere utilizzati dalle banche centrali, e un modello DSGE è attualmente il modello centrale usato dalla Banca di Inghilterra (la Fed degli Stati Uniti e la Banca Centrale Europea sono più eclettiche, e conservano assieme a modelli DSGE, tradizionali modelli SEM).
Molti economisti, di conseguenza, sosterrebbero che il messaggio essenziale de La Teoria Generale continua a vivere nei modelli neokeynesiani. Altri non sarebbero d’accordo, ma non è in questo dibattito che voglio addentrarmi adesso. Il punto cruciale è che la maggioranza dei macroeconomisti accademici di oggi non considererebbero il fondamento della loro disciplina come proveniente da La Teoria Generale, bensì come proveniente dalla teoria microeconomica di base – verosimilmente dalla ‘teoria classica’ che Keynes era così ansioso di scrollarsi di dosso. La Teoria Generale si potrebbe considerare che abbia avuto l’intuizione che la rigidità dei prezzi e la domanda aggregata sono fondamentali nella comprensione del ciclo economico, ma non che abbia avuto una influenza profonda sulla natura effettiva della macroeconomia come disciplina.
4 I fondamenti micro e la Grande Recessione
In molti si sono lamentati che i modelli DSGE siano stati di poca utilità nella comprensione sia della crisi finanziaria che della Grande Recessione che né è seguita. Alcuni hanno l’impressione di aver di aver compreso di più tornando a (ri)leggere La Teoria Generale. Talvolta questo viene attribuito alla falsa sensazione di sicurezza che derivò dalla Grande Moderazione [12]. La ricerca si concentrò troppo sul fornire i dettagli della politica monetaria in tempi precisamente ‘normali’, ritenendo che le crisi anormali fossero cose del passato.
Vorrei suggerire una ricostruzione più critica. La ristrettezza dell’oggetto della ricerca provenne in parte dalla metodologia stessa. Nel fornire questa ricostruzione critica, non è mia intenzione sostenere che i modelli con fondamenti microeconomici non abbiano prodotto molte importanti intuizioni e realizzazioni – dal mio punto di vista è chiaramente così, ed è la ragione per la quale ho speso più di un decennio a lavorare con modelli di questo tipo. Secondo me, il problema maggiore è che diventando l’unico modo accettabile di fare una seria ricerca macroeconomica ed una seria analisi politica, quella pratica (abbastanza deliberatamente) ha messo ai margini altri approcci tradizionali che – se si fosse perseverato – avrebbero potuto mettere la disciplina in una condizione migliore nel comprendere l’impatto della crisi finanziaria. Inoltre, questi approcci alternativi avrebbero incoraggiato lo sviluppo dei modelli DSGE, in quelli che oggi riconosciamo sarebbero stati indirizzi più fecondi.
L’inconveniente fondamentale del progetto dei fondamenti microeconomici, come definito nella NCCR, è la priorità data alla coerenza teorica interna. La coerenza interna diventa un criterio di ammissibilità: studi con modelli che non sono internamente coerenti, o nei quali compaiono alcune relazioni ‘ad hoc’, non dovevano essere pubblicati nelle buone riviste. Ciò ha un certo numero di conseguenze. Anzitutto, sono perseguite linee di indagine che sono quasi inevitabilmente destinate all’insuccesso perché i fatti empirici possono essere ignorati. L’esempio più ovvio e la stessa teoria del ciclo economico reale. La prova che il ciclo economico è caratterizzato in una recessione da aumenti nella disoccupazione involontaria è varia e preponderante, al punto che tentare di far calzare i modelli ai dati che ignorano questa prova, corre il gran rischio di essere una perdita di tempo.
Un pericolo in ogni approccio che consente che chiari fatti empirici siano messi in sospeso per essere affrontati in un momento successivo (alcuni potrebbero dire semplicemente ignorati), è che esso rende più facile influenzare i programmi di ricerca sulla base delle preferenze ideologiche. Una volta ancora i modelli che si ispirano alla scuola del Ciclo Economico Reale sono un esempio chiaro a proposito. Per almeno alcuni che hanno perseguito l’approccio RBC, ciò che è implicito in questi modelli – che i cicli economici non richiedono alcun intervento degli Stati per contrastarli – sembra essere qualcosa di peculiare, piuttosto che una riflessione su qualche fallimento empirico che richiede di essere affrontato. Pfleiderer (2014) parla di ‘modelli camaleonte’: modelli costruiti su premesse con connessioni dubbie al mondo reale, ma che portano a conclusioni che sono applicate acriticamente alla comprensione della nostra economia. Sebbene la preoccupazione principale di Pfleiderer siano i modelli nella finanza, io penso che in macroeconomia i modelli RBC abbiano la caratteristica di modelli ‘camaleonte’.
Un altro tema più pratico implicito nella modellazione su basi microeconomiche, è che essa ha spesso difficoltà a garantire che un modello completo sia coerente al suo interno. Ci volle almeno un decennio per le idee neokeynesiane per essere analizzate con sufficiente approfondimento, in modo tale che gli autori dei modelli poterono sostenere che cose come i ‘contratti di Calvo [13]’ si poteva considerare possedessero fondamenti microeconomici. Questo ha due conseguenze.
La prima, porta ad una inevitabile tentazione a collocare da una parte i problemi difficili, senza che ci sia una stringente problematicità da risolvere che li riguardi. Un chiaro caso di questo aspetto, che esaminerò in seguito, è come il sistema finanziario interagisce con l’economia reale. La seconda: essa attenua la complessità, anche quando ci possono essere buone ragioni che indicano la complessità come essenziale. Questo è particolarmente vero se i ricercatori assumono quella che io ho chiamato (Wren-Lewis 2011) una posizione ‘purista’ sui fondamenti microeconomici.
Questa posizione purista è esemplificata da Chari ed altri (2008). Essi sostengono che una grande quantità di attuali modelli DSGE, inclusa l’analisi neokeynesiana, non è ben fondata in termini di profondità dei parametri e di chiaramente identificabili shock. Come noto nel mio lavoro del 2011, un significato importante nei modelli neokeynesiani è che essi operano un compromesso nell’idea di coerenza interna, perché consentono una prova di coerenza interna attraverso riferimenti indiretti (talvolta riferiti dagli autori dei modelli come “scorciatoie” o “trucchi”). Ad esempio, viene indicato che i ‘contratti di Calvo’ riflettono quello che accadrebbe se le imprese affrontassero i costi di adeguamento dei listini, ma questi ultimi non sono direttamente inclusi nel modello. Chari ed altri ritengono che sia preferibile attenersi rigorosamente a semplici modelli nei quali i fondamenti micro siano chiari, e dare consigli politici utilizzando questi modelli. Che argomenti di questo genere possano essere avanzati da economisti con una reputazione meritatamente elevata, è una testimonianza del successo della NCCR, perché essi corrispondono a dire non molto di più che, se non si capisce qualcosa, la cosa migliore, quando si propone una politica, è assumere che quella cosa non esista! Mentre ci sono buone testimonianze che probabilmente una maggioranza di macroeconomisti non assumerebbe questa posizione purista, i pericoli delle referenze comportano che, nella pratica, l’influenza dei puristi ha maggior peso della loro consistenza numerica.
Al contrario, altre forme più tradizionali di elaborazione dei modelli sono assai più adattabili. Le innovazioni che migliorano la capacità di spiegare i dati possono essere incorporate nei Modelli Econometrici Strutturali (SEM) molto più rapidamente, perché non c’è alcuna richiesta di controllare se questa innovazione abbia implicazioni per altre relazioni. Le proprietà di piccoli modelli aggregati possono essere modificate molto rapidamente per riflettere regolarità empiriche, se non c’è alcuna precedente richiesta di dedurre ogni relazione da un comportamento individuale di ottimizzazione in un modo reciprocamente coerente.
Naturalmente, l’adattamento di questi tipi di SEM o modelli di piccoli aggregati non è la soluzione ideale, perché la coerenza interna non è indagata. Tuttavia questo non significa che tali modelli siano peggiori dei modelli DSGE nel dar vita a consigli politici realistici, giacché i modelli DSGE semplicemente ignorano il problema empirico (questo viene discusso più oltre, nel paragrafo 5). Non c’è alcuna ragione per la quale non possano essere perseguiti entrambi contemporaneamente. L’analisi DSGE può tentare di dare fondamento microeconomico a relazioni che appaiono solide nei Modelli Econometrici Strutturali, oppure può essere importante nella prospettiva di una analisi di sistema utilizzare piccoli modelli analitici, mentre questi modelli ed i SEM possono incorporare gradualmente progressi nella teoria che provengono da una analisi del tipo dei DSGE.
Sino a questo punto, tutto questo è astratto, e non c’è alcuna chiara indicazione che una cosa del genere fosse importante precedentemente alla crisi finanziaria. Tuttavia, in almeno un’area di analisi abbastanza cruciale, abbiamo chiare indicazioni che ciò poteva essere importante. I macroeconomisti hanno compreso da qualche tempo le insufficienze empiriche del semplice modello di ottimizzazione del comportamento del consumatore. In particolare, il consumo aggregato sembra mostrare un eccesso di sensibilità ai cambiamenti provvisori nei redditi correnti. Una ragione evidente, anch’essa comunemente compresa, è che gli agenti possono essere condizionati dal credito.
Questo suggerisce una domanda evidente: queste limitazioni nel credito sono costanti o cambiano col tempo, e se esse cambiano cos’è che governa quei mutamenti? Rispondere a tale domanda all’interno di un modello DSGE richiede di sviluppare un modello con fondamento microeconomico del settore finanziario. Questo è difficile, e forse sarebbe considerato una perdita di tempo, se ci si concentra nell’utilizzare un modello DSGE soltanto per esaminare le proprietà del ciclo economico. Di conseguenza, il modo in cui molti autori di modelli DSGE hanno gestito questo problema è stato quello di postulare l’esistenza di una proporzione fissa di orientamento generale dei consumatori, i quali semplicemente consumerebbero tutto il loro reddito aggregato, relativo a qualsiasi mutamento.
A partire dalla crisi finanziaria, naturalmente, un grande sforzo è stato rivolto a modellare le interazioni tra i settori finanziari e dell’economia reale, con modalità fondate sulla microeconomia. La domanda cruciale è perché gran parte di questo lavoro non è intervenuta prima della crisi. La risposta che generalmente si riceverà, è che non c’era nessuna impellente ragione di farlo, perché ovviamente in pochi credevano che sarebbe intervenuta una crisi. Tuttavia, in questo modo si ignora un aspetto molto semplice. Come dimostra un lavoro in associazione con Muellbauer e Chris Carroll (ad esempio, Aron ed altri, 2010, e Carroll ed altri, 2012), è molto difficile dar conto delle tendenze generali nel tasso di risparmio nel corso degli ultimi 30 anni negli Stati Uniti e nel Regno Unito, senza mettere in conto i cambiamenti nelle condizioni del credito. Queste tendenze nel tasso di risparmio, che sono abbastanza incoerenti con il modello standard intertemporale, erano abbastanza visibili prima della crisi finanziaria, tuttavia, come risultato delle tecniche di depurazione delle tendenze, potevano essere rimosse dal lavoro empirico che utilizzava i nodelli DSGE.
All’opposto, i SEM non depurano preventivamente i dati, e dunque spiegare queste tendenze dovrebbe essere una condizione cruciale per ogni funzione di consumo in un modello di questo tipo. Se un numero maggiore di ricercatori accademici fossero stati attivamente coinvolti nei SEM e nel definire modelli econometrici ad equazione singola, dove è considerato importante adattare serie temporali per il consumo non depurate per un tempo ragionevolmente lungo, sarebbe stato improbabile che non fosse diventato più diffusamente conosciuto. Coloro che avessero operato su questi SEM avrebbero compreso che trattare le condizioni del credito semplicemente come una tendenza esogena, quando essa era così importante nel determinare un aggregato macroeconomico talmente cruciale, era un atto eroico e potenzialmente pericoloso. Di conseguenza, la ricerca sarebbe stata indirizzata quasi certamente verso la comprensione di questa cruciale influenza finanziaria, il che a sua volta avrebbe portato ad una migliore comprensione delle interazioni tra finanza ed economia reale. La macroeconomia è stata soltanto capace di ignorare tutto questo a causa della metodologia dei fondamenti microeconomici che declassano l’importanza delle coerenze esterne.
Se avete bisogno di comprendere le interazioni tra finanza ed economia reale per stimare, negli Stati Uniti come nel Regno Unito, le serie temporali dei comportamenti di consumo precedenti alla crisi, allora è molto fuorviante sostenere che la macroeconomia prevalente ha ampiamente ignorato queste interazioni perché non c’era alcuna ragione empirica di fare altrimenti. Di fatto, queste interazioni hanno potuto essere ignorate perché la metodologia prevalente richiedeva una coerenza esterna solo parziale. Naturalmente, persino se questi approcci alternativi avessero ricevuto maggiore attenzione, è improbabile che la crisi finanziaria avrebbe potuto essere prevista, per non dire impedita. Tuttavia, la più seria critica, all’epoca, ai modelli del prevalente DSGE furono che essi erano incapaci di analizzare la natura e la durata delle successiva recessione, il che in grande misura dipendeva dal mutamento delle condizioni del credito e dalla reazione ad esse dei consumatori.
5 Rivoluzione o evoluzione
Considerata in termini di metodologia anziché di politica economica, la NCCR ebbe grande successo negli ambienti accademici. I fondamenti microeconomici, che in precedenza erano stati considerati come un miglioramento graduale all’interno della pratica tradizionale, divennero tra gli accademici il solo modo accettabile di modellare l’economia. Con l’avvento della teoria neokeynesiana, versioni quantificate dei modelli DSGE cominciarono ad essere utilizzate dalle autorità della politica economica per fornire consigli empirici di politica, in alcuni casi in sostituzione di modelli empirici più tradizionali. Gradualmente prese piede l’idea che si poteva fare una seria analisi politica soltanto se si simulava un modello DSGE.
I Modelli Econometrici Strutturali (SEM) più empiricamente fondati continuarono ad essere usati, sia dalle istituzioni della politica economica che dai previsori del settore privato. Tuttavia, negli Stati Uniti venne scoraggiato l’impegno degli ambienti accademici su di essi, dato che si credeva che questi modelli fossero stati definitivamente screditati dalla NCCR. Gli studi che analizzavano le proprietà delle serie temporali degli aggregati macroeconomici individuali divennero abbastanza rari nelle più importanti riviste specializzate.
Ho sostenuto nel paragrafo precedente che questa rivoluzione metodologica ha contribuito alla ricerca macroeconomica ignorando le importanti interazioni tra l’economia reale ed i settori finanziari, il che a sua volta la lasciò malamente collocata nella comprensione delle conseguenze della crisi finanziaria per l’economia. Questa è la ragione per la quale molte autorità economiche che operavano in quel periodo possono essere state così sprezzanti per i modelli DSGE, e per la quale molti sentivano molto più utile tornare a classici come La Teoria Generale.
Sebbene siano state generalizzate le critiche ai modelli DSGE da parte delle autorità economiche e di altri, c’è poca spinta al cambiamento dall’interno della macroeconomia accademica, perché l’economia è di natura progressiva e i ricercatori si sentono consacrati a tempi lunghi nell’esaminare le interazioni tra economia reale e finanza. La metodologia è progressiva. Si potrebbe dire che quello che dovrebbe cambiare è il punto di vista per il quale tutti gli altri metodi, più empiricamente basati, sono intrinsecamente inferiori. Gli studiosi stanno ancora insegnando che le altre metodologie sono state fatalmente difettose, alla luce dei risultati della NCCR. Il che è semplicemente un errore.
I modelli DSGE mantengono la coerenza interna sacrificando la coerenza esterna. Naturalmente, l’ideale sarebbe avere modelli che siano sia internamente coerenti (ovvero, pienamente basati sulla microeconomia) che esternamente coerenti (che spieghino le proprietà dei dati che voi volete che modelli del genere spieghino). Ma quell’obbiettivo, persino se potesse mai essere realizzato, è lungi da venire, e nello stesso tempo è una sorta di scambio: una frontiera, se preferite, con le coerenze interne ed esterne collocate su due assi (vedi Pagan 2003). Si può pensare ai modelli DSGE come se si collocassero su una frontiera dove essa interseca l’asse della coerenza interna, mentre le semplici ‘autoregressioni di vettore’ (VAR) [14] sono laddove quella frontiera interseca l’asse della coerenza esterna. Non c’è nessuna ragione logica per la quale altri punti su quella frontiera dovrebbero essere giudicati inaccettabili dagli studiosi.
Un fattore di confusione è stabilire una connessione tra i modelli DSGE e l’analisi delle politiche, e tra i metodi maggiormente basati sui dati con le previsioni. Si tratta di una distinzione inutile. Essa deriva dall’opinione secondo la quale un modello o è teoricamente coerente o non è: non possiamo avere gradi di coerenza teoretica. In termini di teoria, esistono o modelli DSGE, oppure modelli (quasi certamente) scorretti. Ma le autorità della politica economica non vogliono soltanto racconti che siano internamente coerenti. Esse vogliono racconti che siano attinenti al mondo reale! Un modello DSGE è più probabile che sia soggetto ad errori di specificazione, in quanto ignora le complicazioni del mondo reale, come documenta Fair (2012).
Ad esempio, sarebbe stato meglio, dopo la crisi finanziaria, usare un modello DSGE nel quale la finanza non giocava alcun ruolo nelle decisioni, oppure un modello più fondato empiricamente, nel quale quelle interazioni venivano catturate in modo semplificato e rapido? Per le autorità economiche la scelta è evidente. Alle richieste dei modellatori DSGE secondo le quali c’è bisogno di dar tempo agli economisti accademici per costruire un modello DSGE che incorpori il settore finanziario, semplicemente sfugge il problema. L’argomento che molti avanzano non è soltanto che il programma di ricerca basato sulla microeconomia è progressivo, ma che esso è l’unico appropriato per fare una analisi della politica. In riferimento ad ogni situazione momentanea, questo è semplicemente falso.
Un esempio meno immaginario è fornito dalla stessa teoria neokeynesiana. Prima che la teoria neokeynesiana fosse sviluppata, i modelli con fondamenti microeconomici non ammettevano alcuna concessione al tema della rigidità dei prezzi. É un nonsenso ritenere che a quel tempo i modelli del Ciclo Economico Reale dovessero essere migliori come guida della politica monetaria a confronto con un modello SEM, che incorporava la rigidità dei prezzi ammettendo qualche fattore di inerzia nella fissazione di prezzi e salari. Può darsi che i SEM abbiano patito per la critica di Lucas e per equazioni imprecise, ma ciò non significa che l’alternativa dei modelli del Ciclo Economico Reale fosse migliore.
L’idea che l’unico modello corretto per l’analisi politica sia un modello con fondamento microeconomico ha altri difetti logici. É possibile che relazioni aggregate possano fornire una idea adeguata di un certo grado di eterogeneità che sarebbe ridicolo cercare di afferrare utilizzando i fondamenti microeconomici. Un buon esempio viene fornito da Carroll (2011). Egli dimostra come migliaia di simulazioni, che esaminano la condotta di risparmio ottimale da parte di agenti di diversa età e di profili di proprietà o di reddito in condizioni di incertezza, si avvicinano alle caratteristiche della funzione aggregata permanente di consumo del reddito proposta da Friedman. Questa relazione aggregata basata sulla ottimizzazione di fattori individuali non è, e non può essere, analiticamente derivata come parte di un modello con fondamenti micro.
Il progetto dei fondamenti micro cerca di misurarsi con tali problemi utilizzando quelli che si potrebbero definire trucchi. La nuova curva neokeynesiana di Phillips derivata dai ‘contratti di Calvo’, può essere considerata in questo modo. Essa si basa su una impresa nella quale la probabilità di modificare i prezzi in ciascun periodo è stabilita, e questo è giustificato col riferimento ad un altro studio che esamina la risposta ottimale ai (cambiamenti dei) costi di listino [15]. Non si può in alcun modo pretendere che questo modello rappresenti effettivamente il modo in cui tutte, o persino la maggioranza delle imprese, operano. Le prove empiriche indicano che ci sono molte diverse ragioni per la vischiosità dei prezzi, una sola delle quali è attribuibile ai costi di listino. La ragione per la quale il modello dei ‘contratti di Calvo’ è ampiamente usato è che esso è trattabile e comporta una curva di Phillips neokeynesiana, che sembra adattarsi ai dati. Dunque, una specificazione viene scelta non perché essa rappresenti il comportamento tipico di una impresa rappresentativa, ma perché produce una relazione aggregata che funziona in via empirica. In questo modo la pretesa di sacralità della coerenza interna diventa un po’ una farsa, che è in parte la ragione delle critiche ai modelli neokeynesiani di Chari ed altri (2008). La risposta corretta non è, come suggeriscono Chari ed altri, di ignorare le rigidità dei prezzi, ma di riconoscere che un posizione purista dei fondamenti microeconomici è insostenibile e che la pretesa che i modelli DSGE siano intrinsecamente superiori è falsa.
Per questi motivi, non c’è assolutamente alcuna ragione per la quale i modelli DSGE non potrebbero essere sviluppati sulla falsariga di modelli più tradizionali di analisi. Del resto, per un certo periodo ciò accadde, non negli Stati Uniti ma nel Regno Unito, dove il coinvolgimento degli studi universitari nei SEM proseguì sino agli ultimi anni ’90. In particolare, il consiglio delle ricerche di scienza sociale degli Stati Uniti fornì un prolungato periodo di finanziamenti per un “Ufficio di macro modellazione”, che assemblò tutti gli importanti SEM del Regno Unito, e confrontò le loro proprietà criticamente (vedi Smith, 1990). Il finanziamento dell’Ufficio terminò soltanto quando altri accademici inglesi sostennero che quello non era un modo efficiente di utilizzare i fondi della ricerca, laddove per efficienza si considerava anche la capacità di pubblicare studi sulle riviste più importanti (principalmente statunitensi).
I modelli che l’Ufficio analizzava negli anni ’90 non erano gli stessi che Lucas e Sargent avevano criticato così efficacemente. Molti incorporavano ordinariamente le aspettative razionali, e di volta in volta tentavano di attenuare l’impatto della critica di Lucas (vedi Church ed altri, 2000). Essi cominciarono più a somigliare ai modelli DSGE che venivano sviluppati nello stesso periodo. Restavano tuttavia abbastanza diversi da quei modelli, perché in maggioranza si preoccupavano di includere equazioni aggregate che fossero capaci di tracciare le proprietà delle serie temporali dei dati su una base equazione-per-equazione, e come risultato in parte erano certamente interamente non coerenti (l’incoerenza derivava anche dalla necessità di essere ‘strumenti per tutti gli usi’, vedi Currie 1985). Un modello di questo genere, ad esempio, è attualmente usato dalla Fed degli Stati Uniti per le previsioni e per l’analisi delle politiche (Brayton ed altri, 2014).
Su un piano personale, il modello mio personale sull’economia del Regno Unito, discusso in Wren-Lewis ed altri (1996), includeva una funzione di consumo basata sulla ottimizzazione intertemporale, dove una quota di consumatori erano condizionati dal credito. Quella quota non era costante, ma era una serie di dati esogeni basati su particolari variabili finanziarie. Se il finanziamento per quel modello fosse continuato in questo secolo, quella variabile esogena sarebbe quasi certamente stata resa endogena modellando il settore finanziario, come ho suggerito nel paragrafo precedente.
Questi sviluppi mostrano come era abbastanza possibile una evoluzione dei SEM, incorporando molte idee teoriche che facevano parte della NCCR, ma restando assai diversi sia dai modelli DSGE che dai VAR. Piuttosto che essere i dinosauri vecchia maniera immaginati da molti accademici, essi rappresentano un modo di modellare l’economia che le autorità finanziarie trovano utile, e che a loro volta possono ispirare coloro che lavorano con modelli DSGE. In particolare, poiché il bisogno di seguire serie temporali è molto più importante nei modelli SEM che non in quelli DSGE, essi, e le stime econometriche che li accompagnano, possono fornire intuizioni su importanti regolarità empiriche che all’analisi DSGE possono sfuggire.
Se una rivoluzione non era ineluttabile da un punto di vista logico, ed una evoluzione che avesse consentito ai modelli DSGE di svilupparsi sulla falsariga di altri modi di fare macroeconomia era sia possibile che preferibile, è importante chiedersi perché non venne seguito un percorso evolutivo. Ci furono altre ragioni, oltre ogni erronea necessità logica, perché non si imboccasse una strada evolutiva? La risposta è che ce n’erano molte. Le ragioni che seguono sono di natura congetturale e sono difficili da documentare, per non dire da quantificare, ma le ricordo qua semplicemente per indicare che c’erano molte spiegazioni alternative oltre la (erronea) necessità logica, quanto ai motivi per i quali intervenne la rivoluzione metodologica.
Una analogia che Greg Mankiw (2006) rese popolare, nel mentre discuteva su temi simili, riguardava gli scienziati e gli ingegneri. Io preferisco confrontare la macroeconomia alla medicina, per la stessa ragione per cui il recente contributo di Paul Romer, che utilizza la biomedicina e confronta la scienza di laboratorio e gli studi clinici, è più attraente. In questo caso i modellatori DSGE sono gli scienziati, e coloro che usano altri approcci sono gli ingegneri o i clinici. Il modo in cui vorrei usare l’analogia è che gli ingegneri preferiscono usare modelli che funzionano, mentre gli scienziati sono alla ricerca di una comprensione più profonda.
Ci può essere una tendenza tra molti macroeconomisti accademici a voler essere scienziati. In quella che è diventata un disciplina altamente matematica, un errore di matematica è lo sbaglio più imbarazzante che si possa fare. Sviluppare un modello nel quale la teoria microeconomica, che è utilizzata per giustificare una parte del modello, confligge con quella usata per giustificarne un’altra (incoerenza interna), forse si avvicina, in termini di un inventario degli errori da evitare. C’è un innegabile attrattiva nel raccontare una storia che è completa e coerente con se stessa, piuttosto che una nella quale ci sono imbarazzanti incoerenze e questioni irrisolte.
Un’altra ovvia attrattiva per una nuova generazione di macroeconomisti che seguivano la metodologia della NCCR è stata l’opportunità che essa forniva di riscoprire vecchie verità utilizzando nuove tecniche. Persino se gli economisti che si ispiravano alle vecchie verità avevano buone referenze, l’analisi potrebbe essere descritta come fare “una macroeconomia appropriata”. Per accademici affamati di opportunità di pubblicazione, era difficile ignorarlo.
Un’altra indubbia attrattiva che aveva la NCCR era che essa consentiva alla macroeconomia di essere ricondotta sotto l’ombrello microeconomico. Gli economisti neokeynesiani possono parlare di come i cicli economici riguardano una esternalità (la rigidità del prezzo che riflette il costo della correzione di prezzi individuali ha un impatto sulla domanda generale), e come questa carenza del mercato richieda l’intervento dello Stato. I loro colleghi micro possono riferirsi a questo linguaggio (c’è tuttavia una certa ironia nel fatto che, mentre la macroeconomia stava mettendo più enfasi sulla teoria micro, molte aree di microeconomia stavano diventando più empiriche).
Era anche chiaro che c’era molto da criticare nella metodologia esistente. I SEM potevano facilmente diventare costruzioni ingestibili che era difficile riferire a modelli più semplici. Tuttavia, è possibile andare oltre quel problema, per esempio con i metodo della “decostruzione teoretica” proposto in Wren-Lewis ed altri (1996). Come abbiamo già notato con la curva di Phillips, una teorizzazione informale potrebbe talvolta portare a serie specificazioni improprie. Le intuizioni teoretiche che gli economisti neoclassici misero sul tavolo erano impressionanti: oltre le aspettative razionali, c’era una razionalizzazione del reddito permanente ed i modelli del ciclo vitale che utilizzano l’ottimizzazione intertemporale, l’incongruenza temporale ed altro ancora.
Un aspetto finale che dovrebbe essere ricordato è l’ideologia, che si connette alle due componenti della NCCR delle quali ho parlato nel paragrafo secondo. Almeno alcuni dei rivoluzionari neoclassici, o coloro che si schierarono al loro fianco, volevano rovesciare l’interventismo sul mercato che essi pensavano la politica keynesiana impersonasse. Non volevano modificare l’economia keynesiana, bensì rovesciarla. Ciò richiedeva una rivoluzione, ed una rivoluzione nella metodologia che consentisse di ignorare parzialmente le testimonianze empiriche era una maniera conveniente per ottenerlo.
Una peculiarità di tutte queste spiegazioni è che la loro efficacia è gradualmente diminuita col tempo. Le vecchie verità sono state riscoperte ed inserite nel linguaggio dei modelli con fondamento microeconomico. I microeconomisti hanno da tempo smesso di celebrare il ritorno della macroeconomia all’ovile, e in molti si sono stancati delle interminabili simulazioni DSGE. L’econometria delle serie temporali è stata talmente negletta che adesso ci sono ampie possibilità per nuove scoperte. Si è dimostrata scorretta quella speranza, sorretta dall’ideologia, secondo la quale l’economia keynesiana poteva essere rovesciata.
Ogni tanto viene suggerito che la crisi finanziaria e la Grande Recessione potrebbero indurre ad una nuova rivoluzione, nel modo di fare macroeconomia. In questo potrebbe essere implicita la realizzazione di un desiderio, ma esso potrebbe anche rappresentare una lettura fuorviante della storia che ho discusso nel secondo paragrafo. La metodologia dei fondamenti micro è radicata, e appare anche (giustamente, dal mio punto di vista) a coloro che la utilizzano di natura progressiva, cosicché è improbabile che coloro che la praticano metteranno gli strumenti da parte per ricominciare da capo. Quello che forse possiamo invece sperare è un interesse rinnovato nell’econometria delle serie temporali, assieme alla accettazione che altri modi di realizzare modelli possano essere di qualche utilità nei consigli politici. Una nuova rivoluzione, che sostituisca i metodi attuali con modalità più antiche di fare macroeconomia, sembra improbabile, e direi anche indesiderabile. La disciplina non ha bisogno di progredire ogni volta tramite rivoluzioni.
6 Conclusioni
Per comprendere la macroeconomia accademica non è più necessario partire da La Teoria Generale. É assai più importante leggere Lucas e Sargent (1979), che è il testo fondamentale di quella che generalmente è nota come la Controrivoluzione Neoclassica (NCCR). Essa ha dato i natali ai modelli DSGE ed al programma dei fondamenti microeconomici, che sono centrali nella macroeconomia prevalente dei nostri tempi.
La NCCR può essere pensata come se avesse due componenti. La prima componente tentava di soppiantare la politica keynesiana, ed è fallita. I modelli neokeynesiani sono diventati dominanti tra coloro che studiano e controllano il ciclo economico, sebbene questa opinione sia discussa da alcuni studiosi accademici e di frequente ignorata dai politici. La seconda componente della NCCR era metodologica, ed ha trasformato il modo in cui si fa la macroeconomia accademica.
Io sostengo che la NCCR andò troppo oltre nel rimpiazzare metodi di analisi fondati in modo più empirico. Sebbene il programma dei fondamenti micro sia di natura progressiva (a meno che non siate dei puristi), facendo della coerenza teoretica un prerequisito, esso degrada l’importanza delle prove empiriche. Questo va contro lo spirito de La Teoria Generale, ma io sostengo che in modo ancora più importante ha lasciato la macroeconomia impreparata dinanzi alla crisi finanziaria. Metodi di analisi più tradizionali sono abbastanza nelle condizioni di essere perseguiti sulla falsariga dei modelli DSGE, e non sono affatto fallaci, nonostante quello che spesso si insegna. Se ci fosse stato un maggiore coinvolgimento accademico in questi approcci alternativi, l’importanza del settore finanziario per l’economia reale avrebbe ricevuto una maggiore attenzione prima della crisi finanziaria. Non abbiamo bisogno di una nuova rivoluzione metodologica come risposta a questa crisi, piuttosto di una resurrezione dei vecchi metodi che furono ispirati da La Teoria Generale.
FONTI
Note della traduzione
[1] Per un inquadramento sui modelli DSGE, da Wikipedia:
“La nuova macroeconomia keynesiana (NMK) o nuova economia keynesiana (NEK) è una scuola di pensiero economica che, in risposta alle conclusioni della nuova macroeconomia classica riabilita l’economia keynesiana, riprendendone l’impostazione, ma arricchendola di nuovi concetti. Due ipotesi principali definiscono l’approccio Neo Keynesiano alla macroeconomia. Come per l’approccio neoclassico, l’analisi macroeconomica dei Neo Keynesiani di solito presume che le famiglie e le imprese abbiano proprie aspettative razionali. Le due scuole tuttavia differiscono nel fatto che l’analisi Neo Keynesiana di solito presuppone una varietà di difetti di mercato. In particolare, i Neo Keynesiani ritengono che i prezzi e i salari siano “sticky”, cioè vischiosi, il che significa che essi non si adeguano istantaneamente alle variazioni delle condizioni economiche. La vischiosità dei prezzi e dei salari, e le altre variabili del mercato presenti nei modelli Neo Keynesiani, implicano che l’economia possa fallire dall’ottenere la massima occupazione. Per cui, i Neo Keynesiani sostengono che la stabilizzazione macroeconomica con intervento dei governi centrali (usando la politica fiscale) o delle banche centrali (usando la politica monetaria) può portare ad un risultato più efficace di una politica macroeconomica del classico laissez faire.
(…)
In seguito al lavoro pionieristico, esaminato nei volumi di Mankiw e Romer, su che tipo di elementi microeconomici possano produrre effetti macroeconomici keynesiani, gli economisti iniziarono a mettere insieme questi pezzi per costruire modelli macroeconomici. Questi modelli descrivono le decisioni delle famiglie, delle imprese monopolistiche competitive, del governo o della banca centrale, e a volte di altri agenti economici. Le imprese monopolistiche si presume che affrontino alcuni tipi di vischiosità dei prezzi, cosicché ogni volta che le imprese riaggiustano i propri prezzi, esse devono tenere a mente che tali prezzi probabilmente resteranno invariati più a lungo di quanto esse stesse vorrebbero. Molti modelli presumono che anche i salari siano rigidi. La produzione totale è determinata dagli acquisti delle famiglie, che dipendono dai prezzi imposti dalle imprese. Siccome il comportamento macroeconomico deriva dall’interazione delle decisioni di tutti questi agenti, che agiscono nel corso del tempo, in faccia all’incertezza sulle condizioni future, questi modelli sono classificati come dynamic stochastic general equilibrium (DSGE) models. I parametri del modello sono di solito stimati o scelti in modo da far sì che le dinamiche del modello riporti similmente i dati macroeconomici attuali del paese o della regione che viene studiata. Questa metodologia di modello è esaminata in Woodford (2003).
[2] Con “scuola dell’acqua salata” si intende la scuola keynesiana americana, che si concentrava negli ambienti accademici delle Università delle due sponde oceaniche; mentre con “scuola dell’acqua dolce si intende la scuola neoclassica, che si concentrava nelle Università centrali americane, soprattutto nella regione di Laghi. Vedi anche alle Note sulla traduzione, “freshwater e saltwater”.
[3] Lord Maurice Harold Macmillan, I conte di Stockton (Londra, 10 febbraio 1894 – Birch Grove, 29 dicembre 1986), è stato un politico inglese. Esperto di problemi internazionali, propugnatore di una sorta di conservatorismo progressista, mediatore fra il liberalismo anarchico ed il dirigismo, intransigente oppositore del nazi–fascismo, amico personale di Winston Churchill e genero del Duca di Devonshire, occupò cariche della massima importanza nella vita politica inglese del primo dopoguerra in poi.
[4] Si rammenti che oggi ha prevalso la soluzione di chiamare la crisi del 2008 e seguenti Grande Recessione, mentre la crisi degli anni ’30 viene definita la Grande Depressione. La Depressione è in effetto normalmente un fenomeno più grave, sia in termini di intensità che di durata. In realtà, quanto alla durata è ormai certo, almeno in Europa, che la crisi recente abbia avuto (o stia avendo) caratteri più ‘depressivi’ della Grande Depressione stessa. Considerati come fenomeni globali, comunque, si deve anche ricordare che la seconda crisi è stata meno globale della prima: la Cina e molti mercati emergenti, in questi anni, hanno conosciuto più un rallentamento della crescita che una vera recessione.
[5] Riportiamo, dalle Note sulla traduzione, una parte della voce relativa alla “Curva di Phillips” ed ai suoi sviluppi, utile alla comprensione della frase:
“L’economista neozelandese Alban William Phillips (1914 – 1975), nel suo contributo del 1958 ‘The relationship between unemployment and the rate of change of money wages in the UK 1861-1957′ (La relazione tra disoccupazione e il tasso di variazione dei salari monetari nel Regno Unito 1861-1957), pubblicato su Economica, rivista edita dalla London School of Economics, osservò una relazione inversa tra le variazioni dei salari monetari e il livello di disoccupazione nell’economia britannica nel periodo preso in esame. Analoghe relazioni vennero presto osservate in altri paesi e, nel 1960, Paul Samuelson e Robert Solow, a partire dal lavoro di Phillips, proposero un’esplicita relazione tra inflazione e disoccupazione: allorché l’inflazione era elevata, la disoccupazione era modesta, e viceversa. ” La società può permettersi un saggio di inflazione meno elevato o addirittura nullo, purché sia disposta a pagarne il prezzo in termini di disoccupazione “. (Robert Solow) …..
“Tuttavia nel 1970, molti Paesi sperimentarono elevati livelli di inflazione e disoccupazione, fenomeni noti con il termine di stagflazione. Le teorie basate sulla curva di Phillips non erano quindi in grado di giustificare tale osservazione, e la curva di Phillips divenne oggetto di attacchi da parte di un gruppo di economisti, capeggiato da Milton Friedman, secondo i quali l’evidente fallimento delle politiche basate sulla curva richiedeva il ritorno a politiche economiche non interventiste, di libero mercato. Di conseguenza, l’idea che sussistesse una relazione semplice, prevedibile e persistente tra inflazione e disoccupazione fu abbandonata da gran parte dei macroeconomisti ….”
“Nuove teorie quali quella sulle aspettative razionali (NAIRU) (non-accelerating inflation rate of unemployment) sono nate per cercare di spiegare la stagflazione. In particolare la NAIRU, detta anche teoria del livello naturale di disoccupazione, distingue tra curve di Phillips di breve o di lungo periodo.
La curva PC (Philips curve) nel breve termine sembra come una normale curva PC, ma traslata in quanto nel lungo periodo le aspettative cambiano …. Nel lungo periodo, solo un costante tasso di disoccupazione (il Nairu, tasso naturale di disoccupazione) è collegato ad un tasso di inflazione stabile. La curva di Phillips nel lungo periodo è così verticale, così non c’è alcun trade-off (costo-opportunità) tra inflazione e disoccupazione.
Nel diagramma, la Curva di Phillips di lungo periodo è la linea rossa verticale. La teoria del NAIRU dice che il tasso di disoccupazione è situato al di sotto di questa linea, in quanto dopo il cambiamento A, le aspettative di inflazione aumenteranno. Questo sposterà la Curva di Phillips del breve periodo in alto, come indicato dalla freccia indicata con B. Questo creerà un peggiore trade-off tra disoccupazione ed inflazione. In questo modo ci sarà una maggiore inflazione ad ogni livello del tasso di disoccupazione rispetto a prima. Così, spostandoci al problema delle “accelerazioni di inflazione” endogene, la teoria spiega la stagflazione.
[6] Nel senso della sua carica di Presidente della Associazione degli economisti statunitensi.
[7] Vedi la parte finale della nota precedente.
[8] In questo caso, si intende quella keynesiana.
[9] Leonhard Euler (1707-1783) fu un matematico, un fisico, un astronomo, un logico ed in ingegnere svizzero, che fece una enormità di scoperte in molti campi. Il questo caso, la applicazione della sua funzione che venne introdotta da alcuni economisti (in particolare da Robert Hall) è stata così sintetizzata (da un post di Noah Smith): “Fondamentalmente, essa dice che quanto decidete di consumare oggi rispetto a domani è determinato dal tasso di interesse (che significa quanto venite compensati dal rinviare il vostro consumo a domani); dal grado di preferenza temporale (ovvero, da quanto siete impazienti) e dalla vostra attesa utilità marginale di consumo (che è il vostro desiderio di consumare in prima istanza)”.
[10] Una “autoregressione di vettore” (VAR) è un modello econometrico utilizzato per ‘catturare’ le interdipendenze lineari tra varie serie temporali. Essa, cioè, utilizza il modello autoregressivo ammettendo più di una variabile in evoluzione. Ogni variabile ha una equazione che spiega la sua evoluzione, basandosi sui suoi propri sfasamenti e sugli sfasamenti delle variabili di altri modelli. Di conseguenza, essa non richiede una particolare conoscenza delle forze che influenzano le variabili, come avviene invece nel caso dei modelli chiamati strutturali. L’unica conoscenza preventiva che è richiesta è un lista di variabili che si può ipotizzare si influenzino reciprocamente nel corso del tempo.
[11] Come si è visto, con modelli RBC si intendono i modelli della Teoria del Ciclo Economico Reale.
Gli DSGE sono invece definiti “dinamici” perché studiano l’equilibrio dell’economia nella sua evoluzione nel tempo; e sono definiti “stocastici” (stocastico significa “che mira, che congettura, che è abile nel congetturare”) perché mettono nel conto che l’economia è influenzata da fattori casuali o random, come l’evoluzione delle tecnologie, i prezzi del petrolio, i mutamenti nelle politica macroeconomiche statali. Sono così definiti anche per evidenziare la differenza con i modelli tradizionali studiati nella teoria dell’equilibrio generale di Walras, che si basava su modelli statici.
[12] Per Grande Moderazione si intende l’epoca di forte calo della volatilità dell’economia che ebbe inizio negli anni ’80. Durante questo periodo la deviazione standard – ovvero il livello delle escursioni – calò della metà sui dati del PIL reale trimestrale, e di due terzi sui dati dell’inflazione. Dunque, un periodo di stabilità che si interruppe nel 2008.
[13] Guillermo Calvo, nato nel 1941, è un economista argentino-americano ed insegna alla Columbia University. I suoi contributi teorico sono stati molto vasti; in particolare, i cosiddetti ‘contratti’ di Calvo sono relativi alle modalità della definizione dei prezzi da parte delle imprese, e di conseguenza studiano il fattore della rigidità relativa (“stickness”) dei prezzi, fondamentale per gli economisti keynesiani.
[14] Vedi nota n. 9.
[15] I costi di listino sono il complesso di costi connessi materialmente con un procedura di modifica dei prezzi di listino (ad esempio, riscrivere i listini, applicare i nuovi prezzi alle merci etc.). Ma, oltre tali aspetti più semplici, si considera attinente ad un mutamento dei costi di listino anche la conseguenza che si determina nei consumatori, come una maggiore esitazione nell’acquisto.
By mm
E' possibile commentare l'articolo nell'area "Commenti del Mese"