June 13, 2014 5:49 am
USA! USA! NYC! Back from Oxford, but still — as you can see from the posting time — jet-lagged. I have a steakhouse dinner tonight with some business economists; we’ll see if I end up face down in my tenderloin.
One of the people I expect to see is Barry Ritholtz, who has a nice post acknowledging an error (not at all fundamental) in his column and discussing how to deal with mistakes when you make them — which you will! I’d like to add that there are mistakes and then there are mistakes, and it’s important to know which you’ve made.I’ve written on this before, but may have a somewhat new way to make the point.
Suppose that you’re making a prediction — and every assertion about how the world works has to involve at least an implicit prediction of something, because otherwise it’s empty. This prediction comes from some kind of model — if you don’t think you have a model, you’re kidding yourself, and your model is all the worse because you imagine that you aren’t using it. For the sake of argument, let’s say that your model takes the form
y = a + b*x + u
where y is what you’re predicting, x is some kind of explanatory variable, a and b are parameters, and u represents random stuff (not necessarily really random, but stuff that isn’t part of your model). That last term is important: nobody, and nobody’s model, gets things totally right.
So, suppose your prediction about y ends up having been pretty far off. What does that tell you?
It could say simply that, as the bumper stickers don’t quite say, Stuff Happens. There could have been a random shock; or for that matter your explanatory variables may not have done what you expected them to. But it could also say that your underlying model was just all wrong, requiring a rethink.
And here’s the thing: over the course of your life, you’re going to make both kinds of mistakes. The question is whether to hold em or fold em — to stick with your basic story, or realize that the story is wrong.
Let me give four examples, from my own considerable record of mistakes.
First, back in the mid-1990s I was extremely skeptical about claims of an IT-drive surge in productivity. And I was just wrong: productivity really was surging, although it eventually tapered off. What kind of error was that?
The answer was, not fundamental. My model of how the world works didn’t at all preclude productivity surges, I was just misjudging the one in sight. One thing I did learn, however, was to take buzz that isn’t in the official numbers more seriously than I used to.
Second, in 2003 I warned about a US financial crisis driven by fiscal irresponsibility, somehow comparable to the crises in Asia a few years earlier. This was, I now believe, a fundamental error: countries that borrow in their own currency don’t face the same kind of risk as countries that don’t. What really annoys me about this error was that my own analysis was trying to tell me that: I had done quite a lot of work on the Asian crisis, with models that relied crucially on foreign currency debt and balance sheet effects. But I put that analysis aside and went with my gut, almost always a bad idea.
So this was a fundamental modeling error, calling for a major revision of views — which I did.
Third, I worried a lot in 2010-2012 about a euro breakup. And here too I had a fundamentally flawed model. But the flaw wasn’t in my economic model, which has worked pretty well, but in my implicit political model: I simply failed to appreciate the incentives facing European elites and how willing they would be to do whatever it takes, both in debtor countries and at the ECB, to avoid an outright rift. So, fundamental change called for — but in my political model, not my economic model.
Finally, Britain is growing much faster right now than I expected. Fundamental model flaw? I don’t think so. As Simon Wren-Lewis has pointed out repeatedly, the Cameron government essentially stopped tightening fiscal policy before the upturn, which means in effect that the “x” in my equation didn’t do what I thought it would. On top of that, there was a drop in private savings, which is one of those things that happens now and then.The point is that the deviation of British growth from what a standard Keynesian model would have predicted, while real, wasn’t out of line with the normal range of variation-due-to-stuff-happening; nothing there that warranted a major revision of framework.
So you will be wrong sometimes, and need to do your best to figure out why.
What you should never ever do, of course, is make excuses, or pretend that you didn’t say what you said. Unfortunately, many if not most prognosticators do all the time what nobody should do ever.
Quando sbagliare è un problema e quando non lo è
Stati Uniti! Stati Uniti! New York City! Sono di ritorno da Oxford ma, come potete constatare dall’orario di queste note, ancora sotto l’effetto della sindrome da fuso orario. Stanotte ho una cena a bistecche in un ristorante in onore di Eric Cantor con alcuni esperti di economia aziendale; vedremo se riuscirò a farcela con il mio filetto di manzo.
Una delle persone che penso di incontrare è Barry Ritholtz, che ha scritto un grazioso post con il quale riconosce un errore (per niente fondamentale) nel suo articolo e discute su come fare con gli errori quando capita di farli – la qualcosa succede sempre! Vorrei aggiungere che ci sono errori ed errori, ed è importante capire che cosa si è fatto. Ho scritto su questo in precedenza, ma credo di aver individuato un modo nuovo per esprimere la mia opinione.
Supponiamo che stiate facendo una previsione – ed ogni giudizio su come il mondo funziona deve implicare almeno una implicita previsione di qualcosa, perché altrimenti è un giudizio vuoto. Questa previsione viene da un qualche genere di modello – se pensate di non avere un modello, vi state prendendo in giro, ed il vostro modello è dei peggiori perché vi immaginate di non adoperarlo. Per ipotesi, ipotizziamo che il vostro modello assuma la forma
y = a + b*x + u
dove y è quello che state prevedendo, x è una variabile esplicativa di una qualche natura, ed u rappresenta un qualcosa di casuale (non necessariamente per davvero casuale, ma qualcosa che non è parte del vostro modello). Quest’ultimo passaggio è importante: nessuno, né il modello di nessuno, possiede cose totalmente giuste.
Dunque, supponiamo che la vostra previsione su y finisca col risultare abbastanza lontana dal vero. Che cosa vi dice ciò?
Potrebbe semplicemente significare che, come gli adesivi sui paraurti non ripetono a sufficienza [1], “sono cose che succedono”. Potrebbe esserci stato un evento casuale; oppure per qualche ragione le vostre variabili esplicative possono non aver funzionato come vi aspettavate. Ma potrebbe anche significare che il vostro implicito modello era del tutto sbagliato, e richiede un ripensamento.
E qua è il punto: nel corso della vita, siamo destinati a fare tutti e due i generi di errori. La domanda è se tenersi le proprie carte o cambiarle – impuntarsi sulla sostanza del proprio ragionamento o comprendere che quel ragionamento è sbagliato.
Fatemi fare quattro esempi desunti dalla mia considerevole personale serie di errori.
In primo luogo, sulla metà degli anni ’90 ero estremamente scettico sulle tesi di un innalzamento della produttività guidato dalla tecnologia delle informazioni. Ed avevo proprio torto: la produttività salì realmente, anche se alla fine tale crescita si ridusse. Di quale genere di errore si trattava?
La risposta fu: non un errore fondamentale. Il mio modello di funzionamento del mondo non escludeva affatto aumenti di produttività, ero soltanto io che giudicavo scorrettamente quell’incremento che avevo dinanzi agli occhi. Una cosa che imparai, tuttavia, fu quella di prendere più sul serio le voci che non compaiono sui dati ufficiali, rispetto a quanto ero solito fare.
In una seconda occasione, nel 2003, misi in guardia su una crisi finanziaria negli Stati Uniti provocata da irresponsabilità nella gestione della finanza pubblica, in qualche modo paragonabile alle crisi asiatiche di qualche anno precedenti. Si trattò, oggi ne sono convinto, di un errore di fondo: i paesi che si indebitano nella propria valuta non corrono lo stesso genere di rischi degli altri. Quello che davvero mi infastidisce è che la mia stessa analisi aveva gli elementi per spiegarmi un errore del genere: avevo lavorato molto sulle crisi asiatiche, con modelli che si basavano fondamentalmente sul debito in valuta estera e sugli effetti sugli equilibri patrimoniali. Ma misi da parte quella analisi e procedetti di istinto, la qualcosa è quasi sempre una cattiva idea.
In una terza occasione, nel 2010-2012 mi preoccupai molto di un collasso dell’euro. Ed anche in questo caso, avevo un modello fondamentalmente difettoso. Ma il difetto non era nel mio modello economico, che aveva funzionato abbastanza bene, ma nel mio modello politico implicito: semplicemente non fui capace di valutare quali incentivi avessero dinanzi le classi dirigenti europee e quanto sarebbero state invogliate a fare tutto ciò di cui c’era bisogno, sia nei paesi debitori che al livello della BCE, per evitare di scavare un solco definitivo. Dunque, ero chiamato ad un cambiamento di fondo – ma nel mio modello politico, non in quello economico.
Infine, il Regno Unito sta oggi crescendo molto più rapidamente di quanto non mi aspettassi. Un difetto di fondo nel modello? Non penso. Come ha ripetutamente messo in evidenza Simon Wren-Lewis, il Governo Cameron ha in sostanza fermato la politica di restrizione della finanza pubblica prima delle ripresa, il che significa in effetti che la “x” nella mia equazione non stava facendo quello che pensavo facesse. Oltre a ciò, c’era una caduta nei risparmi privati, che è una di quelle cose che ogni tanto accadono. Il punto è che la deviazione della crescita inglese da quello che il modello keynesiano consueto avrebbe previsto, non era fuori linea rispetto alla normale gamma delle variazioni ordinarie che possono avvenire; non c’era niente che giustificasse una importante revisione del modello.
Qualche volta, dunque, si sbaglia, ed è necessario fare del proprio meglio per capirne la ragione.
Quello che non si dovrebbe mai fare, naturalmente, è accampare scuse, o fingere di non aver detto quello che si è detto. Sfortunatamente, molti previsori fanno in continuazione quello che nessuno dovrebbe fare.
[1] Da quello che capisco negli USA gli adesivi sui paraurti sono, in modo forse più diffuso che da noi, dei segni identitari, dei modi per comunicare qualche personale convincimento. In tal senso, l’adesivo un po’ fatalista che invita a considerare che è inutile darsi troppa pena, perché ci sono cose che succedono e basta, sarebbe opportuno che fosse più divulgato. A meno che, suppongo, non sia collocato sul paraurti posteriore e non venga interpretato come una disponibilità a subire tamponamenti. Questo è un esempio di un adesivo di destra:
By mm
E' possibile commentare l'articolo nell'area "Commenti del Mese"