Blog di Krugman

Inflazionisti sulla base del criterio di Bayes (1 dicembre 2013)

 

December 1, 2013, 10:39 am

Inflationistas at Bayes

I’m putting together a syllabus for one of the courses I’ll be teaching this spring – Econ 348, The Great Recession – and in the course of searching for various views about inflation, ended up looking at a dispute from a while back involving some of the usual suspects. Brad DeLong poked fun at John Cochrane for having declared, back in 2009, that “the danger now is inflation.” Cochrane angrily denied that this was of any significance – he only said that it was a danger, he didn’t necessarily predict that it would happen within any particular time frame. (He thereby provided a demonstration of another key fact about our economic debate: nobody ever admits that they were wrong about anything, and nobody changes views in the light of evidence.) Noah Smith, characteristically, tried to find some extenuating circumstances. Etc., etc.

So anyway, retreading this old ground, I found myself thinking about Bayes’s theorem.

It seems to me that Cochrane’s position – he only said it was a danger, not that it would happen at any particular time, so it signifies nothing if it doesn’t happen even after four years have passed – is just untenable in its strong form. If saying that something is a danger carries no implications for the likelihood that it will actually occur, what is the point of saying it? You might as well stand up there and say “Nice day for weather” or sing “Mary had a little lamb.”

No, clearly talking about the danger of inflation was some kind of statement about probabilities – in particular, a statement that the probability of inflation is, according to the speaker’s model of the world, higher than it is in other peoples’ models of the world. And that means that actual events do or at least should matter – they may not prove that one model is wrong and another is right, but they should certainly affect your assessment of which model is more likely to be right.

In short, it’s a Bayesian thing.

Now, language is often vague here. But let’s do a sort of finger exercise. Imagine John, a finance professor, and Paul, an economist/columnist. (George and Ringo wisely stayed out of the whole thing.) In 2009, John says “the danger now is inflation,” while Paul says “there is little danger of inflation.” So, let’s try to assign probabilities to those statements. I don’t think it’s unfair to imagine that John was giving an 80 percent probability to serious inflation over the next four years, while Paul was giving it only a 20 percent probability.

You, as an outside observer, have no way to judge these guys, so ex ante you give each of them a 50 percent probability of having the right model.

Four years pass, and inflation fails to materialize.

You can think of this as a lottery in which there are two urns – a John urn and a Paul urn – containing black balls representing inflation and white balls representing no inflation, with the John urn containing 80 percent black balls but the Paul urn only 20 percent. (What’s a finance professor urn? A lot, when you take consulting fees into account.) First, a coin is tossed to determine which urn will be used, then a ball is drawn. You know that the ball is white; you now have to estimate the odds that it was drawn from John’s urn.

And the answer is that there’s only a 20 percent chance. Ex ante you considered it equally likely that John and Paul might be right; ex post those odds have shifted to 4 to 1 in Paul’s favor.

The point is that using hedged language doesn’t insulate you from consequences if things don’t turn out the way you were clearly suggesting they would, nor does the true point that sometimes the right model makes a wrong prediction. If your model led you to believe that inflation was a “great danger” in 2009, the fact that this danger never came to pass should substantially reduce your belief in that model – and should substantially reduce your credibility if you refuse to revise your beliefs.

 

Inflazionisti sulla base del criterio di Bayes [1]

 

Sto mettendo insieme un programma per un corso di studio che terrò questa primavera – Econ 348, la Grande Recessione – e nel corso di una ricerca dei vari punti di vista sull’inflazione ho finito col soffermarmi su una disputa di un po’ di tempo fa riguardante alcuni dei soliti noti. Brad DeLong metteva in ridicolo John Cochrane per aver dichiarato, nel passato 2009, che “il pericolo ora è l’inflazione”. Cochrane negava innervosito che questo avesse alcun significato – egli aveva solo detto che era un pericolo, non aveva necessariamente previsto che sarebbe accaduto in un particolare lasso di tempo (in tal modo egli fornisce una dimostrazione di un altro aspetto del nostro dibattito economico: nessuno ammette mai di aver avuto torto su niente, e nessuno cambia i suoi punti di vista alla luce dei fatti). Noah Smith, come è sua caratteristica, cercava di trovare qualche circostanza attenuante. Etc., etc.

Così comunque, ricostruendo queste esperienze trascorse, mi sono ritrovato a riflettere sul “Teorema di Bayes”.

Mi pare che la posizione di Cochrane – egli ha solo detto che era un pericolo, non che sarebbe accaduto in un particolare momento, dunque non significa niente se non è successo neppure dopo quattro anni – sia insostenibile nella sua forma esplicita. Se dire che qualcosa è un pericolo non comporta alcuna implicazione quanto alla probabilità che ciò accada veramente, per quale ragione dirlo? Si potrebbe nello stesso modo alzarsi e dire “Bella giornata, quanto al clima”, oppure canticchiare “Maria aveva un agnellino”.

No, chiaramente parlare del pericolo dell’inflazione era un qualche modo di pronunciarsi sulle probabilità – in particolare, un discorso per il quale la probabilità dell’inflazione è, sulla base di modello di mondo di chi lo pronuncia, più alta che in  modelli di mondo di altre persone. E questo significa che gli eventi effettivi contano o almeno dovrebbero contare  – essi possono non provare che un modello è sbagliato e un altro è giusto,  ma dovrebbero certamente interessare il vostro giudizio su quale modello abbia maggiori probabilità di essere giusto.

In poche parole, una faccenda alla Bayes.

Ora, in questo caso il linguaggio è spesso vago. Ma facciamo una specie di esercizio a spanne. Si immagini John, un docente di finanze, e Paul, un economista giornalista (George e Ringo sono saggiamente rimasti fuori dalla faccenda). Nel 2009, John dice che “ora  il pericolo è l’inflazione”, mentre Paul dice che “c’è un piccolo pericolo di inflazione”. Proviamo dunque ad assegnare delle probabilità a questi pronunciamenti. Penso di non sbagliare immaginando che John stesse assegnando un 80 per cento di probabilità ad una seria inflazione nei successivi quattro anni, mentre Paul le assegnava solo un 20 per cento di probabilità.

Voi, come osservatori esterni, non avete modo di giudicare questi signori, dunque ex-ante date ad ognuno di loro un 50 per cento di probabilità di avere il modello giusto.

Passano quattro anni e non c’è traccia di inflazione.

Potete pensare che questa sia una lotteria nella quale ci sono due urne – l’urna di John e l’urna di Paul – che contengono palle nere che rappresentano l’inflazione e palle bianche che rappresentano la non inflazione, con l’urna di John che contiene l’80 per cento di palle nere ed invece l’urna di Paul che ne contiene soltanto il 20 per cento (cosa rappresenta l’urna di un professore di finanze?  Una quantità di cose, se mettete nel conto le parcelle delle consulenze). In primo luogo si lancia a testa e croce una moneta per stabilire quale urna verrà usata, poi si estrae una palla. Sapete che la palla è bianca; dovete ora stimare le probabilità che essa sia stata estratta dall’urna di John.

E la risposta è che ci sono solo un 20 per cento di possibilità. Ex-ante avete considerato egualmente probabile che John e Paul avessero ragione: ex-post quelle probabilità si sono modificate a 4 ad 1 a favore di Paul.

Il punto è che utilizzare un linguaggio cautelativo non vi esime dalle conseguenze se le cose non risultano nel modo in cui avevate chiaramente indicato sarebbero andate, né costituisce un argomento veritiero il fatto che talvolta il modello giusto comporti la previsione sbagliata. Se il vostro modello vi ha portato a credere che l’inflazione fosse un “grande pericolo” nel 2009, il fatto che questo pericolo non abbia mai avuto luogo dovrebbe sostanzialmente ridurre la vostra fiducia in quel modello – e dovrebbe sostanzialmente ridurre la vostra credibilità se vi rifiutate di riconsiderare i vostri convincimenti.


 

 


[1] Thomas Bayes (Londra, 1702Royal Tunbridge Wells, 17 aprile 1761) è stato un matematico e ministro presbiteriano britannico. Deve la sua fama ai suoi studi nel campo della matematica e della filosofia; è noto soprattutto nella statistica per il suo teorema sulla probabilità condizionata, pubblicato postumo nel 1763. Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa che ha scatenato l’evento verificato. (Wikipedia)

wwww 64

 

 

 

 

 

 

 

 

 

By


Commenti dei Lettori (0)


E' possibile commentare l'articolo nell'area "Commenti del Mese"