29 novembre 2015

T'es cop ou t'es pas cop (de comprendre la proba de 3 degrés de réchauffement)?

Quizz: le Botswana est surnommé:

  1. la ferme de l'Afrique 
  2. la Suisse de l'Afrique 
Il ne pleut presque jamais au Botswana, seulement 1% du territoire est cultivable. L'eau est tellement vénérée que le drapeau est bleu, que la monnaie "Pula" signifie "pluie" et que lorsqu'on pense à des lendemains radieux, on pense à des pluies torrentielles. Pour preuve, en 1966 au moment de l'indépendance le président Seretse Khama s'est écrié "let there be rain!" (Lynas, 2007). Alors, sans surprise, le Botswana n'est pas connu pour son agriculture mais pour ses diamants et pour son système bancaire, l'un des "meilleurs" d'Afrique.
Avec quelques degrés de plus à l'échelle du monde de nombreux pays vont souffrir de sécheresse et tous ne pourront pas être des paradis fiscaux (ou trouver des diamants). Soyons clair, 2 degrés, soit l'objectif de la COP21 à horizon 2100, c'est un climat hostile mais ça reste vivable (enfin pas partout...). Mais peut-on véritablement viser et atteindre précisément 2 degrés? Ne devrait-on pas plutôt avoir des objectifs sur des instruments (harmonisation de taxe, réglementation, marché CO2)? Le problème avec cet objectif de 2 degrés, c'est que la marge d'incertitude est grande, le réchauffement pourrait être bien plus élevé avec le même niveau estimé de pollution. Ces 2-3-4 degrés sont calculés par rapport aux émissions de gaz à effet de serre. Suivant ces émissions (dépendantes donc d'hypothèses sur le PIB, les technologies, le commerce etc) on calcule des probabilités de hausse de températures, en 2100 on devrait être à 700 ppm et en conséquence le scénario de 3 degrés est le plus probable (voir graphique ci-dessous extrait de Wagner et Weitzman, 2015). Mais notez qu'il y à au moins 10% de (mal)chance qu'avec ce même niveau d'émission on tape dans les 6 degrés de réchauffement! Si on fait plus que 700 ppm, la proba des 6 degrés augmente, elle passe à presque 20% avec 800 ppm. 

Il est peu probable qu'on laisse la terre se réchauffer à une telle température. Six degrés c'est un come back au crétacé qui n'est pas vraiment connu pour son abondance en mammifères, alors même avec des progrès techniques (notamment agricoles) la vie risque d'être très très difficile. Les conséquences seront tellement dramatiques qu'elles entraîneront avant ces 6 degrés des changements radicaux concernant les politiques environnementales. 
Source: Soulcié dans Télérama

Hélas, la COP21 ne sera pas un moment historique dans cette direction, discuter du degré de réchauffement, c'est forcément lancer un faux débat. Il faudrait plutôt s'accorder sur un prix du carbone et sur une coordination des politiques environnementales (mais l'échec de Copenhague et les réticences politiques toujours importantes ont pour l'instant relayer ces objectifs à plus tard). Avec un prix du carbone élevé non seulement des énergies moins polluantes seraient rentables mais il serait aussi profitable de dépolluer. Si l'on songe à la géo-ingénierie (pas les techniques polluantes style émissions de dioxyde de soufre dans l'atmosphère), il est même envisageable de voir se développer des techniques de séquestration efficaces qui permettront de réduire la concentration de CO2 dans l'atmosphère, et donc de réduire les 2-3-4 degrés de réchauffement que nous pourrions atteindre....

F.C.

Pour aller plus loin, lire l'excellent post sur le blog de l'afse de K Schubert "COP21, prix du carbone, quoi de neuf ?" ainsi que ses références, dont notamment l'article de Nordhaus "Climate Clubs: Overcoming Free-riding in International Climate Policy" et celui de Weitzman "Internalizing the Climate Externality:Can a Uniform Price Commitment Help?" (très facile à lire).

Biblio du post
  • Lynas, Six Degrees, our Future on a Hotter Planet, Harper-Collins.
  • Wagner et Weitzman (2015), Climate Shock, the Economic Consequences of a Hotter Planet. Princeton U Press.

26 novembre 2015

Exclusif, interview de Douglass North

Douglass North (DN) économiste et historien passionné par le fonctionnement des institutions vient de décéder. Cependant, il n'a pas tout à fait quitté ce monde et a accepté de nous accorder un interview pour réagir aux suites du printemps arabe, à l'après daech, aux possibilités d'instaurer une démocratie... Bref aux changements institutionnels que l'on attendait et/ou que l'on pourrait attendre.



FC: Cher Douglass, pourriez vous nous décrire votre vision du "changement institutionnel"? Est-ce une vision darwinienne du changement?

DN: Modeling the process of change must derive its inspiration from evolutionary biology but in contrast to Darwinian theory in which the selection mechanisms are not informed by beliefs about the eventual consequences, human evolution is guided by the perceptions of the players in which choices—decisions—are made in the light of these perceptions with the intent of producing outcomes downstream that will reduce the uncertainty of the organizations—political, economic, and social—in pursuit of their goals.

Institutional change is a deliberate process shaped by the perceptions of the actors about the consequences of their actions.
The immediate vehicle by which the actors attempt to shape their environment is by altering the institutional framework in order to improve their (and their organizations’) competitive position.

FC; Pourriez vous décrire en seulement quelques points ce processus (les lecteurs de ce blog étant, en moyenne, des fainéants ;-))?

DN: Let me state five propositions that describe this process:

  1. The continuous interaction between institutions and organizations in the economic setting of scarcity and hence competition is the key to institutional change.
  2. Competition forces organizations continually to invest in new skills and knowledge to survive. The kind of skills and knowledge individuals and their organizations acquire will shape evolving perceptions about opportunities and hence choices that will incrementally alter institutions.
  3. The institutional framework provides the incentive structure that dictates the kinds of skills and knowledge perceived to have the maximum payoff.
  4. Perceptions are derived from the mental constructs of the players.
  5. The economies of scope, complementarities, and network externalities of an institutional matrix make institutional change overwhelmingly incremental and path dependent.
Let Me Expand on These Propositions

  1. Institutions are the rules of the game—both formal rules, informal norms and their enforcement characteristics. Together they define the way the game is played. Organizations are the players. They are made up of groups of individuals held together by some common objectives. Economic organizations are firms, trade unions, cooperatives, etc.; political organizations are political parties, legislatures, regulatory bodies; educational organizations are universities, schools, vocational training centers. The immediate objective of organizations may be profit maximizing (for firms) or improving reelection prospects (for political parties); but the ultimate objective is survival because all organizations live in a world of scarcity and hence competition.
  2. New or altered opportunities may be perceived to be a result of exogenous changes in the external environment which alter relative prices to organizations, or a consequence of endogenous competition among the organizations of the polity and the economy. In either case the ubiquity of competition in the overall economic setting of scarcity induces entrepreneurs and the members of their organizations to invest in skills and knowledge. Whether through learning by doing on the job or the acquisition of formal knowledge, improving the efficiency of the organization relative to that of rivals is the key to survival.
  3. [...] There is no implication in proposition 2 of evolutionary progress or economic growth—only of change. The institutional matrix defines the opportunity set, be it one that makes income redistribution the highest pay-off in an economy or one that provides the highest payoffs to productive activity.While every economy provides a mixed set of incentives for both types of activity, the relative weights (as between redistributive and productive incentives) are crucial factors in the performance of economies. The organizations that come into existence will reflect the payoff structure. More than that, the direction of their investment in skills and knowledge will equally reflect the underlying incentive structure. If the highest rate of return in an economy comes from piracy we can expect that the organizations will invest in skills and knowledge that will make them better pirates.
  4. The key to the choices that individuals make is their perceptions about the payoffs, which are a function of the way the mind interprets the information it receives. [...] The implication of the foregoing paragraph is that individuals from different backgrounds will interpret the same evidence differently; they may, in consequence, make different choices [...] The result is that multiple equilibria are possible due to different choices by agents with identical tastes.

FC: Pouvez vous revenir sur ce processus d'apprentissage qui est central dans cette vision des institutions. 

[...] Humans attempt to reduce that uncertainty (or convert it into risk) by learning. The cumulative learning of a society embodied in language, beliefs, myths, ways of doing things—in short the culture of a society—not only determines societal performance at a moment of time but through the way in which it constrains the choices of the players contributes to the nature of the process through time.
Humans scaffold both the mental models they possess—belief systems—and the external environment—institutions. The focus of our attention, therefore, must be on human learning, on what is learned and how it is shared among the members of a society, on the incremental process by which the beliefs and preferences change through time, and on the way in which they shape the performance of economies through time.

[...] Equally crucial are the policies that we enact to alter the performance of an economy. Even when we have a “correct” understanding of the economy and the (more or less) “correct” theory about its operation, the policies at our disposal are very blunt instruments. They consist of alterations in the formal rules only, when in fact the performance of an economy is an admixture of the formal rules;
the informal norms, and their enforcement characteristics. Changing only the formal rules will produce the desired results only when the informal norms that are complementary to that rule change and enforcement is either perfect or at least consistent with the expectations of those altering the rules.

FC: Certes les règles formelles ne font pas tout...Pensez vous que l'Histoire et les expériences passées peuvent aider à l'émergence d'institutions qui permettent le développement? En bref, quelle est la place du temps dans cette construction?

[...] time is important because it is the dimension in which human learning occurs and there is no implication in the foregoing brief description of the process of learning that suggests that we get it right. Indeed throughout history we have gotten it wrong far more often than we have gotten it right. The rise and fall of communism in the twentieth century is only a recent illustration. It is probably correct that if “reality” stayed constant the feedback from the policies we enacted would gradually lead us to get it right, but change and therefore persistent uncertainty is our lot which guarantees that we will continue to get it wrong at least part of the time.

[...] Let me conclude by talking again about time. [...] it is clear that change is an ongoing continuous affair and that typically our institutional prescriptions reflect the learning from past experience. But there is no guarantee that the past experiences are going to equip us to solve new problems. Indeed an historic dilemma of fundamental importance has been the difficulties of economies shifting from a political economy based on personal exchange to one based on impersonal exchange. An equally wrenching change can be the movement from a “command” economy to a market economy. In both cases the necessity to restructure institutions—both economic and political—has been a major obstacle to development; it still is the major obstacle for third world and transition economies. The belief system that has evolved as a result of the cumulative past experiences of a society has not equipped the members to confront and solve the new problems.

FC; Merci Doug, c'est terriblement d'actualité.

Nota Bene: fake interview obviously, extraits de D North "Institutions and the Performance of Economies over Time" dans le Handbook of New Institutional Economics (ed Ménard et Shirley) de 2005.

22 novembre 2015

Terrorisme et chasse aux sorcières

Ce qui vient de se passer à Paris est une horrible illustration de la facilité à tuer de l'Etat Islamique (EI). Déclarer l'état d'urgence pour un temps limité, renforcer les moyens de notre armée et intervenir plus massivement contre l'EI semblent être des politiques nécessaires (ceci dit j'ai des doutes) compte tenu des morts et du traumatisme causé. Certaines personnes dans mon entourage me disent avoir peur, les provinciaux révisent leurs déplacements vers la capitale, et certains amis parisiens parlent de précipiter leur déménagement de Paris... C'est fou. Pourquoi céder à la psychose? La probabilité de mourir d'un attentat terroriste reste excessivement faible. La peur est irrationnelle et la connaissance des probabilités n'a jamais rassurée les anxieux, il n'empêche que l'hystérie collective ne peut que favoriser des politiques sécuritaires que nous pourrions regretter un jour.

L'ouvrage de "Chasing Ghosts, the Policing of Terrorism" de Mueller et Steward est de ce point de vue éclairant, les auteurs détaillent les dépenses hallucinantes de l'Etat américain suite aux attaques du 11 septembre. L'ouvrage présente des situations qui ressemblent à celles que nous vivons aujourd'hui avec une montée de discours anxiogènes qui justifient toutes les dépenses. On n'en fini plus de compter les dollars et le nombre de personnes employées, 115 milliards en tout chaque année avec 12 000 agents du FBI exclusivement dévoués à la lutte anti-terroriste, 35 000 employés à la tristement célèbre NSA et 150 000 personnes pour "prévenir les attaques" au DHS.

Les auteurs évaluent les politiques antiterrorismes de différentes manières. La première consiste à évaluer le coût de la politique menée par vie sauvée. Avec un calcul de coin de table, considérant que la vie d'un américain vaut 7,5 millions de dollars, ils évaluent que la lutte antiterroriste (115 milliards) aurait due sauver 16 000 personnes. Or même si les politiques antiterroristes ont sauvé des vies, il est peu probable qu'elles en aient sauvé autant. Bien sûr, on peut considérer qu'une vie n'a pas de prix (il manque des considérations éthiques dans ces analyses), et que ce genre de calcul est amoral mais c'est pourtant un calcul qui est fait très régulièrement par les autorités publiques (e.g. pour le remboursement des médicaments nouvelles générations anti-cancers)... et puis surtout il faut se poser la question de savoir si cet argent alloué différemment ne permettrait pas de mieux lutter contre la radicalisation.

Les auteurs réalisent ensuite des analyses coûts/bénéfices qui sont aussi très discutables (le vrai pb est comment améliorer ces analyses) mais l'ouvrage a le mérite de poser des questions économiques totalement occultées ces temps-ci: quels sont les coûts et pour quels bénéfices? Ne dépensons pas l'argent public simplement pour nous rassurer. Évitons des dépenses inutiles dans une comédie sécuritaire sans effets réels et évaluons sérieusement les politiques qui sont mises en place pour les abandonner rapidement et définitivement si elles n'ont qu'un effet placebo.

De ce point vue je signale l'appel du CNRS sur des recherches analysant le terrorisme, qui suscite quelques débats chez nos collègues des autres disciplines, mais qui ne devrait pas en poser en économie tant il semble logique, compte tenu de nos outils et objets d'études, d'évaluer quels sont les coûts d'opportunité de l'argent alloué et qu'elles sont les politiques les plus efficaces pour lutter contre le terrorisme. 

23 octobre 2015

Angus Deaton et "randomista"

Les contributions d'Angus Deaton ont déjà été largement résumées, je vais donc simplement compléter notre précédent post d’un éclairage sur la position d’Angus Deaton sur les méthodes d'évaluation des politiques de développement qui pourra être utile aux non-initiés. 

 

Learning about development ?

Quelle est la meilleure méthode d’évaluation des projets de développements ? C’est bien là toute la question qui fait débat.  L’aide internationale permet-elle de réduire la pauvreté ? Quelle est la meilleure politique pour reculer l’âge de la première grossesse ? L’électrification des zones rurales permet-elle une amélioration du bien-être des pauvres ?  Le succès des transferts monétaires conditionnels au Mexique (le fameux Progresa, aujourd’hui Opportunidades) est-il généralisable ? 
La liste est longue. Les projets de développement se sont multipliés, sous l’impulsion des institutions internationales et des fameux objectifs du millénaire dont l’ambition est d’éradiquer la pauvreté dans le monde, à travers toutes les dimensions qu’elle revêt.  Les échecs aussi, se sont multipliés. L’efficacité de l’aide humanitaire est loin de faire consensus, encore aujourd’hui, (voir le récent billet de voxeu.org). Les politiques de réduction de fécondité montrent des résultats très contrastés. Et même un programme qui semble mettre tout le monde d’accord, y compris les différents partis politiques au pouvoir, le programme PROGRESA au Mexique, donnent des résultats beaucoup plus mitigés dans les pays où le projet a été étendu. 

L’enjeu est de taille. Les moyens humains et financiers sont considérables. Comment optimiser les programmes de développement ? Selon Angus Deaton, une seule réponse : en cherchant à comprendre, non pas quels sont les programmes qui fonctionnent mais pourquoi ils fonctionnent.  Si vous retenez cela, vous avez presque tout saisi…J’ai dit presque.

On rentre un peu dans le détail?

Le début des années 2000 marque un tournant dans la discipline. Banerjee, Duflo, Kremer parmi d’autres sont partis du constat que les grands projets de développement dont l’ambition était d’éradiquer la pauvreté étaient totalement décourageants  au regard de l’ampleur de la pauvreté dans le monde et des résultats  quasi-imperceptibles. A l’inverse, des initiatives locales à petite échelle donnent la satisfaction aux monteurs des projets, de montrer des résultats observables et mesurables.  Une manière de repenser la pauvreté. C’est le message essentiel de Banerjee et Duflo que tout le monde connait.  Un message optimiste qui était le bienvenu  à vrai dire. Retenons simplement que l’échelle d’action et donc d’évaluation est centrale dans le positionnement de ces pionniers de la randomisation. 

Randomisation, quasi-randomisation et variables instrumentales, doubles-différences…Tout un ensemble de techniques avec un unique objectif : l’inférence causale ou comment détecter un lien de causalité entre un programme de développement et les résultats observés.  Rien de nouveau, on est dans la veine du modèle causal de Rubin. Inspiré par des expériences aléatoires effectuées en médecine, on définit un groupe traitement (assujetti à une pol de développement) et un groupe témoin (non-assujetti).  Exemple : une politique d’amélioration des taux de scolarisation, via des transferts monétaires.  Dans l’idéal, les deux groupes doivent être parfaitement identiques afin de contrôler l’ensemble des facteurs pouvant interagir à la fois sur les taux de scolarisation, les revenus, le coût d’opportunité d’une année d’école… Une solution miracle : la sélection aléatoire qui garantit que la probabilité de recevoir ou non une incitation financière soit identique et qui prémunit le chercheur du biais de sélection dans la constitution des groupes.

« Creating a culture in which rigorous randomized evaluations are promoted, encouraged and financed has the potential to revolutionize social policy during the 21th century, just as randomized trials revolutionized medecine during the 20th ». E. Duflo, 2004.  
Une solution miracle ? En tout cas, une solution qui se dédouane de toute analyse théorique et d’une analyse microéconométrique complexe.

Avant de rentrer dans la phase critique, rappelons que l’expérimentation purement aléatoire n’est pas toujours applicable, notamment parce qu’elle implique une très bonne anticipation dans le design du projet de développement, des moyens humains considérables et surtout parce qu’elle pose de nombreuses questions éthiques qui remettent en question la faisabilité politique de la sélection aléatoire. Du coup, d’autres techniques d’inférence causale ont été de plus en plus utilisées dans le cadre des évaluations de projet de développement, dont l’usage des variables instrumentales. 

Qu’en dit Deaton ?

« Under ideal circumstances, randomized evaluations are useful for obtaining a convincing estimate of the average effect of a program- but should be guided by theory. »
 
Ok, donc premièrement Deaton reconnait une certaine rigueur scientifique à la démarche et un pouvoir démonstratif quant à l’efficacité d’un programme de développement.  Fondamentalement, il reproche une absence d’éclairage théorique qui nous empêche de comprendre pourquoi le programme fonctionne (ou pas). Il reproche également une surinterprétation des résultats donnant lieu à des extrapolations abusives.

Erreur N°1: l’extrapolation de résultats (validité externe)
La randomisation (comme les autres méthodes d’éval expérimentale) permettent d’estimer un effet moyen du projet de développement sur un résultat observe, c’est le fameux LATE « Local average treatment effect ».  Attention, en aucun cas Deaton ne critique le caractère local de l’estimation qui peut se défendre (#repenserlapauvreté). Il condamne seulement l’utilisation de ces résultats estimés pour généraliser un projet de développement. On est clairement dans une remise en question de la validité externe de la méthode d’évaluation.  Pourquoi ne peut-on pas généraliser les résultats ? Tout simplement parce que l’analyse néglige totalement les effets du traitement en équilibre général. Le programme PROGRESA a été étendu dans plus de 30 pays fort des résultats d’évaluation au Mexique. L’objectif : améliorer les taux de scolarisation et l’accès au soin des enfants grâce à des transferts conditionnels.  Les coûts d’opportunité (et surtout leurs déterminants) d’une année d’école sont très différents d’un pays à l’autre. Les politiques sociales initiales  et surtout les infrastructures (notamment l’accès aux hôpitaux) sont totalement différentes et ne justifiaient pas une application identique du programme.

Erreur N°2 : le traitement de l’hétérogénéité  et la validité interne
A travers la randomisation ou quasi-randomisation, on estime l’effet moyen d’un traitement. Deux problèmes se posent :
- On ne traite en aucun cas l’hétérogénéité de l’échantillon malgré tous les efforts fournis pour composer des groupes traitement/témoin identiques.  L’usage d’un instrument pose encore plus de difficultés ici. On choisit un instrument corrélé au projet de développement évalué mais non corrélé avec l’erreur, en supposant l’absence d’hétérogénéité.  L’effet de l’instrument est par définition un effet moyen et ne permettra en cas de traiter l’hétérogénéité de l’échantillon.  Deaton est très clair sur ce point: « heterogeneity is not a technical problem calling for an econometric solution but a reflection of the fact that we have not started on own proper business, which is trying to understand what is going on. » Il déplore donc l’absence d’analyse théorique qui permettrait un meilleur traitement économétrique de l’hétérogénéité des individus. C’est sa contribution majeure en microéconométrie du développement.

- On détermine une moyenne mais on n’identifie pas les autres caractéristiques de la distribution. Or, une information fondamentale qui devrait ressortir des évaluations de politique de développement c’est quelle est la fraction de la population qui bénéficierait d’un effet traitement positif ? Cette analyse permettrait d’éviter certains effets désastreux, dont les exemples sont nombreux. Pensez aux politiques d’infrastructures menées qui ont très souvent généré des inégalités de traitement considérables.  Deaton défend donc l’analyse marginaliste en économie du développement et déplore son absence (ou sa marginalisation) dans la littérature aujourd’hui.

Deaton souligne les nombreuses confusions dans la littérature quant à la signification de l’exogeneité et son traitement. 

Erreur N°3 : Le traitement de l’endogéneité  ou l’illusion des variables instrumentales
Pour sa démonstration, Deaton utilise un modèle macroéconomique de consommation ultra light et démontre qu’avec une analyse théorique, la forme réduite estimée est totalement spécifiée et donc l’usage d’une variable instrumentale est tout à fait approprié. Autrement dit, le choix de la variable instrumentale doit provenir d’un raisonnement théorique préalable pour garantir le traitement de l’endogéneité. Or, dans les évaluations quasi-expérimentales, le choix des variables instrumentales n’est pas guidé par un modèle spécifié mais uniquement par la recherche d’un instrument orthogonal, impliquant qu’il soit exogène ET non corrélé au terme d’erreur de l’équation principale.  L’exogénéité en économie signifie que la variable est causée par des facteurs externes au système étudié. Mais la cohérence d’un instrument implique cette restriction supplémentaire de ne pas être corrélé au terme d’erreur.  Et c’est bien là toute la difficulté.  Aucun test économétrique n’est en fait capable de nous garantir que cette condition d’exclusion est respectée : les tests de suridentification communément utilisés ne peuvent pas valider notre instrument et l’identification valide du système estimé.  

Deaton regrette finalement que ce tournant de l’économie du développement s’exonère totalement de la théorie pour définir une stratégie d’évaluation. L’absence de modèle implique plusieurs limites : 
  • le choix de l’instrument est erroné et ne garantit pas que les estimations soient non biaisées dans le cadre d’une quasi-randomisation. Exogénéité non traitée
  • le traitement de l’hétérogénéité des individus est défaillant.
  • on ne comprend pas ce qui détermine les résultats du traitement.
“Randomized controlled trials (RCT) do not occupy any special place in some hierarchy of evidence”.
 
“As with IV methods, RCT-based evaluation of projects, without guidance from an understanding of underlying mechanisms, is unlikely to lead to scientific progress in the understanding of economic development.”

Réactions? 
Evidemment ces critiques ont très bien été intégrées par les grands spécialistes de la randomisation. Il est aujourd’hui rare que Duflo et ses co-auteurs se passent d’un éclairage théorique pour comprendre les résultats estimés. Dans le dernier AER de Duflo (co-écrit avec Dupas et Kremer), les auteurs évaluent deux programmes de développement au Kenya : des aides à la scolarisation pour lutter contre la déscolarisation des filles et les grossesses précoces ; et un programme de prévention du VIH. L’expérimentation estime les effets de chaque politique de façon isolée puis combinée. Les résultats ne sont pas du tout linéaires. Une politique d’aide à la scolarisation permet de réduire considérablement les grossesses des jeunes filles, plus que lorsque cette politique s’accompagne d’un programme de prévention du VIH.  A l’inverse, une politique de prévention du VIH seule n’a aucun effet significatif alors que combinée à des aides scolaires, les taux de contamination baissent significativement.  Partant de ces incohérences, les auteurs expliquent leurs résultats à travers un éclairage théorique : un modèle à un seul facteur dans lequel le rapport non protégé détermine à la fois la grossesse et la contamination au VIH est inapproprié pour comprendre ses résultats.  Par contre un modèle théorique plus riche où le choix individuel des jeunes filles ne porte pas uniquement sur le rapport protégé, mais aussi sur le choix d’une relation engagée ou occasionnelle va permettre d’éclairer ses résultats non linéaires.  De plus le fait d’intégrer dans l’analyse l’incompatibilité entre grossesse et scolarité permet de mieux considérer le cout d’opportunité d’une grossesse et de mieux comprendre le choix des jeunes filles de s’engager ou non dans une relation. Enfin parce que les filles perçoivent un risque plus grand d’être contaminées dans le cadre d’une relation occasionnelle, elles s’engageront plus facilement dans une relation maritale et auront donc plus de rapports non protégés, ce qui augmentera le risque de grossesse.  Une analyse théorique approfondie permet finalement un bien meilleur design de la politique, ce que ne permettait pas une randomisation isolée.

Conclusion : la dérive athéorique de l’économie du développement n’est pas sans conséquence. Les randomisations et techniques dérivées ne sont pas des « gold standards » de l’analyse empirique. Les effets estimés sont locaux, autrement dit on peut douter de la validité externe de ces évaluations et de fait de la généralisation des programmes. Ce sont des effets moyens qui ne permettent pas de contrôler l’hétérogénéité des individus, et surtout qui ne donnent aucune information sur la distribution des effets du traitement.  Ces limites ne sont pas sans conséquence sur la conception des politiques de développement et l’optimisation des moyens alloués.  Néanmoins, ces évaluations ont le mérite de démontrer qu’une politique de développement implique des effets locaux, moyens significatifs, justifiant l’approfondissement d’un programme en travaillant précisément sur les mécanismes de transmission. C’est ainsi que des politiques ont été abandonnées (planning familiaux en Indonésie), d’autres ont été poursuivis malgré des alternances politiques (Progresa)  et surtout d’autres programmes ont été améliorés par des politiques d’accompagnement (combinaison de deux programmes).

Elisa Dienesch

16 octobre 2015

Angus Deaton, Almost Ideal Nobel Prize


Source: The Economist
Angus Deaton a obtenu le Nobel cette année et il nous a semblé intéressant de confronter nos points de vue sur ce prix, en effet nous n'avons pas lu le même Deaton. J'ai surtout lu une partie de ses travaux sur la consommation et sur le bien-être, alors qu'Elisa a une connaissance plus approfondie de ses articles et ouvrages sur la pauvreté. On vous propose donc deux billets, dont voici le premier sur conso et bien-être, le prochain sera sur l'économie du développement (ici).

Micro de la conso

Lorsqu'on a un cours de micro un peu avancée à faire, le Deaton et Muellbauer (1980) est une référence incontournable. L'originalité de ce bouquin est de se focaliser sur la consommation, toutes les bases sont rappelées de la demande marshallienne à la demande hicksienne, avec une mise en perspective des travaux empiriques analysant la conso. L'ouvrage met ainsi en avant le travail de Deaton et Muellbauer (1980, AER) sur leur modèle d'Almost Ideal Demand System. Je ne vais pas rentrer dans les détails, mais je vous invite à lire le post de Dave Giles qui utilise R pour estimer les élasticités de la demande de différents biens en utilisant justement ce modèle. On peut ainsi voir comment le prix du vin est influencé par le prix des bières, analyser si le vin est un bien de luxe etc. Mais le gros intérêt du modèle, est qu'il permet d'estimer un système de demande en faisant sauter l'hypothèse de maximisation:

"if maximizing behavior is not assumed but it is simply held that demands are continuous functions of the budget and of prices, then the AIDS demand functions (8) (without the restrictions (11) and (12)) can still provide a first-order approximation". DM (AER, p. 315)

C'est la raison pour laquelle il est "almost ideal" ce système et c'est aussi la raison pour laquelle j'aurais espéré qu'il soit un peu célébré.
Je souhaite aussi insister sur le fait que ce modèle est toujours utile pour la recherche actuelle. Par exemple en éco inter, où les chercheurs ont énormément travaillé sur l'offre (Ricardo expliquait le commerce par les avantages en termes de coûts de production liés aux technologies, HOS en termes de dotation de facteur, Krugman, Brander en terme de concurrence imparfaite...), le côté demande a été négligé. La plupart du temps, les auteurs prennent une fonction d'utilité à élasticité de substitution constante (CES) et s'occupent d'améliorer l'offre (e.g. Melitz). A l'inverse avec un modèle AIDS, les élasticités de substitution peuvent être variables. Le commerce (ou son absence) s'explique ainsi de façon plus fine en prenant en compte un élément important des choix de conso des individus. Voir Feenstra (2003, 2009), Fèmènia et Gohin (2009) et Novy (2010) pour de telles extensions. De plus, que dire de l’homothétie des préférences d'une CES qui contraint les chercheurs a ne considérer que les biens normaux? Deaton (1992, p. 9) n'y va pas par 4 chemins:

"The supposition that there are neither luxuries nor necessities contradicts both common sense and more than an hundred years of empirical research" Deaton (1992, p. 9)

Cette phrase pourrait être une réponse au philosophe Michel Onfray qui n'a qu'un siècle de retard en confondant Angus Deaton et Ernst Engel (1821-1896):



C'est dommage, car les travaux de Deaton intéressent justement les philosophes qui se donnent la peine de les lire, car ils touchent à un domaine hautement philosophique: le bonheur.

Bien-être et enquêtes

Comment comparer la situation d'individus qui ont des préférences différentes. Dès 1979, Deaton propose une solution à cette question en définissant une fonction de distance monétaire à un référentiel qui serait le même pour tous. Il a ainsi participé à cette littérature sur le revenu équivalent qui après avoir été éclipsé des analyses de choix social, reprend une place importante depuis une dizaine d'années pour analyser le bien être des individus. Voir sur ce point l'ouvrage "Au delà du PIB" de Didier Blanchet et Marc Fleurbaey.

Passant de la théorie à la pratique, Deaton (2008) a été à la fois utilisateur et critique sur les travaux d'enquête qui vise à demander aux gens de mesurer leur niveau de bien-être (sur une échelle allant par exemple de 1 à 10). Il montre que le "bien-être" mesuré par ces enquêtes est corrélé au revenu mais pas à la santé (y compris lorsque des maladies graves telles que le SIDA sont prises en compte) et ce résultat lui semble (à juste titre de mon point de vue) très douteux, il en conclut:

"Neither life satisfaction nor health satisfaction can be taken as reliable indicators of population well-being, if only because neither adequately reflects objective conditions of health". 

Dans la même veine, Deaton (2011) étudiant les effets de la crise de 2008 sur le moral des américains note que le "bien-être" mesuré par ces enquêtes a tendance à diminuer lorsque cette question est précédée par une question de politique... Ceci montre la volatilité des réponses suivant le contexte dans lequel se place les agents lorsqu'ils répondent. Cela n'a rien de révolutionnaire (j'imagine avec horreur un nouvel Onfray basé sur mon texte) et représente simplement une illustration supplémentaire de connaissances que nous devons à la socio et à la psycho, mais il est rassurant de voir que le Nobel ait été décerné à un type qui, suffisamment intéressé par l'avis (et la vie) des gens, n'hésite pas à utiliser ces enquêtes pour en déceler les problèmes et en extraire l'analyse la plus juste possible.

Enfin Deaton plus que quiconque s'est posé la question de savoir comment comparer au niveau international la situation d'individus qui consomment des biens différents (voir Deaton (2010, AER) et Deaton et Heston (2010, AEJ)).

Deaton (2009) est aussi connu pour sa critique des "randomista" qui ont envahi la Banque Mondiale et l'ensemble des institutions travaillant sur le développement. De mon point de vue cette critique n'est rien par rapport à celles portées par les chefs de file de ce mouvement (voir notamment de nombreux écrits d'Esther Duflo), elle est simplement une indication que l'on peut aussi faire de l'économie du dev différemment, un peu à l'ancienne en estimant un modèle pour pouvoir ensuite faire des simulations (Elisa développera cette critique dans son prochain post ici).

Conclusion

Habituellement nous n'écrivons pas sur les nobels, la presse et d'autres blogs font ce boulot et dans l'ensemble c'est plutôt bien. Comme toujours nos blogs préférés ont été irréprochables. Deux heures après l'annonce du Nobel, A. Delaigue avait déjà fait le job, Martin Anota s'est mis à la traduction de la note technique du comité, le Captain' avait des super super réponses, Dave Giles faisait tourner R, Chris Blattman nous racontait quelques savoureuses anecdotes et Fine Theorem était plus que fine, com d'hab. Mais côté presse, nous avons été vraiment déçu. L'article le plus mauvais est venu du Figaro qui n'explique à aucun moment les travaux de Deaton... et puis c'est vraiment limité comme info, illustration (avec "homme blanc aux yeux bleus"):


S'il est incontestablement problématique que le portrait robot soit si facilement identifiable, on pourrait attendre d'un journal de qualité (?) qu'il soit moins caricatural et qu'il se pose des questions allant au delà du Nobel qui n'est que le reflet du passé de notre profession.
Il est effectivement désespérant que notre profession soit systématiquement tournée vers quelques grandes fac américaines et quelques grandes revues (américaines aussi), il est aussi fort dommageable que les individus élevés au rang de super-star soit souvent des hommes enseignants aux Etats-Unis, mais il y aussi une vie à côté de cette tendance dominante et je crois que les choses évoluent dans le bon sens (alors certes pas assez vite). Pour conclure on doit vous avouer que, toutes choses n'étant hélas pas égales par ailleurs, Angus Deaton est bien notre Almost Ideal lauréat.

Sans vergogne, piquons à A Delaigue son excellent disclamer:

et surenchérissons avec du Krugman:

"Oh, and cue the usual complaints that this isn’t a “real” Nobel. Hey, this is just a prize given by a bunch of Swedes, as opposed to the other prizes, which are given out by, um, bunches of Swedes."


F. Candau



Biblio (en vrac et non exhaustive, c'est un blog!)

  • Deaton A. 1979, The distance function in consumer behaviour with applications to index numbers and optimal taxation, Review of Economic Studies 46: 391—405.
  • Deaton, A. 1992. Understanding Consumption. New York: Oxford University Press.
  • Deaton A. 2008, Income, health, and well-being around the world: Evidence from the Gallup World Poll, Journal of Economic Perspectives 22: 53-72.
  • Deaton A. 2010, “Price indexes, inequality, and the measurement of world poverty, ”American Economic Review 100: 5–34.
  • Deaton A. 2011, “The fi…nancial crisis and the well-being of Americans,” Oxford Economic Papers.
  • Deaton A., A. Heston 2010, “Understanding PPPs and PPP-based National Accounts,”American Economic Journal: Macroeconomics 2: 1–35.
  • Deaton A., J. Muellbauer 1980, Economics and consumer behaviour, Cambridge.
  • Feenstra, R. 2003. A Homothetic Utility Function for Monopolistic Competition Models, Without Constant Price Elasticity, Economic Letters 78, 79-86.
  • Feenstra, R. 2009. Measuring the Gains from Trade under Monopolistic Competition, Presented as a "State of the Art" lecture to the Canadian Economics Association.
  • Féménia, F. Gohin,A. 2009. Estimating censored and non homothetic demand systems: the generalized maximum entropy approach, WP SMART - LERECO 200912, INRA UMR SMART
  • Novy, D. 2010.a, International Trade without CES: Estimating Translog Gravity, CESifo Working Paper

08 octobre 2015

Romer et Glaeser

Intéressante discussion sur les villes dans les pays en développement (et aussi développé, enfin surtout sur les USA) entre Paul Romer et Ed Glaeser. Romer, qui joue dans cet entretien le role d'interviewer (mais pas que) est connu pour ses travaux sur le rôle des innovations et des "idées" sur la croissance économique. Glaeser s'intéresse depuis plusieurs années aux caractéristiques et institutions des villes qui sont justement à la pointe des interactions entre individus stimulant la créativité et les innovations. La discussion a du mal à démarrer mais monte en puissance (et aborde de nombreux sujets d'économie urbaine dont la criminalité, la régulation (zoning, hauteur des immeubles), les inégalités urbaines, la mobilité etc), tenez jusqu'au bout!

27 août 2015

Pourquoi la Wallonie a besoin de Bruxelles (et vice-versa)?

Excellente vidéo de Jacques-François Thisse sur Bruxelles. En fait, seule la dernière partie est sur la capitale Belge, le début de la présentation est général et aborde des thèmes souvent développés sur ce blog comme l'importance de la distance dans les relations commerciales, la fragmentation de la chaîne de production ou encore l'importance économique des grandes villes et le tout est fait avec une très grande pédagogie. Le seul regret que l'on peut avoir, c'est qu'on ne voudrait pas que ça s'arrête, cette vidéo est décidemment trop courte pour ne pas être regardée.

10 juillet 2015

Fuite carbone et commerce


Le brouillard ?
Nous venons enfin de terminer la révision de notre article sur les havres de pollution et la corruption! Le message de notre article est simple, les normes environnementales en Europe ont entraîné des délocalisations de firmes polluantes vers des pays ou elles peuvent polluer plus librement (les havres de pollution). Prosaïquement, c'est l'observation des fuites de carbone de l'Europe. Ces délocalisations se sont de plus dirigées vers les pays où la corruption permettait d'influencer les normes environnementales (c'est ce qu'on appelle les paradis de la corruption).
Pour un économiste lambda, il n'y a là rien de révolutionnaire, les firmes maximisent leurs profits en se délocalisant, point barre. Pour un économiste en économie internationale, il y a cependant un résultat contrariant: nous montrons que les délocalisations sont d'autant plus fortes que les pays sont fortement intégrés commercialement. De là à supposer que l'intégration en favorisant les délocalisations des firmes polluantes, augmente les pollutions il n'y a qu'un pas. Or, cela ne cadre pas avec les théories d'économie internationale qui rejettent cet argument et affirment que l'ouverture est bénéfique pour l'environnement (nous en avions fait un post détaillé ici il y a déjà 2 ans qui est toujours d'actualité). La remarquable étude de  De Sousa, Hering et Poncet qui est sortie hier confirme ce résultat pour les émissions de SO2 en Chine.
Ce résultat est-il en opposition avec le notre? Pas vraiment, les auteurs montrent même que ce sont justement les IDE qui ont permis de diminuer les émissions de SO2 en Chine. Le fait que ces firmes aient des technologies plus avancées, expliquent en partie ces progrès. La question qui reste ouverte est contre-factuelle, si ces firmes étaient restées en Europe où elles auraient encore moins polluées du fait des normes plus restrictives, les échanges auraient-ils été aussi importants? Comment aurait évolué la pollution et le développement en Chine? On peut penser que les choses auraient-été bien pires... ou pas... faîtes tourner les modèles, tout dépendra de vos hypothèses et en particulier de la substituabilité entre capital et flux commerciaux. Anderson (2005) est limpide sur ce point lorsqu'il critique le modèle HOS utilisé par Copeland et Taylor:

"The Copeland and Taylor model is one in which capital fl ows and trade fl ows are substitutes, although there are respectable models in which the two are complements. In a world of complementarity, Green pessimism may well be more warranted. If FDI fl ows to take advantage of lower abatement cost, and if FDI is stimulated by trade liberalization, the factor proportions model mechanism that locates polluting industries in the rich North is reversed "

Dans notre article nous utilisons justement ce type de modèle alternatif et respectable à bien des égards (basé sur Fujita et Thisse, 2006). A partir du moment où les agents ont une préférence pour la diversité, il y a tout lieu de penser que l'intégration commerciale entraînera un afflux toujours plus massif de cadeaux "Made in ..." sous le sapin de noël pour peu qu'ils soient produits sous rendements croissants dans des pays aux normes environnementales et sociales plus basses.

Mais il y a une raison encore plus fondamentale qui explique pourquoi le commerce international peut être néfaste en terme de pollution: les transports. Aucune, je dis bien AUCUNE des études qui affirment benoîtement que le commerce a un effet favorable sur l'environnement ne prennent en compte la pollution liée aux transports. Quel est l'impact de l'intensification des échanges en termes de pollution si on prend en compte les différents modes de transport? La question est ardue, elle nécessite un immense effort d'analyse de données et un bon paquet d'hypothèses. En économie internationale, depuis déjà pas mal d'années lorsqu'un tel défi se présente, il faut se tourner vers David Hummels. Voici donc une partie de l'abstract du seul papier qui prend en compte les transports:

"We collect extensive data on worldwide trade by transportation mode and use this to provide detailed comparisons of the greenhouse gas emissions associated with output versus international transportation of traded goods. International transport is responsible for 33 percent of world-wide trade-related emissions, and over 75 percent of emissions for major manufacturing categories."

Ooooh waiiit, 75%!!! et les transports sont omis de toutes les équations expliquant les émissions par les secteurs industriels, ça craint! Lisez l'article, vous verrez que les auteurs sont prudents, mais qu'ils sont tout de même inquiets sur les échanges longue distance (style USA-Chine).

Pour conclure, merci à tous ceux qui ont discuté (S Bertoli, A Bouët, P-Ph Combes, M Crozet, J de Sousa, C Gaigné, M Goujon, J Le Cacheux, S Rey, F Robert-Nicoud, F-C Wolff)
et téléchargé (notamment la trentaine d'anonymes d'hier) ou encore RT/FAV (adelaigue, annenat, martin_anota, remibaz, robertJRElliott, tradediversion, xmolenat) notre Pollution Haven and Corruption Paradise, cet article représente de longs mois d'effort à viser l'excellence, à lutter contre nous même pour en sortir le meilleur (thèse d'Elisa + mon HDR) donc plus il sera lu et moins nous aurons la sensation d'un effort vain. Les fuites carbone dans les havres de pollution aux institutions douteuses ne sont pas une curiosité théorique, elles sont bien réelles, nous les avons clairement identifiées sur notre échantillon.

Lisez aussi l'article de De Sousa, Hering et Poncet, le titre "Has trade openness reduced pollution in China?" est une poupée russe vous invitant à la lecture, leur propos ne concernent pas toutes les pollutions, mais uniquement le SO2, ce qui rend leur résultat beaucoup moins discutable que pour les autres pollutions et au vue de leur rigueur sans aucun doute vérifié.

03 juillet 2015

Trois débats interdits

Séphane Ménia, le mister Hyde du docteur Jekyll, vient d'écrire un bouquin sur des débats qu'il est temps de sortir de l'ombre: le chômage, la désindustrialisation et la dette. Sortir de l'ombre?! Oui. Même s'il existe de nombreux ouvrages et articles sur ces sujets, rares sont ceux qui sont clairs et précis. Le débat est en quelque sorte interdit par la partialité des analyses. Ici tout est bien documenté, discuté et pédagogiquement présenté.
Le décor est d'abord soigneusement planté, chaque chapitre débute par des faits; plusieurs faits, ici un graphique qui intéressera tous les étudiants.


Puis les dialogues s'installent, toutes les questions que vous vous posez sur ces sujets sont passées en revue: Les jeunes sont ils maltraités en France? et les vieux? Qu'est-ce qui détermine l'emploi? Quel est l'impact du SMIC? Faut-il réduire les charges sociales? Faut-il réduire le temps de travail? Quel est l'impact d'une augmentation de la population active (démographie, immigration)? Faut-il fliquer les chômeurs? et la formation? Faut-il un contrat de travail unique? etc....

Patiemment, pour chaque question, l'auteur explique, cite, renvoie à des travaux de recherche (lien hypertexte à votre service à l'appui). Jamais dogmatique, il cherche à être le plus juste possible sur ce sujet important, sans doute le plus important de l'analyse économique.

Le chapitre suivant est celui qui m'a le plus plu, il analyse la désindustrialisation. Lorsqu'une usine ferme, c'est douloureux et visible, souvent des centaines d'emplois disparaissent, aussi les médias et les politiques, K.O. et légitimement compatissant, ont renoncé à la réflexion de long terme, celle consistant à analyser les emplois crées après et ailleurs. Aussi c'est un grand plaisir de voir Stéphane Ménia relever le gant et lancer ce débat. Pour tous ceux qui pensent, un peu vite, que tous les emplois perdus par les délocalisations seraient strictement regagnés par les relocalisations, extrait:

"Quand une usine se relocalise en France, un matériel neuf est installé et la relocalisation occasionne une automatisation supérieure [...] nécessitant moins de main d'œuvre. En termes d'emplois estimés, ce sont plus de 25000 emplois qui sont perdus du fait des délocalisations, pour seulement un millier qui sont gagnés grâce aux relocalisations. Soit un ratio de 25 pour 1"

Le chapitre sur la dette est une récidive (déjà débattue sur un ton plus léger dans un précédent ouvrage) mais depuis la situation a changé et l'analyse a gagné en maturité. La dette n'est plus un faux problème en France (et encore moins en Europe), elle a entraîné l'austérité des années qui viennent de s'écouler... aussi est-il vital pour notre démocratie de comprendre si les efforts demandés ont été basés sur une pensée erronée, ayant pour point focal une soutenabilité fictive de la dette, une frayeur injustifiée de la faillite de l'Etat, ou si au contraire on peut se féliciter de la perspicacité et du courage de nos politiques, tous bords confondus...

Pour conclure, sur le blog du taulier, à l'entrée, en haut à droite on peut lire "depuis 1999", on a du mal à y croire. Ce gars là, était non seulement sur le fil de l'éco avant même que la toile soit tissée, mais en plus, il n'a jamais cessé de poster du contenu gratuit et aujourd'hui, fidèle à ce principe, il sort un bouquin à 2,99 €. L'esprit du web est là, saluons le, à vous de twitter, bloguer et relayer! L'objectif est noble: rendre accessible au plus grand nombre une analyse économique de qualité.

25 juin 2015

Réseaux et comportements économiques, une intro par Matt Jackson

Si vous cherchez une introduction à la théorie des réseaux en économie, cette vidéo de Matt Jackson peut vous intéresser. Matt Jackson a écrit un manuel sur le sujet ("Social and Economic Networks") qui est décevant à certains égards (voir James Rauch pour une critique) mais qui est une référence si vous souhaitez approfondir ce thème. 
Pour une revue de la littérature sur le rôle des réseaux en économie urbaine (effet sur le crime, l'éducation, l'emploi), il y a cet article de Topa et Zenou (2014). Pour la macro, il y a ces slides d'Acemoglu (ici et ) qui détaillent certaines références importantes et surtout cette vidéo qui analyse l'instabilité macro en fonction des réseaux. 
 
En économie internationale, il y a cet article de Chaney, où les réseaux servent de base à l'exportation. Enfin, j'aime bien cet article de Crespo, Suire et Vicente sur les clusters et les formes de leurs réseaux. 

04 juin 2015

Taxe sur la Valeur Ajoutée

"La réforme fiscale, c’est quand vous promettez de réduire les impôts sur les choses qui étaient taxées depuis longtemps et que vous en créez de nouveaux sur celles qui ne l’étaient pas encore" Edgar Faure.
 
Edgar Faure savait de quoi il parlait lorsqu'il définissait ainsi la réforme fiscale puisqu'il était ministre des finances lorsque la TVA est instaurée en 1954. Initialement la TVA  touche uniquement les industriels puis elle est généralisée en 1968 et remplace alors 14 taxes différentes (selon cette campagne d'information d'époque qui vaut le détour).
 
Si vous ne connaissez rien à la TVA (j'espère que vous êtes lycéens et que tous mes étudiants savent comment cet impôt fonctionne) je vous recommande cette vidéo de "dessine moi l'éco" qui éclairera tous ceux qui cherchent une définition de la TVA (merci à Martin Anota pour l'indication).
 



Dans ce post nous allons élargir le champs d'étude en analysant les taux de TVA en Europe, en étudiant les conséquences de la TVA (cet impôt est-il injuste? Offre t-il un gain de compétitivité?) et ses extensions (TVA sociale, TVA environnementale).

Origines et succès

La TVA est une invention française, lit-on souvent, c'est évidemment faux mais la France fut effectivement la première nation à l'appliquer. L'idée de la TVA semble être apparue de façon claire pour la première fois sous la plume d'un économiste allemand Von Siemens (1918) puis américain, Adams (1921) dans cet article du QJE. Son promoteur en France a eu un parcours remarquable, Maurice Lauré né à Marrakech, a fait ses études à Rabat puis à Saigon, il est finalement diplômé de l'X en 36, puis fait prisonnier durant la seconde guerre mondiale, il devient ensuite haut fonctionnaire et propose la TVA en 1952 qui est adoptée deux ans plus tard. Cette nouvelle taxe paraît bien difficile à collecter, la comptabilité telle que nous la connaissons aujourd'hui n'existait évidemment pas, elle est donc uniquement imposée sur le secteur de la production et ne sera généralisée au commerce de détails qu'en 1968. Dès les années 70 cette taxe devient l'une des plus importante ressource fiscale pour l'Etat français. Elle l'est encore aujourd'hui, puisque seules les cotisations sociales en France rapportent plus que la TVA dont les montants récoltés dépassent largement ceux d'autres prélèvements, tel que l'impôt sur le revenu par exemple.



La TVA semble ainsi être une formidable "machine à cash", aussi il n'est guère étonnant qu'elle ait été adoptée dans plus de 150 pays. Ci-dessous un graphique issu de l'étude de Keen et Lockwood (2007) qui montre l'adoption de la TVA dans le monde. Le nombre de pays (en ordonnée) ayant adopté cette taxe a ainsi plus que doublé entre 1990 et 2000 passant de 55 à 120 pays.



TVA et l'Europe

En France, la TVA permet de récolter dans les 145 milliards d'Euro soit à peu près la même somme que la TVA anglaise (voir graph ci-dessous, source eurostat).

La crise de 2007-08 a eu pour effet une diminution de la part de la contribution de la valeur ajoutée dans les recettes fiscales des pays. Au début de la crise, cette baisse ne peut s'expliquer par une baisse des taux (seul le Portugal abaisse son taux de TVA) mais trouve plutôt son origine dans une chute de la demande. Les faillites expliquent aussi que certaines entreprises n'aient pas restituées aux Etats les taxes collectées sur les produits vendus dans l'année. En 2009, de nombreux pays abaissent leurs taux de TVA, souvent sur des produits spécifiques. La France sur la restauration (TVA à 5,5%), l'Allemagne sur les hôtels (7%). D'autres abaissent le taux général, comme par exemple l'Irlande (de 21,5% à 21%) et le Royaume-Uni (de 17% à 15%).


En 2010, cette tendance à la baisse se révèle temporaire. L'augmentation des dépenses publiques liées à une augmentation du chômage conduit les gouvernements à hausser les taux de TVA. La crise de la dette de 2011 renforce cette tendance. Les dettes de certains pays sont jugées trop importantes par les marchés financiers, l'endettement pour financer les déficits nécessite désormais de payer une prime de risque bien plus élevée. La soudaine hausse des taux d'intérêt dans des pays tels que la Grèce, le Portugal, l'Espagne ou encore l'Italie diffuse une inquiétude croissante chez les gouvernants sur la question de la soutenabilité de la dette. Alors que de nombreux économistes rejettent les politiques d'austérité en période de crise (à l'international c'est sans doute le FMI qui a le plus critiqué les thèses promouvant l'austérité, travaux empiriques à l'appui. En France, c'est peut-être l'OFCE qui s'est exprimé de la façon la plus claire sur le sujet), les gouvernements de gauche comme de droite, pense qu'il est plus responsable de hausser les niveaux de taxation.... La commission européenne et la BCE partage de plus cet avis comme en témoigne ce point de vue de JC Trichet soutenant que l'austérité peut être expansionniste car elle rétablit la confiance dans la capacité des Etats à tenir leurs engagements.... En moyenne le recours à une hausse de la TVA a été continu.

En France on s'est écharpé sur la TVA sociale (politique visant à abaisser les cotisations sociales et à compenser la perte de recette par une hausse de la TVA) en 2012, le débat avait finalement été gagné par la gauche, cette politique, ayant pour but officiel de créer des emplois en élevant le coût du capital et en diminuant celui du travail, n'a finalement pas été adoptée compte tenu de la faible élasticité de substitution entre capital et travail sur le court terme, laissant présager un coup d'épée dans l'eau (voir Carbonnier pour une discussion informée). Puis le vent a tourné (je ne suis pas politiste, ouf, je n'ai pas à expliquer ces phénomènes) et il est redevenu intéressant de baisser les cotisations et d'augmenter la TVA... En 2014, la TVA a été augmentée passant de 19,6 à 20% pour le taux normal et de 7% à 10% pour le taux intermédiaire.

Impact de la TVA

La TVA est régressive, que l'on soit riche ou pauvre, on paye le même taux. Pour limiter cet effet sur le pouvoir d'achat des plus modestes, plusieurs taux sont appliqués et suivant les pays certains produits sont exonérés de taxe. Par exemple en Australie, au Canada et au Japon, où la mise en place de la TVA a été particulièrement difficile, de nombreux aménagements ont été réalisés (d'après James, 2011). Aux Etats-Unis, les démocrates se sont souvent opposés à la mise en place de la TVA principalement pour cette raison de justice sociale et pour les risques d'échec politique qu'une telle taxe pouvait représenter (les républicains s'y opposent craignant que cette taxe renforcent les ressources et la puissance de l'Etat).

L'autre effet de la TVA, souvent mis en avant par les journalistes, est son impact sur la compétitivité des entreprises. En effet, puisqu'elle touche les produits importés, mais qu'elle peut-être déduite par les exportateurs il semble logique qu'elle ait un impact favorable sur la balance commerciale. Pour les économistes en économie internationale, ce raisonnement est un raccourci erroné. Feldstein et Krugman (1990) ont ainsi des mots durs à l'encontre de ce raisonnement:

In large part, the belief that VATs are trade-distorting policies reflects a failure on the part of noneconomists to understand the basic economic arguments.

En effet, le raisonnement basique conduit à considérer que le taux de change va s'ajuster à l'introduction ou à la modification d'une TVA dans un pays. Cependant dans une zone monétaire non harmonisée l'impact d'un différentiel de TVA peut avoir des conséquences économiques. Voir aussi Desai et Hines (2005) ont réalisé une étude sur la question pointant d'autres raisons expliquant l'impact de la TVA sur le commerce (les déductions de TVA pour les exportateurs sont parfois incomplètes, les différences de TVA sur les biens exportés et non échangés ont aussi un impact etc). 

En guise de conclusion, quelques mots sur une taxe européenne

Le traité de Rome établit que l'Europe doit évoluer vers un système de ressources propres (article 201: "without prejudice to other revenue, the budget shall be financed wholly from own resources") mais les Etats s'y sont toujours opposés et l'histoire de la TVA européenne ne fait pas exception à cette règle. Avec la chute des recettes des droits de douane et l'augmentation des dépenses européennes, il a fallu trouver de nouvelles recettes dans les années 60, la TVA ne tarde pas à être au cœur des discussions. Deux méthodes de prélèvement sont proposées par la commission une première dite déclarative, mais que je qualifierais de "désagrégée" où les TVA européennes et nationales sont prélevées sur chaque produits (avec un décompte sur chaque ticket de caisse identifiant les deux taux) et une autre méthode, dite statistique où une part de la TVA récoltée par les Etats est transférée vers l'Europe. La première méthode avait l'avantage d'être transparente mais politiquement elle rendait l'Europe un peu trop indépendante. Officiellement, le coût administratif d'une telle procédure a fait la voie belle à la méthode statistique (aujourd'hui avec l'informatique le coût administratif serait bien moindre, mais l'idée semble appartenir au passé).
Initialement le taux est fixé à 1% et la base fiscale ne peut excéder les 55% du PIB. Puis de multiples négociations ont eu lieu, à commencer par le Royaume-Uni qui obtient une ristourne dès 1984 (le fameux "juste retour"), puis l'Allemagne, la Suède etc... Depuis 2007 le taux a été revu à la baisse passant à 0.3% (avec les exceptions précédemment citées, l'Allemagne 0.15% par exemple). Au final, ce transfert n'est pas vraiment une taxe européenne sur la valeur ajoutée, elle n'est guère différente d'une contribution directe des Etats ce qui explique pourquoi elle est supplantée par ce mode de financement (contribution basée sur le Gross National Income, GNI, sur le graph ci-dessous et VAT pour TVA. Source: European commission).

La TVA européenne pourrait-elle cependant renaître sous une forme nouvelle? C'est l'idée d'une Taxe sur le Carbone Ajouté (TCA), défendue par Eloi Laurent et Jacques Le Cacheux il y a déjà fort longtemps ici, qui comme son nom l'indique s'inspirerait de la TVA mais sur le contenu en carbone. Trois oppositions sont souvent avancées, la première est qu'il faudrait une comptabilité du carbone et que nous ne l'avons pas... Avec une telle critique la TVA n'aurait jamais été mise en place (il est intéressant de se rappeler que la TVA semblait par exemple inapplicable pour le commerce de détails et qu'il a fallu des années pour que le système soit généralisé). La deuxième critique considère qu'une telle politique serait du protectionnisme caché et qu'elle aboutirait à des représailles de la part des partenaires commerciaux. Enfin, le consommateur le plus pauvre verrait son pouvoir d'achat fortement réduit, d'où l'idée de compenser cette perte par des allègements fiscaux. Je dois avouer que je trouves l'idée de la TCA à la fois attirante et inquiétante, il n'empêche qu'elle constitue à n'en pas douter une véritable réforme fiscale au sens d'Edgar Faure, je vous remets la citation là dès fois que vous l'ayez lu trop vite en intro:

"La réforme fiscale, c’est quand vous promettez de réduire les impôts sur les choses qui étaient taxées depuis longtemps et que vous en créez de nouveaux sur celles qui ne l’étaient pas encore"

F.C.

Biblio blogalistique (cad incomplète mais pouvant être complétée si vous demandez gentiment)

  • Desai, Hines, 2005. Value-Added Taxes and International Trade: The Evidence.
  • Feldstein, M, P Krugman, International trade effects of value-added taxation, in Assaf Razin and Joel Slemrod eds., Taxation in the global economy (Chicago: University of Chicago Press, 1990), 263-278.

25 mai 2015

Nash, le mathématicien (par Villani)

John Nash vient de décéder. Vous trouverez dans les journaux tout un tas de résumés plus ou moins bons de ses travaux (souvent moins bons que Wikipédia). Pour aller un peu au delà, je vous conseille ce post de Fine Theorem concernant la contribution de Nash à l'économie. Si par curiosité vous voulez connaître ses contributions en math, il y a cette excellente présentation de Cédric Villani (soit dit en passant, une leçon de pédagogie).

20 mai 2015

Mathiness, Hotelling and Krugman

Paul Romer has an interesting article on the lack of rigor in economics. His fight is against authors that use "mathiness", i.e. math with dubious assumptions and ideological aims, in particular in models with perfect competition. Writting about "Prescott is No Solow, No Becker", he points out:

"Remember that the motivation for the theory is that for these authors, perfect competition is the ultimate non-negotiable, more sacred even than micro-foundations. If this were a Hotelling model of location or a Krugman model of spatial location, I’d have some way to try to make sense about how “some measure of people defines a market.” But in the formal mathematical model of perfect competition that the authors are using, this sentence means nothing"

I confirm that all the story in Hotelling and Krugman is indeed in the link between population and market (I really don't know concerning McGrattan and Prescott (2010), I will work on that) but if mathiness is about crazy assumptions and lack of rigor in results then Hotelling and Krugman are not exempt of review. The initial model of Hotelling is wrong - see d'Aspremont, Gabszewicz and Thisse (1979, Econometrica) - and the model of Krugman on location choices is a "toy model" with "aggressively unrealistic assumptions" according to Fujita, Krugman and Venables (1999). Furthermore this model is not totally satisfactory on the mathematical side, for instance the analysis on existence and stability of equilibria in Krugman (1991, JPE) is lacking (see Robert-Nicoud (2005, JEG) for rigorous proofs). BUT assumptions and results in Hotelling and Krugman are just great. Imperfect competition and transportation costs are the heart and soul of the tradeoff that leads to agglomeration.

From that point, I think that what matters for Romer is not the use of math per se, but the meaning of these math. By promoting models written by Hotelling, Krugman but also by Solow and Becker, he demonstrates its preference for toy models with clear messages (this clearly written in Romer (1992, P66) see also Chris House). I also love these models.

But to get a job, a Ph-D student has to publish papers. I just put here the tweet of Jon Hersh illustrating this pressure.



Mathematics produces, not only (and not always), knowledge in economics, it is also a signaling tool.

Maybe I am wrong (and I hope I am), but I am not sure that the job market (at least in my field) is still looking for simple models like those developed by Hotelling, Becker, Solow or Krugman. For instance, the New Economic Geography of Krugman is dying, it is just impossible to publish a paper in a top-5 journal with the basic assumptions of this literature. Quantified models are wanted and it is often asked to both develop multi-country models and to provide analytical results. Quite logically, this (sometimes) leads to consider models with perfect competition because they are more tractable. An example of this "come back to perfect competition" is the paper of Allen and Arkolakis (2014, QJE) where authors use old tricks but "determine the spatial distribution of economic activity on any surface with (nearly) any geography".

To conclude, diversity of ideas and methodologies must be represented in top journals and there is some journals where it is the case (the JEG is a good example of diversity with publications by economists and geographers). Because it is hard to identify mathiness, and thus to fight against this bad equilibrium, we must consider multiple equilibria where many ecosystems emerge. Obviously the other solution regarding the market of lemons described by Romer is to remove informational problems by employing reviewers that detect and denounce more systematically the ideological devil... the organization of the delegated expertise must be improved (if you want to play with a model on that topic, start with Gromb and Martimort (2007, JET)). Good luck!

F. Candau


PS: The timing of this welcomed rage against mathiness is an enigma for me. Romer has discussed the paper of Prescott in 2007, this paper has been published in 2010 and we are in 2015...

Edit [22/05/15]: A huge number of researchers and journalists have discussed the "mathiness" of Romer (DeLong 1 & 2, Farmer, Williamson, Smith, Fox, Wren-Lewis, AndolfattoGans and PK has presented a similar point of view here before Romer) but the best piece comes from  Dietz Vollrath who clearly explains what are the implications to assume monopolistic or perfect competition in growth models.