24 juin 2016

22 juin 2016

Women in Economics (WinE)

Petite vidéo sur l'excellente initiative Women in Economics de l'European Economic Association.

L’acronyme WinE, c'est évidemment pour le Win, #girlpower, et pas "wine", #St-Emilion, mais il est possible d'allier les deux, c'est l'occas de faire un peu de pub à la première présentation de ma nouvelle doctorante Julie Schlick qui présente demain notre papier "How Income and Crowding Effects Influence the World Market for French Wines" à l'American Association of Wine Economists.

et pour le WinE sans wine, ovation et encouragements aussi à la co-auteure de ce blog, Elisa Dienesch, qui présente après demain notre papier "Pollution Haven and Corruption Paradise" à l'European Association of Environmental and Resource Economists.

04 avril 2016

Evasion fiscale et incidence


Les révélations des médias sur la place et le rôle du Panama sont une excellente nouvelle, cela va sans doute permettre à la justice de plusieurs pays d'utiliser les pièces manquantes d'un puzzle de fraude fiscale souvent difficiles à rassembler

Nous allons ici aborder l'évasion fiscale des firmes multinationales, celles des footballeurs et hommes politiques faisant déjà la une de la presse (voir icij et Le Monde qui bossent sur le sujet depuis des mois).

Biens intangibles, prix de transfert et érosion des bases fiscales

Le système international de taxation des profits à la source date des années 20 et il est notoirement déficient. La règle consistant à séparer les profits pour les taxer à la source (arm’s length principle), implique que des multinationales qui échangent en leur sein des biens doivent trouver un prix sur le marché correspondant à cette transaction. Il est cependant aisé de manipuler ces prix de transferts, il suffit à une filiale implantée dans un pays taxant faiblement les profits d'exporter vers une filiale dans un pays les taxant fortement; résultat: peu de profit à taxer dans ce pays et peu de taxation dans le pays où les profits sont transférés. La situation est encore pire lorsqu'il n'y a pas de prix de référence, par exemple que dire du prix de la technologie de Google USA vendue en 2003 (soit juste avant l'introduction en bourse) à Google Ireland Holdings résidant aux Bermudes?

Deux papiers très intéressants sur le sujet des prix de transferts. Le papier de Vicard (2014) qui estime à 10% la perte de revenu pour le fisc français d'après ce mécanisme (8 milliards) et le papier de Davies, Martin, Parenti, and Toubal (2015) qui, basé sur des données très précises, est bien plus optimiste comme en témoigne la fin de leur abstract:

"We find almost no evidence of tax avoidance if we disregard exports to tax havens. Back-of-the-envelope calculations suggest that tax avoidance through transfer pricing amounts to about 1% of the total corporate taxes collected by tax authorities in France. The lion’s share of this loss is driven by the exports of 450 firms to ten tax havens. As such, it may be possible to achieve significant revenue increases with minimal cost by targeting enforcement".

Incidence

Il est totalement scandaleux que les détenteurs de capitaux perçoivent une rente qui échappe à l'impôt alors que les individus contribuent à la fois via leurs revenus et via leurs consommations (idem pour les entrepreneurs et firmes domestiques qui subissent une perte de compétitivité par rapport aux multinationales). Mais le problème moral est en fait bien plus grand si l'on songe à l'incidence des taxes. Est-on sûr qu'en taxant les profits des multinationales seuls les détenteurs de capitaux sont taxés? Harberger (1962) répond oui dans un cadre très particulier: une économie fermée... A partir du moment où l'économie est ouverte, les salariés trinquent. Voir par exemple l'article d'Arulampalam, Devereux and Maffini (2012) qui montre que 1$ d'augmentation des taxes sur les sociétés se transforme en une baisse de 50 cents des salaires. Les firmes multinationales peuvent aussi absorber la taxe en haussant les prix des biens vendus ou en mettant la pression sur les fournisseurs...bref la question de l'incidence ne remet pas en question la nécessité de taxer le capital, au contraire elle pose la question de comment le taxer pour qu'il paye réellement sa contribution. Comme le note nombre d'auteurs il faut vraiment réfléchir à une nouvelle façon de taxer les firmes multinationales, voir entre autre Devereux et Sorensen (2005), notamment la dernière partie (et aussi, évidemment, Zucman, 2013) ainsi que des travaux plus récents de Devereux, pour conclure je citerais d'ailleurs Devereux et Vella (2014):

"Even if the actions proposed by the OECD are successfully implemented, the international tax regime will still not be fit for purpose. The regime will consist of a confused, complex mass of arcane, arbitrary and sometimes illogical rules [...]

Admittedly, a shift away from the current framework is difficult because strong path dependencies have developed over the past hundred years in which the current framework has been in place. Any shift requiring international cooperation will be particularly hard to implement. However, whilst not underestimating these difficulties, exploring these options is important". 

F. Candau

Références

Arulampalam W, Devereux M and Maffini G (2012) The Direct Incidence of Corporate Income Tax on Wages. European Economic Review. Volume 56, Issue 6, Pages 1038–1054

Davies, R, Martin J, M Parenti and F Toubal, 2015. Knocking on Tax Haven’s Door: Multinational Firms and Transfer Pricing. CEPR Discussion Papers 10844

Devereux M, Sorensen P, 2005. The Corporate Income Tax: International Trends and Options for Fundamental Reform, European Economy.

Harberger, Arnold C., 1962.The incidence of the corporation income tax. Journal of Political Economy 70,215–240.

Vicard, V. (2014), Transfer pricing of multinational companies and aggregate trade. WP 555 Banque de France.

Zucman, G. 2013. Richesse cachée des nations. Seuil.



17 mars 2016

Behavorial Economics

Les sciences économiques se sont diversifiées au cours des trente dernières années et l'économie comportementale est sans doute l'une des disciplines qui s'est le plus développée sur cet intervalle. L'objectif a été de mieux comprendre les décisions économiques des agents pour amender et améliorer les enseignements de la microéconomie de base (optimisation, équilibre etc). L'économie comportementale a développé plusieurs analyses et méthodes qui sont désormais des disciplines à part entière telles que l'économie expérimentale, l'économie psychologique ou encore la neuroéconomie.

David Laibson and John A. List ont récemment écrit un papier intitulé "Behavorial Economics in the Classroom" qui résume les "principes" qui peuvent être tirés de ces analyses.

En résumé l'économie comportementale (prospect theory initialement) a montré que les décisions risqués sont évalués par les individus en termes de gains et de pertes par rapport à un point de référence (par exemple le revenu actuel), cette référence ou encore cette contextualisation de la décision peut conduire à de mauvais choix. De plus les agents n'évaluent pas les pertes de la même façon que les gains, ils surestiment l'occurrence des événements rares (e.g. terrorisme), sous-estime ceux dont la probabilité est grande et ils peuvent aussi avoir trop confiance en eux ou dans des choses qu'ils croient connaître. Les investisseurs ont par exemple tendance à avoir une préférence pour des investissements “familiers” et surestiment souvent la performance des firmes de leur pays (home bias). Les français détiennent ainsi beaucoup plus d'actions Renault que les américains (voir Rey et Coeurdacier (2011, JEL) pour une revue de la littérature sur le home bias financier).

Autre exemple (parmi bien d'autres), les américains n'épargnent pas suffisamment pour leur retraite, pourquoi? Est-ce un problème économique? d'information? Lorsqu'on leur pose la question, ils disent qu'ils ont conscience du problème et qu'ils vont justement augmenter leur épargne, mais pas aujourd'hui, demain. Le problème, c'est que demain, c'est toujours demain. Les individus ont clairement des problèmes de self-control, la façon dont il décompte l'effort futur est clairement incohérente avec leurs préférences et leurs choix d'aujourd'hui (voir les premiers travaux de Laibson sur l'hyperbolic discounting). Bref, la procrastination fait partie des traits comportementaux nous conduisant à réaliser de mauvais choix.

Les individus ont aussi tendance a valoriser beaucoup plus un bien qu'ils possèdent que ce même bien s'ils ne le possèdent pas, ou plus précisément ils ne sont pas prêts à payer grand chose pour augmenter leur dotation par contre ils seront très réticent à la voir diminuer (endowment effect de Thaler).

Enfin les interactions sociales jouent un grand rôle sur les décisions économiques des individus.

Ces nouveaux éléments dans l'analyse des comportements économiques ont enrichi les travaux de finance, d'économie du travail, du développement, etc.... DellaVigna (2009, JEL)Pesendorfer (2006, JEL), et Barberis (2012, NBER) offrent des revues de la littérature qui pourront vous intéresser.

Pour d'autres enseignements, notamment en économie publique, voir cette vidéo rassemblant plusieurs contributions. Tout d'abord Raj Chetty qui utilise des Big Data (1 milliard d'obs) pour comprendre les réactions fiscales des américains dans différents Etats au cours du temps, puis Olivia Mitchell sur la sécu américaine, Naomie Feldman sur une politique familiale (child tax credit) et Johannes Schmieder sur les allocations chômage. Here the power of the nudge!




David Laibson a aussi récemment participé à une revue de la littérature d'une autre science économique relativement nouvelle (et reliée à la précédente): la neuroéconomie.

Edit: léger souci pour répondre aux commentaires, je poste donc ici ma réponse:
McCabbe, Glimcher et Smith ont été les initiateurs et promoteurs de la neuroéconomie vers la fin des années 90 début des années 2000. Pour une histoire de la pensée en français de la neuroeco il y a cette thèse de Nicolas Vallois https://tel.archives-ouvertes.fr/tel-00765033/document

14 mars 2016

Currency war d'après Gita Gopinath

Court entretien avec Gita Gopinath sur l'impact des dévaluations. Comme elle le rappelle les effets sont asymétriques, une dépréciation/appréciation du dollar qui est la monnaie de référence a d'important effets pour la compétitivité américaine. A l'inverse, la dépréciation d'un petit pays aura peu d'effet... à écouter (c'est court, 4min!)....

...et à méditer si vous pensez qu'une sortie de l'euro permettrait à n'importe quel pays de gagner une guerre des monnaies.

Voir les travaux de cette auteure pour en savoir plus ici.

06 mars 2016

Les paradis fiscaux, c'est terminé


Excellente nouvelle en provenance du ministère des finances, le montant des redressements fiscaux est de 21,2 milliards d’euros pour 2015, soit une nette augmentation par rapport à l'année passée. Evidemment tout n'est pas recouvré, seulement 12 milliards sont rentrés dans les caisses, mais c'est déjà pas mal. Alors peut-on conclure avec Nicolas Sarkozy "il n'y a plus de paradis fiscaux [...] c'est terminé", ou avec Michel Sapin "On a tourné une page. Il y a une nouvelle mentalité au niveau mondial".

La question épineuse est évidemment de savoir quel pourcentage ces chiffres représentent par rapport au total de fraude et d'évasion fiscale. D'après Gabriel Zucman (2013), environ 12% du patrimoine financier des ménages européens est détenu dans un paradis fiscal et les ménages français détiennent environ 175 milliards d'euros en Suisse. Selon cet auteur, si cette évasion fiscale n'existait pas et si ces sommes étaient taxées normalement (i.e. aux taux en vigueur), la dette de la France ne serait pas de 95% mais de 70% du PIB. Au niveau mondial, les chiffres sont encore plus vertigineux, environ 5800 milliards d'euros soit 8% du patrimoine financier échapperait à tout impôt.
Historiquement, cette évasion a en grande partie été organisée depuis la Suisse. D'ailleurs sur les 44 894 dossiers de régularisation, soit 27 milliards d’euros traité depuis 2013 par le service de traitement des déclarations rectificatives, environ 90% étaient domiciliés en Suisse.

L'attractivité de la Suisse pour les capitaux à la recherche d'un secret bancaire est presque centenaire. Suite à la première guerre mondiale, les nations sont ruinées et pour payer la reconstruction taxent fortement les revenus (le taux marginal de l'impôt sur le revenu passe de 20% à 72% entre 1920 et 1924 en France). Cette répression explique l'évasion fiscale,  de 1920 à 1929 la croissance réelle des comptes offshore augmente de 14% par an en moyenne avec des pics dans les années où la France durcit ses lois sur les grandes fortunes. Les années 50, 60 et 70 sont l'âge d'or du système helvète qui "détient" 1/3 des actions américaines détenu par des étrangers (soit loin devant le RU ou la France qui n'en détient que 7%), signe que la Suisse est devenu un cheval de Troie important. Dans les années 80 de nouveaux paradis fiscaux apparaissent mais ils ne se font pas forcément concurrence, chacun se spécialise dans une activité et ils opèrent en réseaux de façon complémentaire. On achète depuis la Suisse des sicav luxembourgeoise ou des sociétés écrans des îles Caïman.

Les années 90 et 2000 de libéralisation financière et de digitalisation de l'économie ont été des années fastes pour la mobilité discrète des capitaux, mais la crise de 2007 et l'endettement des Etats a relancé la lutte contre l'évasion. Les scandales a répétition de firmes multinationales ayant des taux effectifs de taxation très faibles (Google et le double Irish Dutch sandwich permettant de payer seulement 2% d'impôt sur les sociétés, luxleaks, etc) a aussi sans doute joué en faveur d'une pression politique plus forte sur des pays tels que l'Irlande, la Suisse ou le Luxembourg. Les rentrées fiscales récentes témoignent d'un certain succès de ces politiques. On aurait cependant tord d'être trop optimiste. D'après cette étude de Johannesen et Zucman (2014) une partie des capitaux est en train d'être transférée de la Suisse vers d'autres paradis fiscaux qui n'ont pas signé d'accord d'échange d'information avec la France (dont Hong Kong, Singapour et l'Uruguay).

Bibliographie

Johannesen et Zucman, 2014. The End of Bank Secrecy? An Evaluation of the G20 Tax Haven Crackdown. American Economic Journal: Economic Policy 2014, 6(1): 65–91

Zucman, G. 2013. Richesse cachée des nations. Seuil.

Zucman, G. 2013. The Missing Wealth of Nations, Are Europe and the U.S. net Debtors or net Creditors?, Quarterly Journal of Economics, 128(3): 1321-1364.


04 mars 2016

No Brentry et la politique migratoire de l'EUxit

"Nous ne coalisons pas les Etats, nous rassemblons les hommes" Jean Monnet.

Vingt deux millions d'euros à Calais pour stopper les migrants vers le RU, 22 millions (?!) cela manque tout de même d'envergure et de vision pour un sommet Franco-Britannique. Mais c'est dans l'air du temps, 300 millions par an en Grèce c'est tout aussi ridicule et inutile, et que dire des discussions avec la Turquie (dirigée de façon peu démocratique) pour repousser plutôt que d'intégrer... L'agglomération des migrants en Allemagne (plus d'1 million) va être un réel problème, alors qu'une dispersion à l'échelle de l'Europe, nécessitant une véritable politique migratoire européenne, était la solution évidente.
La méthode Monnet ne fonctionne plus, les crises successives amenant des réactions en chaîne confortant la construction européenne l'ont affaiblie voire discréditée. Les gains à poursuivre cette intégration sont totalement sous-estimés et les coûts paraissent exorbitant pour beaucoup. La succession désordonnée d'initiatives pays par pays est désolante, elle est pourtant rarement décrite comme telle. Cette incapacité à construire un bien commun est de plus en plus mortifère.


Désolé pour ce post sans références et sans grand contenu, c'est je crois ce qu'on appelle un billet d'humeur, ras le bol de ce nationalisme qui semble indépassable.

29 novembre 2015

T'es cop ou t'es pas cop (de comprendre la proba de 3 degrés de réchauffement)?

Quizz: le Botswana est surnommé:

  1. la ferme de l'Afrique 
  2. la Suisse de l'Afrique 
Il ne pleut presque jamais au Botswana, seulement 1% du territoire est cultivable. L'eau est tellement vénérée que le drapeau est bleu, que la monnaie "Pula" signifie "pluie" et que lorsqu'on pense à des lendemains radieux, on pense à des pluies torrentielles. Pour preuve, en 1966 au moment de l'indépendance le président Seretse Khama s'est écrié "let there be rain!" (Lynas, 2007). Alors, sans surprise, le Botswana n'est pas connu pour son agriculture mais pour ses diamants et pour son système bancaire, l'un des "meilleurs" d'Afrique.
Avec quelques degrés de plus à l'échelle du monde de nombreux pays vont souffrir de sécheresse et tous ne pourront pas être des paradis fiscaux (ou trouver des diamants). Soyons clair, 2 degrés, soit l'objectif de la COP21 à horizon 2100, c'est un climat hostile mais ça reste vivable (enfin pas partout...). Mais peut-on véritablement viser et atteindre précisément 2 degrés? Ne devrait-on pas plutôt avoir des objectifs sur des instruments (harmonisation de taxe, réglementation, marché CO2)? Le problème avec cet objectif de 2 degrés, c'est que la marge d'incertitude est grande, le réchauffement pourrait être bien plus élevé avec le même niveau estimé de pollution. Ces 2-3-4 degrés sont calculés par rapport aux émissions de gaz à effet de serre. Suivant ces émissions (dépendantes donc d'hypothèses sur le PIB, les technologies, le commerce etc) on calcule des probabilités de hausse de températures, en 2100 on devrait être à 700 ppm et en conséquence le scénario de 3 degrés est le plus probable (voir graphique ci-dessous extrait de Wagner et Weitzman, 2015). Mais notez qu'il y à au moins 10% de (mal)chance qu'avec ce même niveau d'émission on tape dans les 6 degrés de réchauffement! Si on fait plus que 700 ppm, la proba des 6 degrés augmente, elle passe à presque 20% avec 800 ppm. 

Il est peu probable qu'on laisse la terre se réchauffer à une telle température. Six degrés c'est un come back au crétacé qui n'est pas vraiment connu pour son abondance en mammifères, alors même avec des progrès techniques (notamment agricoles) la vie risque d'être très très difficile. Les conséquences seront tellement dramatiques qu'elles entraîneront avant ces 6 degrés des changements radicaux concernant les politiques environnementales. 
Source: Soulcié dans Télérama

Hélas, la COP21 ne sera pas un moment historique dans cette direction, discuter du degré de réchauffement, c'est forcément lancer un faux débat. Il faudrait plutôt s'accorder sur un prix du carbone et sur une coordination des politiques environnementales (mais l'échec de Copenhague et les réticences politiques toujours importantes ont pour l'instant reléguer ces objectifs à plus tard). Avec un prix du carbone élevé non seulement des énergies moins polluantes seraient rentables mais il serait aussi profitable de dépolluer. Si l'on songe à la géo-ingénierie (pas les techniques polluantes style émissions de dioxyde de soufre dans l'atmosphère), il est même envisageable de voir se développer des techniques de séquestration efficaces qui permettront de réduire la concentration de CO2 dans l'atmosphère, et donc de réduire les 2-3-4 degrés de réchauffement que nous pourrions atteindre....

F.C.

Pour aller plus loin, lire l'excellent post sur le blog de l'afse de K Schubert "COP21, prix du carbone, quoi de neuf ?" ainsi que ses références, dont notamment l'article de Nordhaus "Climate Clubs: Overcoming Free-riding in International Climate Policy" et celui de Weitzman "Internalizing the Climate Externality:Can a Uniform Price Commitment Help?" (très facile à lire).

Biblio du post
  • Lynas, Six Degrees, our Future on a Hotter Planet, Harper-Collins.
  • Wagner et Weitzman (2015), Climate Shock, the Economic Consequences of a Hotter Planet. Princeton U Press.

26 novembre 2015

Exclusif, interview de Douglass North

Douglass North (DN) économiste et historien passionné par le fonctionnement des institutions vient de décéder. Cependant, il n'a pas tout à fait quitté ce monde, ses écrits demeurent dans nos pensées. Voici l'interview qu'il avait accepté de nous accorder pour réagir aux suites du printemps arabe, à l'après daech, aux possibilités d'instaurer une démocratie... Bref aux changements institutionnels que l'on attendait et/ou que l'on pourrait attendre.



FC: Cher Douglass, pourriez vous nous décrire votre vision du "changement institutionnel"? Est-ce une vision darwinienne du changement?

DN: Modeling the process of change must derive its inspiration from evolutionary biology but in contrast to Darwinian theory in which the selection mechanisms are not informed by beliefs about the eventual consequences, human evolution is guided by the perceptions of the players in which choices—decisions—are made in the light of these perceptions with the intent of producing outcomes downstream that will reduce the uncertainty of the organizations—political, economic, and social—in pursuit of their goals.

Institutional change is a deliberate process shaped by the perceptions of the actors about the consequences of their actions.
The immediate vehicle by which the actors attempt to shape their environment is by altering the institutional framework in order to improve their (and their organizations’) competitive position.

FC; Pourriez vous décrire en seulement quelques points ce processus (les lecteurs de ce blog étant, en moyenne, des fainéants ;-))?

DN: Let me state five propositions that describe this process:

  1. The continuous interaction between institutions and organizations in the economic setting of scarcity and hence competition is the key to institutional change.
  2. Competition forces organizations continually to invest in new skills and knowledge to survive. The kind of skills and knowledge individuals and their organizations acquire will shape evolving perceptions about opportunities and hence choices that will incrementally alter institutions.
  3. The institutional framework provides the incentive structure that dictates the kinds of skills and knowledge perceived to have the maximum payoff.
  4. Perceptions are derived from the mental constructs of the players.
  5. The economies of scope, complementarities, and network externalities of an institutional matrix make institutional change overwhelmingly incremental and path dependent.
Let Me Expand on These Propositions

  1. Institutions are the rules of the game—both formal rules, informal norms and their enforcement characteristics. Together they define the way the game is played. Organizations are the players. They are made up of groups of individuals held together by some common objectives. Economic organizations are firms, trade unions, cooperatives, etc.; political organizations are political parties, legislatures, regulatory bodies; educational organizations are universities, schools, vocational training centers. The immediate objective of organizations may be profit maximizing (for firms) or improving reelection prospects (for political parties); but the ultimate objective is survival because all organizations live in a world of scarcity and hence competition.
  2. New or altered opportunities may be perceived to be a result of exogenous changes in the external environment which alter relative prices to organizations, or a consequence of endogenous competition among the organizations of the polity and the economy. In either case the ubiquity of competition in the overall economic setting of scarcity induces entrepreneurs and the members of their organizations to invest in skills and knowledge. Whether through learning by doing on the job or the acquisition of formal knowledge, improving the efficiency of the organization relative to that of rivals is the key to survival.
  3. [...] There is no implication in proposition 2 of evolutionary progress or economic growth—only of change. The institutional matrix defines the opportunity set, be it one that makes income redistribution the highest pay-off in an economy or one that provides the highest payoffs to productive activity.While every economy provides a mixed set of incentives for both types of activity, the relative weights (as between redistributive and productive incentives) are crucial factors in the performance of economies. The organizations that come into existence will reflect the payoff structure. More than that, the direction of their investment in skills and knowledge will equally reflect the underlying incentive structure. If the highest rate of return in an economy comes from piracy we can expect that the organizations will invest in skills and knowledge that will make them better pirates.
  4. The key to the choices that individuals make is their perceptions about the payoffs, which are a function of the way the mind interprets the information it receives. [...] The implication of the foregoing paragraph is that individuals from different backgrounds will interpret the same evidence differently; they may, in consequence, make different choices [...] The result is that multiple equilibria are possible due to different choices by agents with identical tastes.

FC: Pouvez vous revenir sur ce processus d'apprentissage qui est central dans cette vision des institutions. 

[...] Humans attempt to reduce that uncertainty (or convert it into risk) by learning. The cumulative learning of a society embodied in language, beliefs, myths, ways of doing things—in short the culture of a society—not only determines societal performance at a moment of time but through the way in which it constrains the choices of the players contributes to the nature of the process through time.
Humans scaffold both the mental models they possess—belief systems—and the external environment—institutions. The focus of our attention, therefore, must be on human learning, on what is learned and how it is shared among the members of a society, on the incremental process by which the beliefs and preferences change through time, and on the way in which they shape the performance of economies through time.

[...] Equally crucial are the policies that we enact to alter the performance of an economy. Even when we have a “correct” understanding of the economy and the (more or less) “correct” theory about its operation, the policies at our disposal are very blunt instruments. They consist of alterations in the formal rules only, when in fact the performance of an economy is an admixture of the formal rules;
the informal norms, and their enforcement characteristics. Changing only the formal rules will produce the desired results only when the informal norms that are complementary to that rule change and enforcement is either perfect or at least consistent with the expectations of those altering the rules.

FC: Certes les règles formelles ne font pas tout...Pensez vous que l'Histoire et les expériences passées peuvent aider à l'émergence d'institutions qui permettent le développement? En bref, quelle est la place du temps dans cette construction?

[...] time is important because it is the dimension in which human learning occurs and there is no implication in the foregoing brief description of the process of learning that suggests that we get it right. Indeed throughout history we have gotten it wrong far more often than we have gotten it right. The rise and fall of communism in the twentieth century is only a recent illustration. It is probably correct that if “reality” stayed constant the feedback from the policies we enacted would gradually lead us to get it right, but change and therefore persistent uncertainty is our lot which guarantees that we will continue to get it wrong at least part of the time.

[...] Let me conclude by talking again about time. [...] it is clear that change is an ongoing continuous affair and that typically our institutional prescriptions reflect the learning from past experience. But there is no guarantee that the past experiences are going to equip us to solve new problems. Indeed an historic dilemma of fundamental importance has been the difficulties of economies shifting from a political economy based on personal exchange to one based on impersonal exchange. An equally wrenching change can be the movement from a “command” economy to a market economy. In both cases the necessity to restructure institutions—both economic and political—has been a major obstacle to development; it still is the major obstacle for third world and transition economies. The belief system that has evolved as a result of the cumulative past experiences of a society has not equipped the members to confront and solve the new problems.

FC; Merci Doug, c'est terriblement d'actualité.

Nota Bene: fake interview obviously, extraits de D North "Institutions and the Performance of Economies over Time" dans le Handbook of New Institutional Economics (ed Ménard et Shirley) de 2005.

22 novembre 2015

Terrorisme et chasse aux sorcières

Ce qui vient de se passer à Paris est une horrible illustration de la facilité à tuer de l'Etat Islamique (EI). Déclarer l'état d'urgence pour un temps limité, renforcer les moyens de notre armée et intervenir plus massivement contre l'EI semblent être des politiques nécessaires (ceci dit j'ai des doutes) compte tenu des morts et du traumatisme causé. Certaines personnes dans mon entourage me disent avoir peur, les provinciaux révisent leurs déplacements vers la capitale, et certains amis parisiens parlent de précipiter leur déménagement de Paris... C'est fou. Pourquoi céder à la psychose? La probabilité de mourir d'un attentat terroriste reste excessivement faible. La peur est irrationnelle et la connaissance des probabilités n'a jamais rassurée les anxieux, il n'empêche que l'hystérie collective ne peut que favoriser des politiques sécuritaires que nous pourrions regretter un jour.

L'ouvrage de "Chasing Ghosts, the Policing of Terrorism" de Mueller et Steward est de ce point de vue éclairant, les auteurs détaillent les dépenses hallucinantes de l'Etat américain suite aux attaques du 11 septembre. L'ouvrage présente des situations qui ressemblent à celles que nous vivons aujourd'hui avec une montée de discours anxiogènes qui justifient toutes les dépenses. On n'en fini plus de compter les dollars et le nombre de personnes employées, 115 milliards en tout chaque année avec 12 000 agents du FBI exclusivement dévoués à la lutte anti-terroriste, 35 000 employés à la tristement célèbre NSA et 150 000 personnes pour "prévenir les attaques" au DHS.

Les auteurs évaluent les politiques antiterrorismes de différentes manières. La première consiste à évaluer le coût de la politique menée par vie sauvée. Avec un calcul de coin de table, considérant que la vie d'un américain vaut 7,5 millions de dollars, ils évaluent que la lutte antiterroriste (115 milliards) aurait due sauver 16 000 personnes. Or même si les politiques antiterroristes ont sauvé des vies, il est peu probable qu'elles en aient sauvé autant. Bien sûr, on peut considérer qu'une vie n'a pas de prix (il manque des considérations éthiques dans ces analyses), et que ce genre de calcul est amoral mais c'est pourtant un calcul qui est fait très régulièrement par les autorités publiques (e.g. pour le remboursement des médicaments nouvelles générations anti-cancers)... et puis surtout il faut se poser la question de savoir si cet argent alloué différemment ne permettrait pas de mieux lutter contre la radicalisation.

Les auteurs réalisent ensuite des analyses coûts/bénéfices qui sont aussi très discutables (le vrai pb est comment améliorer ces analyses) mais l'ouvrage a le mérite de poser des questions économiques totalement occultées ces temps-ci: quels sont les coûts et pour quels bénéfices? Ne dépensons pas l'argent public simplement pour nous rassurer. Évitons des dépenses inutiles dans une comédie sécuritaire sans effets réels et évaluons sérieusement les politiques qui sont mises en place pour les abandonner rapidement et définitivement si elles n'ont qu'un effet placebo.

De ce point vue je signale l'appel du CNRS sur des recherches analysant le terrorisme, qui suscite quelques débats chez nos collègues des autres disciplines, mais qui ne devrait pas en poser en économie tant il semble logique, compte tenu de nos outils et objets d'études, d'évaluer quels sont les coûts d'opportunité de l'argent alloué et qu'elles sont les politiques les plus efficaces pour lutter contre le terrorisme. 

23 octobre 2015

Angus Deaton et "randomista"

Les contributions d'Angus Deaton ont déjà été largement résumées, je vais donc simplement compléter notre précédent post d’un éclairage sur la position d’Angus Deaton sur les méthodes d'évaluation des politiques de développement qui pourra être utile aux non-initiés. 

 

Learning about development ?

Quelle est la meilleure méthode d’évaluation des projets de développements ? C’est bien là toute la question qui fait débat.  L’aide internationale permet-elle de réduire la pauvreté ? Quelle est la meilleure politique pour reculer l’âge de la première grossesse ? L’électrification des zones rurales permet-elle une amélioration du bien-être des pauvres ?  Le succès des transferts monétaires conditionnels au Mexique (le fameux Progresa, aujourd’hui Opportunidades) est-il généralisable ? 
La liste est longue. Les projets de développement se sont multipliés, sous l’impulsion des institutions internationales et des fameux objectifs du millénaire dont l’ambition est d’éradiquer la pauvreté dans le monde, à travers toutes les dimensions qu’elle revêt.  Les échecs aussi, se sont multipliés. L’efficacité de l’aide humanitaire est loin de faire consensus, encore aujourd’hui, (voir le récent billet de voxeu.org). Les politiques de réduction de fécondité montrent des résultats très contrastés. Et même un programme qui semble mettre tout le monde d’accord, y compris les différents partis politiques au pouvoir, le programme PROGRESA au Mexique, donnent des résultats beaucoup plus mitigés dans les pays où le projet a été étendu. 

L’enjeu est de taille. Les moyens humains et financiers sont considérables. Comment optimiser les programmes de développement ? Selon Angus Deaton, une seule réponse : en cherchant à comprendre, non pas quels sont les programmes qui fonctionnent mais pourquoi ils fonctionnent.  Si vous retenez cela, vous avez presque tout saisi…J’ai dit presque.

On rentre un peu dans le détail?

Le début des années 2000 marque un tournant dans la discipline. Banerjee, Duflo, Kremer parmi d’autres sont partis du constat que les grands projets de développement dont l’ambition était d’éradiquer la pauvreté étaient totalement décourageants  au regard de l’ampleur de la pauvreté dans le monde et des résultats  quasi-imperceptibles. A l’inverse, des initiatives locales à petite échelle donnent la satisfaction aux monteurs des projets, de montrer des résultats observables et mesurables.  Une manière de repenser la pauvreté. C’est le message essentiel de Banerjee et Duflo que tout le monde connait.  Un message optimiste qui était le bienvenu  à vrai dire. Retenons simplement que l’échelle d’action et donc d’évaluation est centrale dans le positionnement de ces pionniers de la randomisation. 

Randomisation, quasi-randomisation et variables instrumentales, doubles-différences…Tout un ensemble de techniques avec un unique objectif : l’inférence causale ou comment détecter un lien de causalité entre un programme de développement et les résultats observés.  Rien de nouveau, on est dans la veine du modèle causal de Rubin. Inspiré par des expériences aléatoires effectuées en médecine, on définit un groupe traitement (assujetti à une pol de développement) et un groupe témoin (non-assujetti).  Exemple : une politique d’amélioration des taux de scolarisation, via des transferts monétaires.  Dans l’idéal, les deux groupes doivent être parfaitement identiques afin de contrôler l’ensemble des facteurs pouvant interagir à la fois sur les taux de scolarisation, les revenus, le coût d’opportunité d’une année d’école… Une solution miracle : la sélection aléatoire qui garantit que la probabilité de recevoir ou non une incitation financière soit identique et qui prémunit le chercheur du biais de sélection dans la constitution des groupes.

« Creating a culture in which rigorous randomized evaluations are promoted, encouraged and financed has the potential to revolutionize social policy during the 21th century, just as randomized trials revolutionized medecine during the 20th ». E. Duflo, 2004.  
Une solution miracle ? En tout cas, une solution qui se dédouane de toute analyse théorique et d’une analyse microéconométrique complexe.

Avant de rentrer dans la phase critique, rappelons que l’expérimentation purement aléatoire n’est pas toujours applicable, notamment parce qu’elle implique une très bonne anticipation dans le design du projet de développement, des moyens humains considérables et surtout parce qu’elle pose de nombreuses questions éthiques qui remettent en question la faisabilité politique de la sélection aléatoire. Du coup, d’autres techniques d’inférence causale ont été de plus en plus utilisées dans le cadre des évaluations de projet de développement, dont l’usage des variables instrumentales. 

Qu’en dit Deaton ?

« Under ideal circumstances, randomized evaluations are useful for obtaining a convincing estimate of the average effect of a program- but should be guided by theory. »
 
Ok, donc premièrement Deaton reconnait une certaine rigueur scientifique à la démarche et un pouvoir démonstratif quant à l’efficacité d’un programme de développement.  Fondamentalement, il reproche une absence d’éclairage théorique qui nous empêche de comprendre pourquoi le programme fonctionne (ou pas). Il reproche également une surinterprétation des résultats donnant lieu à des extrapolations abusives.

Erreur N°1: l’extrapolation de résultats (validité externe)
La randomisation (comme les autres méthodes d’éval expérimentale) permettent d’estimer un effet moyen du projet de développement sur un résultat observe, c’est le fameux LATE « Local average treatment effect ».  Attention, en aucun cas Deaton ne critique le caractère local de l’estimation qui peut se défendre (#repenserlapauvreté). Il condamne seulement l’utilisation de ces résultats estimés pour généraliser un projet de développement. On est clairement dans une remise en question de la validité externe de la méthode d’évaluation.  Pourquoi ne peut-on pas généraliser les résultats ? Tout simplement parce que l’analyse néglige totalement les effets du traitement en équilibre général. Le programme PROGRESA a été étendu dans plus de 30 pays fort des résultats d’évaluation au Mexique. L’objectif : améliorer les taux de scolarisation et l’accès au soin des enfants grâce à des transferts conditionnels.  Les coûts d’opportunité (et surtout leurs déterminants) d’une année d’école sont très différents d’un pays à l’autre. Les politiques sociales initiales  et surtout les infrastructures (notamment l’accès aux hôpitaux) sont totalement différentes et ne justifiaient pas une application identique du programme.

Erreur N°2 : le traitement de l’hétérogénéité  et la validité interne
A travers la randomisation ou quasi-randomisation, on estime l’effet moyen d’un traitement. Deux problèmes se posent :
- On ne traite en aucun cas l’hétérogénéité de l’échantillon malgré tous les efforts fournis pour composer des groupes traitement/témoin identiques.  L’usage d’un instrument pose encore plus de difficultés ici. On choisit un instrument corrélé au projet de développement évalué mais non corrélé avec l’erreur, en supposant l’absence d’hétérogénéité.  L’effet de l’instrument est par définition un effet moyen et ne permettra en cas de traiter l’hétérogénéité de l’échantillon.  Deaton est très clair sur ce point: « heterogeneity is not a technical problem calling for an econometric solution but a reflection of the fact that we have not started on own proper business, which is trying to understand what is going on. » Il déplore donc l’absence d’analyse théorique qui permettrait un meilleur traitement économétrique de l’hétérogénéité des individus. C’est sa contribution majeure en microéconométrie du développement.

- On détermine une moyenne mais on n’identifie pas les autres caractéristiques de la distribution. Or, une information fondamentale qui devrait ressortir des évaluations de politique de développement c’est quelle est la fraction de la population qui bénéficierait d’un effet traitement positif ? Cette analyse permettrait d’éviter certains effets désastreux, dont les exemples sont nombreux. Pensez aux politiques d’infrastructures menées qui ont très souvent généré des inégalités de traitement considérables.  Deaton défend donc l’analyse marginaliste en économie du développement et déplore son absence (ou sa marginalisation) dans la littérature aujourd’hui.

Deaton souligne les nombreuses confusions dans la littérature quant à la signification de l’exogeneité et son traitement. 

Erreur N°3 : Le traitement de l’endogéneité  ou l’illusion des variables instrumentales
Pour sa démonstration, Deaton utilise un modèle macroéconomique de consommation ultra light et démontre qu’avec une analyse théorique, la forme réduite estimée est totalement spécifiée et donc l’usage d’une variable instrumentale est tout à fait approprié. Autrement dit, le choix de la variable instrumentale doit provenir d’un raisonnement théorique préalable pour garantir le traitement de l’endogéneité. Or, dans les évaluations quasi-expérimentales, le choix des variables instrumentales n’est pas guidé par un modèle spécifié mais uniquement par la recherche d’un instrument orthogonal, impliquant qu’il soit exogène ET non corrélé au terme d’erreur de l’équation principale.  L’exogénéité en économie signifie que la variable est causée par des facteurs externes au système étudié. Mais la cohérence d’un instrument implique cette restriction supplémentaire de ne pas être corrélé au terme d’erreur.  Et c’est bien là toute la difficulté.  Aucun test économétrique n’est en fait capable de nous garantir que cette condition d’exclusion est respectée : les tests de suridentification communément utilisés ne peuvent pas valider notre instrument et l’identification valide du système estimé.  

Deaton regrette finalement que ce tournant de l’économie du développement s’exonère totalement de la théorie pour définir une stratégie d’évaluation. L’absence de modèle implique plusieurs limites : 
  • le choix de l’instrument est erroné et ne garantit pas que les estimations soient non biaisées dans le cadre d’une quasi-randomisation. Exogénéité non traitée
  • le traitement de l’hétérogénéité des individus est défaillant.
  • on ne comprend pas ce qui détermine les résultats du traitement.
“Randomized controlled trials (RCT) do not occupy any special place in some hierarchy of evidence”.
 
“As with IV methods, RCT-based evaluation of projects, without guidance from an understanding of underlying mechanisms, is unlikely to lead to scientific progress in the understanding of economic development.”

Réactions? 
Evidemment ces critiques ont très bien été intégrées par les grands spécialistes de la randomisation. Il est aujourd’hui rare que Duflo et ses co-auteurs se passent d’un éclairage théorique pour comprendre les résultats estimés. Dans le dernier AER de Duflo (co-écrit avec Dupas et Kremer), les auteurs évaluent deux programmes de développement au Kenya : des aides à la scolarisation pour lutter contre la déscolarisation des filles et les grossesses précoces ; et un programme de prévention du VIH. L’expérimentation estime les effets de chaque politique de façon isolée puis combinée. Les résultats ne sont pas du tout linéaires. Une politique d’aide à la scolarisation permet de réduire considérablement les grossesses des jeunes filles, plus que lorsque cette politique s’accompagne d’un programme de prévention du VIH.  A l’inverse, une politique de prévention du VIH seule n’a aucun effet significatif alors que combinée à des aides scolaires, les taux de contamination baissent significativement.  Partant de ces incohérences, les auteurs expliquent leurs résultats à travers un éclairage théorique : un modèle à un seul facteur dans lequel le rapport non protégé détermine à la fois la grossesse et la contamination au VIH est inapproprié pour comprendre ses résultats.  Par contre un modèle théorique plus riche où le choix individuel des jeunes filles ne porte pas uniquement sur le rapport protégé, mais aussi sur le choix d’une relation engagée ou occasionnelle va permettre d’éclairer ses résultats non linéaires.  De plus le fait d’intégrer dans l’analyse l’incompatibilité entre grossesse et scolarité permet de mieux considérer le cout d’opportunité d’une grossesse et de mieux comprendre le choix des jeunes filles de s’engager ou non dans une relation. Enfin parce que les filles perçoivent un risque plus grand d’être contaminées dans le cadre d’une relation occasionnelle, elles s’engageront plus facilement dans une relation maritale et auront donc plus de rapports non protégés, ce qui augmentera le risque de grossesse.  Une analyse théorique approfondie permet finalement un bien meilleur design de la politique, ce que ne permettait pas une randomisation isolée.

Conclusion : la dérive athéorique de l’économie du développement n’est pas sans conséquence. Les randomisations et techniques dérivées ne sont pas des « gold standards » de l’analyse empirique. Les effets estimés sont locaux, autrement dit on peut douter de la validité externe de ces évaluations et de fait de la généralisation des programmes. Ce sont des effets moyens qui ne permettent pas de contrôler l’hétérogénéité des individus, et surtout qui ne donnent aucune information sur la distribution des effets du traitement.  Ces limites ne sont pas sans conséquence sur la conception des politiques de développement et l’optimisation des moyens alloués.  Néanmoins, ces évaluations ont le mérite de démontrer qu’une politique de développement implique des effets locaux, moyens significatifs, justifiant l’approfondissement d’un programme en travaillant précisément sur les mécanismes de transmission. C’est ainsi que des politiques ont été abandonnées (planning familiaux en Indonésie), d’autres ont été poursuivis malgré des alternances politiques (Progresa)  et surtout d’autres programmes ont été améliorés par des politiques d’accompagnement (combinaison de deux programmes).

Elisa Dienesch

16 octobre 2015

Angus Deaton, Almost Ideal Nobel Prize


Source: The Economist
Angus Deaton a obtenu le Nobel cette année et il nous a semblé intéressant de confronter nos points de vue sur ce prix, en effet nous n'avons pas lu le même Deaton. J'ai surtout lu une partie de ses travaux sur la consommation et sur le bien-être, alors qu'Elisa a une connaissance plus approfondie de ses articles et ouvrages sur la pauvreté. On vous propose donc deux billets, dont voici le premier sur conso et bien-être, le prochain sera sur l'économie du développement (ici).

Micro de la conso

Lorsqu'on a un cours de micro un peu avancée à faire, le Deaton et Muellbauer (1980) est une référence incontournable. L'originalité de ce bouquin est de se focaliser sur la consommation, toutes les bases sont rappelées de la demande marshallienne à la demande hicksienne, avec une mise en perspective des travaux empiriques analysant la conso. L'ouvrage met ainsi en avant le travail de Deaton et Muellbauer (1980, AER) sur leur modèle d'Almost Ideal Demand System. Je ne vais pas rentrer dans les détails, mais je vous invite à lire le post de Dave Giles qui utilise R pour estimer les élasticités de la demande de différents biens en utilisant justement ce modèle. On peut ainsi voir comment le prix du vin est influencé par le prix des bières, analyser si le vin est un bien de luxe etc. Mais le gros intérêt du modèle, est qu'il permet d'estimer un système de demande en faisant sauter l'hypothèse de maximisation:

"if maximizing behavior is not assumed but it is simply held that demands are continuous functions of the budget and of prices, then the AIDS demand functions (8) (without the restrictions (11) and (12)) can still provide a first-order approximation". DM (AER, p. 315)

C'est la raison pour laquelle il est "almost ideal" ce système et c'est aussi la raison pour laquelle j'aurais espéré qu'il soit un peu célébré.
Je souhaite aussi insister sur le fait que ce modèle est toujours utile pour la recherche actuelle. Par exemple en éco inter, où les chercheurs ont énormément travaillé sur l'offre (Ricardo expliquait le commerce par les avantages en termes de coûts de production liés aux technologies, HOS en termes de dotation de facteur, Krugman, Brander en terme de concurrence imparfaite...), le côté demande a été négligé. La plupart du temps, les auteurs prennent une fonction d'utilité à élasticité de substitution constante (CES) et s'occupent d'améliorer l'offre (e.g. Melitz). A l'inverse avec un modèle AIDS, les élasticités de substitution peuvent être variables. Le commerce (ou son absence) s'explique ainsi de façon plus fine en prenant en compte un élément important des choix de conso des individus. Voir Feenstra (2003, 2009), Fèmènia et Gohin (2009) et Novy (2010) pour de telles extensions. De plus, que dire de l’homothétie des préférences d'une CES qui contraint les chercheurs a ne considérer que les biens normaux? Deaton (1992, p. 9) n'y va pas par 4 chemins:

"The supposition that there are neither luxuries nor necessities contradicts both common sense and more than an hundred years of empirical research" Deaton (1992, p. 9)

Cette phrase pourrait être une réponse au philosophe Michel Onfray qui n'a qu'un siècle de retard en confondant Angus Deaton et Ernst Engel (1821-1896):



C'est dommage, car les travaux de Deaton intéressent justement les philosophes qui se donnent la peine de les lire, car ils touchent à un domaine hautement philosophique: le bonheur.

Bien-être et enquêtes

Comment comparer la situation d'individus qui ont des préférences différentes. Dès 1979, Deaton propose une solution à cette question en définissant une fonction de distance monétaire à un référentiel qui serait le même pour tous. Il a ainsi participé à cette littérature sur le revenu équivalent qui après avoir été éclipsé des analyses de choix social, reprend une place importante depuis une dizaine d'années pour analyser le bien être des individus. Voir sur ce point l'ouvrage "Au delà du PIB" de Didier Blanchet et Marc Fleurbaey.

Passant de la théorie à la pratique, Deaton (2008) a été à la fois utilisateur et critique sur les travaux d'enquête qui vise à demander aux gens de mesurer leur niveau de bien-être (sur une échelle allant par exemple de 1 à 10). Il montre que le "bien-être" mesuré par ces enquêtes est corrélé au revenu mais pas à la santé (y compris lorsque des maladies graves telles que le SIDA sont prises en compte) et ce résultat lui semble (à juste titre de mon point de vue) très douteux, il en conclut:

"Neither life satisfaction nor health satisfaction can be taken as reliable indicators of population well-being, if only because neither adequately reflects objective conditions of health". 

Dans la même veine, Deaton (2011) étudiant les effets de la crise de 2008 sur le moral des américains note que le "bien-être" mesuré par ces enquêtes a tendance à diminuer lorsque cette question est précédée par une question de politique... Ceci montre la volatilité des réponses suivant le contexte dans lequel se place les agents lorsqu'ils répondent. Cela n'a rien de révolutionnaire (j'imagine avec horreur un nouvel Onfray basé sur mon texte) et représente simplement une illustration supplémentaire de connaissances que nous devons à la socio et à la psycho, mais il est rassurant de voir que le Nobel ait été décerné à un type qui, suffisamment intéressé par l'avis (et la vie) des gens, n'hésite pas à utiliser ces enquêtes pour en déceler les problèmes et en extraire l'analyse la plus juste possible.

Enfin Deaton plus que quiconque s'est posé la question de savoir comment comparer au niveau international la situation d'individus qui consomment des biens différents (voir Deaton (2010, AER) et Deaton et Heston (2010, AEJ)).

Deaton (2009) est aussi connu pour sa critique des "randomista" qui ont envahi la Banque Mondiale et l'ensemble des institutions travaillant sur le développement. De mon point de vue cette critique n'est rien par rapport à celles portées par les chefs de file de ce mouvement (voir notamment de nombreux écrits d'Esther Duflo), elle est simplement une indication que l'on peut aussi faire de l'économie du dev différemment, un peu à l'ancienne en estimant un modèle pour pouvoir ensuite faire des simulations (Elisa développera cette critique dans son prochain post ici).

Conclusion

Habituellement nous n'écrivons pas sur les nobels, la presse et d'autres blogs font ce boulot et dans l'ensemble c'est plutôt bien. Comme toujours nos blogs préférés ont été irréprochables. Deux heures après l'annonce du Nobel, A. Delaigue avait déjà fait le job, Martin Anota s'est mis à la traduction de la note technique du comité, le Captain' avait des super super réponses, Dave Giles faisait tourner R, Chris Blattman nous racontait quelques savoureuses anecdotes et Fine Theorem était plus que fine, com d'hab. Mais côté presse, nous avons été vraiment déçu. L'article le plus mauvais est venu du Figaro qui n'explique à aucun moment les travaux de Deaton... et puis c'est vraiment limité comme info, illustration (avec "homme blanc aux yeux bleus"):


S'il est incontestablement problématique que le portrait robot soit si facilement identifiable, on pourrait attendre d'un journal de qualité (?) qu'il soit moins caricatural et qu'il se pose des questions allant au delà du Nobel qui n'est que le reflet du passé de notre profession.
Il est effectivement désespérant que notre profession soit systématiquement tournée vers quelques grandes fac américaines et quelques grandes revues (américaines aussi), il est aussi fort dommageable que les individus élevés au rang de super-star soit souvent des hommes enseignants aux Etats-Unis, mais il y aussi une vie à côté de cette tendance dominante et je crois que les choses évoluent dans le bon sens (alors certes pas assez vite). Pour conclure on doit vous avouer que, toutes choses n'étant hélas pas égales par ailleurs, Angus Deaton est bien notre Almost Ideal lauréat.

Sans vergogne, piquons à A Delaigue son excellent disclamer:

et surenchérissons avec du Krugman:

"Oh, and cue the usual complaints that this isn’t a “real” Nobel. Hey, this is just a prize given by a bunch of Swedes, as opposed to the other prizes, which are given out by, um, bunches of Swedes."


F. Candau



Biblio (en vrac et non exhaustive, c'est un blog!)

  • Deaton A. 1979, The distance function in consumer behaviour with applications to index numbers and optimal taxation, Review of Economic Studies 46: 391—405.
  • Deaton, A. 1992. Understanding Consumption. New York: Oxford University Press.
  • Deaton A. 2008, Income, health, and well-being around the world: Evidence from the Gallup World Poll, Journal of Economic Perspectives 22: 53-72.
  • Deaton A. 2010, “Price indexes, inequality, and the measurement of world poverty, ”American Economic Review 100: 5–34.
  • Deaton A. 2011, “The fi…nancial crisis and the well-being of Americans,” Oxford Economic Papers.
  • Deaton A., A. Heston 2010, “Understanding PPPs and PPP-based National Accounts,”American Economic Journal: Macroeconomics 2: 1–35.
  • Deaton A., J. Muellbauer 1980, Economics and consumer behaviour, Cambridge.
  • Feenstra, R. 2003. A Homothetic Utility Function for Monopolistic Competition Models, Without Constant Price Elasticity, Economic Letters 78, 79-86.
  • Feenstra, R. 2009. Measuring the Gains from Trade under Monopolistic Competition, Presented as a "State of the Art" lecture to the Canadian Economics Association.
  • Féménia, F. Gohin,A. 2009. Estimating censored and non homothetic demand systems: the generalized maximum entropy approach, WP SMART - LERECO 200912, INRA UMR SMART
  • Novy, D. 2010.a, International Trade without CES: Estimating Translog Gravity, CESifo Working Paper

08 octobre 2015

Romer et Glaeser

Intéressante discussion sur les villes dans les pays en développement (et aussi développé, enfin surtout sur les USA) entre Paul Romer et Ed Glaeser. Romer, qui joue dans cet entretien le role d'interviewer (mais pas que) est connu pour ses travaux sur le rôle des innovations et des "idées" sur la croissance économique. Glaeser s'intéresse depuis plusieurs années aux caractéristiques et institutions des villes qui sont justement à la pointe des interactions entre individus stimulant la créativité et les innovations. La discussion a du mal à démarrer mais monte en puissance (et aborde de nombreux sujets d'économie urbaine dont la criminalité, la régulation (zoning, hauteur des immeubles), les inégalités urbaines, la mobilité etc), tenez jusqu'au bout!

27 août 2015

Pourquoi la Wallonie a besoin de Bruxelles (et vice-versa)?

Excellente vidéo de Jacques-François Thisse sur Bruxelles. En fait, seule la dernière partie est sur la capitale Belge, le début de la présentation est général et aborde des thèmes souvent développés sur ce blog comme l'importance de la distance dans les relations commerciales, la fragmentation de la chaîne de production ou encore l'importance économique des grandes villes et le tout est fait avec une très grande pédagogie. Le seul regret que l'on peut avoir, c'est qu'on ne voudrait pas que ça s'arrête, cette vidéo est décidemment trop courte pour ne pas être regardée.

10 juillet 2015

Fuite carbone et commerce


Le brouillard ?
Nous venons enfin de terminer la révision de notre article sur les havres de pollution et la corruption! Le message de notre article est simple, les normes environnementales en Europe ont entraîné des délocalisations de firmes polluantes vers des pays ou elles peuvent polluer plus librement (les havres de pollution). Prosaïquement, c'est l'observation des fuites de carbone de l'Europe. Ces délocalisations se sont de plus dirigées vers les pays où la corruption permettait d'influencer les normes environnementales (c'est ce qu'on appelle les paradis de la corruption).
Pour un économiste lambda, il n'y a là rien de révolutionnaire, les firmes maximisent leurs profits en se délocalisant, point barre. Pour un économiste en économie internationale, il y a cependant un résultat contrariant: nous montrons que les délocalisations sont d'autant plus fortes que les pays sont fortement intégrés commercialement. De là à supposer que l'intégration en favorisant les délocalisations des firmes polluantes, augmente les pollutions il n'y a qu'un pas. Or, cela ne cadre pas avec les théories d'économie internationale qui rejettent cet argument et affirment que l'ouverture est bénéfique pour l'environnement (nous en avions fait un post détaillé ici il y a déjà 2 ans qui est toujours d'actualité). La remarquable étude de  De Sousa, Hering et Poncet qui est sortie hier confirme ce résultat pour les émissions de SO2 en Chine.
Ce résultat est-il en opposition avec le notre? Pas vraiment, les auteurs montrent même que ce sont justement les IDE qui ont permis de diminuer les émissions de SO2 en Chine. Le fait que ces firmes aient des technologies plus avancées, expliquent en partie ces progrès. En caricaturant un peu on pourrait dire que nous présentons deux facettes d'un même phénomène, nous montrons que les firmes polluantes quittent l'Europe pour des pays où elles peuvent polluer plus ou moins librement (dont la Chine) et De Sousa et al. montrent que ces firmes multinationales polluantes sont moins polluantes que les locales, ce qui est loin d'être un exploit compte tenu des techniques de production dans ces pays...
La question qui reste ouverte est contre-factuelle, si ces firmes étaient restées en Europe où elles auraient encore moins polluées du fait des normes plus restrictives, comment aurait évolué les pollutions? Les échanges (polluants) Chine-Europe auraient-ils été aussi importants? On peut penser que les choses auraient-été bien pires... ou pas... faîtes tourner les modèles, tout dépendra de vos hypothèses et en particulier de la substituabilité entre capital et flux commerciaux. Anderson (2005) est limpide sur ce point lorsqu'il critique le modèle HOS utilisé par Copeland et Taylor:

"The Copeland and Taylor model is one in which capital fl ows and trade fl ows are substitutes, although there are respectable models in which the two are complements. In a world of complementarity, Green pessimism may well be more warranted. If FDI fl ows to take advantage of lower abatement cost, and if FDI is stimulated by trade liberalization, the factor proportions model mechanism that locates polluting industries in the rich North is reversed "

Dans notre article nous utilisons justement ce type de modèle alternatif et respectable à bien des égards (basé sur Fujita et Thisse, 2006). A partir du moment où les agents ont une préférence pour la diversité, il y a tout lieu de penser que l'intégration commerciale entraînera un afflux toujours plus massif de cadeaux "Made in ..." sous le sapin de noël pour peu qu'ils soient produits sous rendements croissants dans des pays aux normes environnementales et sociales plus basses.

Mais il y a une raison encore plus fondamentale qui explique pourquoi le commerce international peut être néfaste en terme de pollution: les transports. Aucune, je dis bien AUCUNE des études qui affirment benoîtement que le commerce a un effet favorable sur l'environnement ne prennent en compte la pollution liée aux transports. Quel est l'impact de l'intensification des échanges en termes de pollution si on prend en compte les différents modes de transport? La question est ardue, elle nécessite un immense effort d'analyse de données et un bon paquet d'hypothèses. En économie internationale, depuis déjà pas mal d'années lorsqu'un tel défi se présente, il faut se tourner vers David Hummels. Voici donc une partie de l'abstract du seul papier qui prend en compte les transports:

"We collect extensive data on worldwide trade by transportation mode and use this to provide detailed comparisons of the greenhouse gas emissions associated with output versus international transportation of traded goods. International transport is responsible for 33 percent of world-wide trade-related emissions, and over 75 percent of emissions for major manufacturing categories."

Ooooh waiiit, 75%!!! et les transports sont omis de toutes les équations expliquant les émissions par les secteurs industriels, ça craint! Lisez l'article, vous verrez que les auteurs sont prudents, mais qu'ils sont tout de même inquiets sur les échanges longue distance (style USA-Chine).

Pour conclure, merci à tous ceux qui ont discuté (S Bertoli, A Bouët, P-Ph Combes, M Crozet, J de Sousa, C Gaigné, M Goujon, J Le Cacheux, S Rey, F Robert-Nicoud, F-C Wolff)
et téléchargé (notamment la trentaine d'anonymes d'hier) ou encore RT/FAV (adelaigue, annenat, martin_anota, remibaz, robertJRElliott, tradediversion, xmolenat) notre Pollution Haven and Corruption Paradise, cet article représente de longs mois d'effort à viser l'excellence, à lutter contre nous même pour en sortir le meilleur (thèse d'Elisa + mon HDR) donc plus il sera lu et moins nous aurons la sensation d'un effort vain. Les fuites carbone dans les havres de pollution aux institutions douteuses ne sont pas une curiosité théorique, elles sont bien réelles, nous les avons clairement identifiées sur notre échantillon.

Lisez aussi l'article de De Sousa, Hering et Poncet, le titre "Has trade openness reduced pollution in China?" est une poupée russe vous invitant à la lecture, leur propos ne concernent pas toutes les pollutions, mais uniquement le SO2, ce qui rend leur résultat beaucoup moins discutable que pour les autres pollutions et au vue de leur rigueur sans aucun doute vérifié.

03 juillet 2015

Trois débats interdits

Séphane Ménia, le mister Hyde du docteur Jekyll, vient d'écrire un bouquin sur des débats qu'il est temps de sortir de l'ombre: le chômage, la désindustrialisation et la dette. Sortir de l'ombre?! Oui. Même s'il existe de nombreux ouvrages et articles sur ces sujets, rares sont ceux qui sont clairs et précis. Le débat est en quelque sorte interdit par la partialité des analyses. Ici tout est bien documenté, discuté et pédagogiquement présenté.
Le décor est d'abord soigneusement planté, chaque chapitre débute par des faits; plusieurs faits, ici un graphique qui intéressera tous les étudiants.


Puis les dialogues s'installent, toutes les questions que vous vous posez sur ces sujets sont passées en revue: Les jeunes sont ils maltraités en France? et les vieux? Qu'est-ce qui détermine l'emploi? Quel est l'impact du SMIC? Faut-il réduire les charges sociales? Faut-il réduire le temps de travail? Quel est l'impact d'une augmentation de la population active (démographie, immigration)? Faut-il fliquer les chômeurs? et la formation? Faut-il un contrat de travail unique? etc....

Patiemment, pour chaque question, l'auteur explique, cite, renvoie à des travaux de recherche (lien hypertexte à votre service à l'appui). Jamais dogmatique, il cherche à être le plus juste possible sur ce sujet important, sans doute le plus important de l'analyse économique.

Le chapitre suivant est celui qui m'a le plus plu, il analyse la désindustrialisation. Lorsqu'une usine ferme, c'est douloureux et visible, souvent des centaines d'emplois disparaissent, aussi les médias et les politiques, K.O. et légitimement compatissant, ont renoncé à la réflexion de long terme, celle consistant à analyser les emplois crées après et ailleurs. Aussi c'est un grand plaisir de voir Stéphane Ménia relever le gant et lancer ce débat. Pour tous ceux qui pensent, un peu vite, que tous les emplois perdus par les délocalisations seraient strictement regagnés par les relocalisations, extrait:

"Quand une usine se relocalise en France, un matériel neuf est installé et la relocalisation occasionne une automatisation supérieure [...] nécessitant moins de main d'œuvre. En termes d'emplois estimés, ce sont plus de 25000 emplois qui sont perdus du fait des délocalisations, pour seulement un millier qui sont gagnés grâce aux relocalisations. Soit un ratio de 25 pour 1"

Le chapitre sur la dette est une récidive (déjà débattue sur un ton plus léger dans un précédent ouvrage) mais depuis la situation a changé et l'analyse a gagné en maturité. La dette n'est plus un faux problème en France (et encore moins en Europe), elle a entraîné l'austérité des années qui viennent de s'écouler... aussi est-il vital pour notre démocratie de comprendre si les efforts demandés ont été basés sur une pensée erronée, ayant pour point focal une soutenabilité fictive de la dette, une frayeur injustifiée de la faillite de l'Etat, ou si au contraire on peut se féliciter de la perspicacité et du courage de nos politiques, tous bords confondus...

Pour conclure, sur le blog du taulier, à l'entrée, en haut à droite on peut lire "depuis 1999", on a du mal à y croire. Ce gars là, était non seulement sur le fil de l'éco avant même que la toile soit tissée, mais en plus, il n'a jamais cessé de poster du contenu gratuit et aujourd'hui, fidèle à ce principe, il sort un bouquin à 2,99 €. L'esprit du web est là, saluons le, à vous de twitter, bloguer et relayer! L'objectif est noble: rendre accessible au plus grand nombre une analyse économique de qualité.