07 avril 2014

Désinflation = Chômage

Le graphique du jour (France métro pour ne pas exagérer encore plus la relation en ajoutant les DOM) avec en ordonné les prix à la conso et en abscisse le chômage:

A vous de discuter du sens de causalité et de relancer le débat sur la courbe de Phillips!
---Quelque temps plus tard....
Bon, cela fait désormais quelques jours que le graphique est en ligne, le post a été visionné une centaine de fois et personne pour commenter que la courbe de Phillips concerne l'inflation des salaires nominaux et non des prix. Diantre, soyez attentif à vos cours de macro!
La belle affaire, est-ce important? Oui, car les salaires ont tendance à être beaucoup plus rigides que les prix. En glissement annuel ils ont même augmenté de 2% sur les derniers trimestres de 2013 (ICT-salaire seul de l'INSEE). Le FMI a récemment présenté un graphique qui illustre que même dans un pays comme l'Espagne durement frappé par le chômage, les salaires sont très rigides à la baisse. Le passage de 2008 (en bleu) à 2012 (rouge) montre que l'augmentation a baissé mais qu'une faible portion de la distribution des salaires est passée en négatif, en fait une très grande concentration est observée à zéro, les salaires stagnent.

Or si les salaires stagnent et que les prix diminuent (où augmentent moins dans le cas de désinflation) alors les profits sont affectés et l'ajustement s'opère par l'emploi. C'est le pire des cercles vicieux lié à la déflation car plus de chômage, c'est moins de demande et moins de demande c'est une baisse des prix et une baisse des prix c'est plus de chômage... En clair, le graphique précédent "inflation (HIPC)/chômage" est vraiment important car si la déflation s'installe, la pente négative pourrait s'avérer bien difficile à relever.

05 avril 2014

La BCE dans une trappe d'inactivité

Résumons, on approche des européennes, la zone euro est au bord de la déflation et la BCE ne fait rien. C'est sans surprise. La BCE ne dépend pas des citoyens, elle est indépendante des gouvernements et des peuples qu'ils représentent...mais alors, elle roule pour qui exactement?

Janet Yellen, dans un discours du 31 mars (retranscrit en partie ci-dessous, version complète ici), écrit que la FED ne travaille pas pour Wall-Street mais pour Main-Street. L'inverse est-il vrai pour la BCE? Non, mais l’obsession de la BCE contre une inflation fantôme peut laisser perplexe.

Dans les missions de la FED il y a deux objectifs: l'inflation ET l'emploi. A l'inverse, traumatisée par l'inflation, l'Europe a construit la BCE avec une mission unique: la stabilité des prix. L'objectif est d'atteindre un taux de 2% d'inflation sur le moyen terme. Ce n'est donc pas l'inflation immédiate, mais celle que l'on estime qui compte, or l'inflation sur le moyen terme est à 2%, donc circulez, il n'y a rien à voir, la BCE remplira sa mission ce mois-ci en ne faisant rien. Que peut-on en penser?

Si l'UE se situe dans une trappe à liquidité, alors peu importe, les agents ont peur de l'avenir, vous pourriez imprimer des billets et les mettre directement dans les poches des gens... ils y resteraient! Les banques, les investisseurs, les consommateurs sont figés dans leur comportements économiques, ils ne prêtent plus, n'investissent plus et ne consomment plus. Plus de liquidité, ne relancera pas l'économie (la BCE parle d'une injection dans les banques ce qui est le plus facilement réalisable pour l'instant mais des politiques non conventionnelles comme celles employées par d'autres banques centrales pourraient permettre de directement prêter aux entreprises et aux ménages).

La BCE pourrait cependant jouer davantage sur les anticipations d'inflation en affichant une vraie volonté de lutter contre la déflation/dépression à laquelle l'Europe fait face. Une telle politique de forward guidance permettrait de réduire (faiblement) le taux réel et d'aider (mollement) l'activité. C'est le genre de politique basée sur des postures qui ne rapporte pas grand chose mais qui ne coûte rien. La BCE pense sans doute avoir fait un pas dans cette direction en affirmant que ses membres étaient prêts, à l'unanimité, à valider des mesures non-conventionnelles. Mais quasiment dans la même phrase, Mario Draghi annonçait que pour l'instant il n'en était pas question.

Décidément, la BCE semble être dans une trappe d'inactivité elle aussi, elle ne veut pas agir, et même parler clairement en faveur d'une politique monétaire expansionniste lui est difficile. Les règles/objectifs de la BCE devraient être revues.

En comparaison, voici le derniers discours de J. Yellen, un discours volontaire sur les politiques à mener dans le futur et quasi-glorieux sur celles du passé. Contraste frappant avec la présentation hésitante de Draghi.

The past six years have been difficult for many Americans, but the hardships faced by some have shattered lives and families. Too many people know firsthand how devastating it is to lose a job at which you had succeeded and be unable to find another; to run through your savings and even lose your home, as months and sometimes years pass trying to find work; to feel your marriage and other relationships strained and broken by financial difficulties. And yet many of those who have suffered the most find the will to keep trying. I will introduce you to three of these brave men and women, your neighbors here in the great city of Chicago. These individuals have benefited from just the kind of help from community groups that I highlighted a moment ago, and they recently shared their personal stories with me.

It might seem obvious, but the second thing that is needed to help people find jobs...is jobs. No amount of training will be enough if there are not enough jobs to fill. I have mentioned some of the things the Fed does to help communities, but the most important thing we do is to use monetary policy to promote a stronger economy. The Federal Reserve has taken extraordinary steps since the onset of the financial crisis to spur economic activity and create jobs, and I will explain why I believe those efforts are still needed.
The Fed provides this help by influencing interest rates. Although we work through financial markets, our goal is to help Main Street, not Wall Street. By keeping interest rates low, we are trying to make homes more affordable and revive the housing market. We are trying to make it cheaper for businesses to build, expand, and hire. We are trying to lower the costs of buying a car that can carry a worker to a new job and kids to school, and our policies are also spurring the revival of the auto industry. We are trying to help families afford things they need so that greater spending can drive job creation and even more spending, thereby strengthening the recovery.

When the Federal Reserve's policies are effective, they improve the welfare of everyone who benefits from a stronger economy, most of all those who have been hit hardest by the recession and the slow recovery.

Now let me offer my view of the state of the recovery, with particular attention to the labor market and conditions faced by workers. Nationwide, and in Chicago, the economy and the labor market have strengthened considerably from the depths of the Great Recession. Since the unemployment rate peaked at 10 percent in October 2009, the economy has added more than 7-1/2 million jobs and the unemployment rate has fallen more than 3 percentage points to 6.7 percent. That progress has been gradual but remarkably steady--February was the 41st consecutive month of payroll growth, one of the longest stretches ever. ...

But while there has been steady progress, there is also no doubt that the economy and the job market are not back to normal health. ...

The recovery still feels like a recession to many Americans, and it also looks that way in some economic statistics. At 6.7 percent, the national unemployment rate is still higher than it ever got during the 2001 recession. ... It certainly feels like a recession to many younger workers, to older workers who lost long-term jobs, and to African Americans, who are facing a job market today that is nearly as tough as it was during the two downturns that preceded the Great Recession.

In some ways, the job market is tougher now than in any recession. The numbers of people who have been trying to find work for more than six months or more than a year are much higher today than they ever were since records began decades ago. We know that the long-term unemployed face big challenges. Research shows employers are less willing to hire the long-term unemployed and often prefer other job candidates with less or even no relevant experience.

[...]
And based on the evidence available, it is clear to me that the U.S. economy is still considerably short of the two goals assigned to the Federal Reserve by the Congress. The first of those goals is maximum sustainable employment, the highest level of employment that can be sustained while maintaining a stable inflation rate. Most of my colleagues on the Federal Open Market Committee and I estimate that the unemployment rate consistent with maximum sustainable employment is now between 5.2 percent and 5.6 percent, well below the 6.7 percent rate in February.

The other goal assigned by the Congress is stable prices, which means keeping inflation under control. In the past, there have been times when these two goals conflicted--fighting inflation often requires actions that slow the economy and raise the unemployment rate. But that is not a dilemma now, because inflation is well below 2 percent, the Fed's longer-term goal.

The Federal Reserve takes its inflation goal very seriously. One reason why I believe it is appropriate for the Federal Reserve to continue to provide substantial help to the labor market, without adding to the risks of inflation, is because of the evidence I see that there remains considerable slack in the economy and the labor market. Let me explain what I mean by that word "slack" and why it is so important.

Slack means that there are significantly more people willing and capable of filling a job than there are jobs for them to fill. During a period of little or no slack, there still may be vacant jobs and people who want to work, but a large share of those willing to work lack the skills or are otherwise not well suited for the jobs that are available. ...

But a lack of jobs is the heart of the problem when unemployment is caused by slack, which we also call "cyclical unemployment." The government has the tools to address cyclical unemployment. Monetary policy is one such tool, and the Federal Reserve has been actively using it to strengthen the recovery and create jobs, which brings me to why the amount of slack is so important.

If unemployment were mostly structural, if workers were unable to perform the jobs available, then the Federal Reserve's efforts to create jobs would not be very effective. Worse than that, without slack in the labor market, the economic stimulus from the Fed could put attaining our inflation goal at risk. In fact, judging how much slack there is in the labor market is one of the most important questions that my Federal Reserve colleagues and I consider when making monetary policy decisions, because our inflation goal is no less important than the goal of maximum employment.

[...]


One form of evidence for slack is found in other labor market data, beyond the unemployment rate or payrolls, some of which I have touched on already. For example, the seven million people who are working part time but would like a full-time job. This number is much larger than we would expect at 6.7 percent unemployment, based on past experience, and the existence of such a large pool of "partly unemployed" workers is a sign that labor conditions are worse than indicated by the unemployment rate. Statistics on job turnover also point to considerable slack in the labor market. Although firms are now laying off fewer workers, they have been reluctant to increase the pace of hiring. Likewise, the number of people who voluntarily quit their jobs is noticeably below levels before the recession; that is an indicator that people are reluctant to risk leaving their jobs because they worry that it will be hard to find another. It is also a sign that firms may not be recruiting very aggressively to hire workers away from their competitors.

A second form of evidence for slack is that the decline in unemployment has not helped raise wages for workers as in past recoveries. Workers in a slack market have little leverage to demand raises. Labor compensation has increased an average of only a little more than 2 percent per year since the recession, which is very low by historical standards. Wage growth for most workers was modest for a couple of decades before the recession due to globalization and other factors beyond the level of economic activity, and those forces are undoubtedly still relevant. But labor market slack has also surely been a factor in holding down compensation. The low rate of wage growth is, to me, another sign that the Fed's job is not yet done.

A third form of evidence related to slack concerns the characteristics of the extraordinarily large share of the unemployed who have been out of work for six months or more. These workers find it exceptionally hard to find steady, regular work, and they appear to be at a severe competitive disadvantage when trying to find a job. The concern is that the long-term unemployed may remain on the sidelines, ultimately dropping out of the workforce. But the data suggest that the long-term unemployed look basically the same as other unemployed people in terms of their occupations, educational attainment, and other characteristics. And, although they find jobs with lower frequency than the short-term jobless do, the rate at which job seekers are finding jobs has only marginally improved for both groups. That is, we have not yet seen clear indications that the short-term unemployed are finding it increasingly easier to find work relative to the long-term unemployed. This fact gives me hope that a significant share of the long-term unemployed will ultimately benefit from a stronger labor market.

A final piece of evidence of slack in the labor market has been the behavior of the participation rate--the proportion of working-age adults that hold or are seeking jobs. Participation falls in a slack job market when people who want a job give up trying to find one. When the recession began, 66 percent of the working-age population was part of the labor force. Participation dropped, as it normally does in a recession, but then kept dropping in the recovery. It now stands at 63 percent, the same level as in 1978, when a much smaller share of women were in the workforce. Lower participation could mean that the 6.7 percent unemployment rate is overstating the progress in the labor market.

One factor lowering participation is the aging of the population, which means that an increasing share of the population is retired. If demographics were the only or overwhelming reason for falling participation, then declining participation would not be a sign of labor market slack. But some "retirements" are not voluntary, and some of these workers may rejoin the labor force in a stronger economy. Participation rates have been falling broadly for workers of different ages, including many in the prime of their working lives. Based on the evidence, my own view is that a significant amount of the decline in participation during the recovery is due to slack, another sign that help from the Fed can still be effective.

Since late 2008, the Fed has taken extraordinary steps to revive the economy. At the height of the crisis, we provided liquidity to help avert a collapse of the financial system, which enabled banks and other institutions to continue to provide credit to people and businesses depending on it. We cut short-term interest rates as low as they can go and indicated that we would keep them low for as long as necessary to support a stronger economic recovery. And we have been purchasing large quantities of longer-term securities in order to put additional downward pressure on longer-term interest rates--the rates that matter to people shopping for a new car, looking to buy or renovate a home, or expand a business. There is little doubt that without these actions, the recession and slow recovery would have been far worse.

These different measures have the same goal--to encourage consumers to spend and businesses to invest, to promote a recovery in the housing market, and to put more people to work. Together they represent an unprecedentedly large and sustained commitment by the Fed to do what is necessary to help our nation recover from the Great Recession. For the many reasons I have noted today, I think this extraordinary commitment is still needed and will be for some time, and I believe that view is widely shared by my fellow policymakers at the Fed.
...

Pour le côté "faucon" de la dame (auquel je ne crois guère) voir ici et pour une vision plus optimiste du QE de la BCE voir .
Enfin ce graphique (source ici) montre le bilan des deux banques.

24 mars 2014

Le match France versus Royaume-Uni

Tiens la blogosphère française s'agite sur un "match économique France versus Royaume-Uni" suite à ce graphique de Xavier Timbeau sur les répercussions de la crise sur la productivité des deux côtés de la Manche.

La France s'en sort donc bien mieux!!! Olivier Bouba-Olga surenchérit à juste titre avec un graphique sur l'emploi, mais lorsqu'un lecteur attentif au graphique des PIB par tête dont l'année de base est 2008 fait la remarque "on prouvera tout avec la bonne date de départ" il répond sereinement "je vous laisse essayer [...] Vous pourriez isoler des petits intervalles pour lesquelles la dynamique UK est plus favorable, mais sur les vingt dernières années, et depuis le début de la crise, il n’y a pas photo".

Ce propos me donne l'occasion de discuter d'un thème qui me tient à coeur portant justement sur l'importance de la référence que l'on choisit. J'utilise les données de la banque mondiale pour les pib par tête (en dollars) que j'ai sous la main.

Prenons l'année 1998, cela a du sens pour de multiples raisons, primo c'est une période où la construction européenne avance à grand pas. Pour certains français c'est un peu une période bénie où ils avaient du franc dans leur porte-monnaie et où la France blanc-black-beur allait bien... Pour la City, c'est aussi un point de référence important, la crise asiatique débouche sur un retour des capitaux et la construction européenne va lui permettre de retrouver son lustre d'antan. Bref, ce point de référence est justifiable (mais tout aussi critiquable, j'y reviendrai).
On observe alors que jusqu'à la crise de 2008 la productivité par tête des anglais a progressé bien plus rapidement que celle des français. Puis la finance s'est écroulée, le Royaume-Uni plus spécialisé sur ce secteur en a payé le prix fort.* Peut-on en conclure que le match a été gagné par la France?
Prenons l'année 1974, c'est l'année du choc pétrolier et aussi une année particulièrement mauvaise pour l'Angleterre (par rapport à la France). Là encore, si l'on accepte de prendre 2008, on ne peut qu'admettre que 74 est une bonne date. C'est à partir de cette date que le chômage devient massif et que les économies développées s'enlisent dans des taux de croissance faibles associés à un long processus de désindutrialisation et de tertiarisation de l'économie.
Le graphique est alors étonnant, la productivité anglaise si l'on choisit cette base a totalement dominé la France sur toute la période! Le schéma économique anglais est-il donc le bon? Non, pas plus que précédemment pour la France. Vous l'aurez compris, l'année de référence pèse énormément sur nos conclusions.
Prenons l'année 1960, au milieu des trente glorieuses, période mythique avec des taux de croissance important et pas de chômage. Nos grand-parents à n'en pas douter considéreraient que c'est une sacré référence. C'était cependant une période où le PIB par tête était bien plus faible à ce que l'on connait aujourd'hui, la référence (i.e. le dénominateur) pèse donc beaucoup moins que pour les années 1974, 1998, 2008. Qu'observe t-on?
Pour moi ici le tableau d'affichage du match nous donne France: 3 - UK: 3, pour trois révolutions économiques partout.
La productivité dépend avant tout des avancées technologiques et depuis déjà bien longtemps les deux pays sont grossièrement au même niveau. Si le Royaume-Uni a été le chef de file en Europe des innovations financières qui lui ont permis d'élever légèrement son PIB par tête au dessus de celui de la France, aujourd'hui où disons depuis que ces innovations ont été dépréciées, le pays est à peu près au même niveau. Légèrement en dessous si vous y tenez, mais la différence en terme de productivité, aujourd'hui comme hier, est mineure.

Je pense que les auteurs cités plus haut seront tous les deux d'accord avec moi pour dire que le match se joue ailleurs. Pour réellement arbitrer les performances économiques, il faudrait aller bien au delà du pib par tête et regarder le bien-être économique des citoyens, c'est à dire comparer le taux de chômage, les inégalités, le système de santé, les situations familiales, les liens sociaux... Ce travail consiste aussi à se donner une référence, mais pas une année de référence (comme ci-dessus, on peut faire mieux) mais plutôt un idéal économique en référence. Si par exemple en posant la question aux anglais et aux français de savoir combien de revenu ils seraient prêt à céder pour avoir moins d'inégalités et atteindre un "idéal" (disons le taux d'égalité du Luxembourg ou de la Norvège... je donne simplement ces exemples pour donner du concret, mais la question de la référence est totalement ouverte) quel serait le score du match? Idem si on leur posait la question en terme de santé, de risque de chômage etc...

Hélas aucun sondeur ne fera un tel boulot et c'est bien dommage car c'est ce genre d'expérience qui permet de savoir du point de vue des citoyens quel est le pays qui gagne! Ceci dit, le runmycode de Gaulier et Fleurbaey (2009) nous permet de jouer avec ces notions. Pour un même taux d'aversion pour l'inégalité (j'ai utilisé la version démo avec 0.8), les anglais seraient prêts à débourser beaucoup plus que les français, le revenu équivalent (i.e. le revenu une fois corrigée de cette somme) serait donc très proche pour l'année 2004 qui est pourtant une année où le match semblait être gagné par le Royaume-Uni!
En clair, les différences les plus importantes ne sont sans doute pas sur la production mais sur d'autres variables (chômage, insécurité etc) qui hélas sont à leur plus haut dans les deux pays mais avec une situation certainement encore plus catastrophique pour les anglais. Inutile de s'énerver exclusivement sur les PIB et sur une année donnée, il est temps de réaliser de nouvelles comparaisons (qui incluront ces PIB tout en les corrigeant) et qui permettront de mieux mesurer les points faibles et les points forts de chaque économie.

F. Candau

*Note de bas de post: 
*J'ai longtemps été géné pour dire que les fluctuations d'un secteur pouvait expliquer de grandes fluctuations pour un grand pays, mais depuis l'excellent papier de Gabaix j'ose davantage, il montre les variations du PIB américain ne dépendent pas d'une somme immense de petit agents mais simplement d'une centaine de grosse firmes (article à méditer pour un quelconque passage micro-macro en termes de fluctuation).
**Evitez de me commenter une merveilleuse inversion de tendance du pib en Angleterre, je n'y crois pas non plus et j'ai déjà marqué un certain scepticisme ici avec d'ailleurs un graph qui ressemblait fort à celui de Timbeau mais pour un match UK/USA

Références

  • Gabaix, Xavier (2011). “The Granular Origins of Aggregate Fluctuations,”Econometrica, 79(3), 733-772.
  • Gaulier Guillaume et Marc Fleurbaey (2009). International Comparisons of Living Standards by Equivalent Incomes. The Scandinavian Journal of Economics


17 février 2014

Economie numérique, le bouquin à lire, le blog à suivre

Une fois n'est pas coutume me voilà en situation de vous faire la recension d'un ouvrage dont je connais bien l'un des auteurs, Sylvain Dejean (on a fait notre thèse en même temps) qui a coécrit avec Godefroy Dang Nguyen: "Le Numérique, Economie du partage et des transactions" publié chez Economica.
Ladej (son pseudo Twitter donné par un pote rappeur qui coupait la fin des noms et rajoutait "la" au début), passionné par l'économie numérique, a réalisé une thèse sur les biens culturels, le piratage et l'émergence des communautés virtuelles. Puis, il a décroché un post-doc à Rennes avant d'intégrer l'un des labos de référence en France sur les technologies de l'information et de la communication (ici). Aujourd'hui, il est maître de conférences à La Rochelle et compte bien dynamiser ses cours en bloguant sur l'économie numérique (le blog du bouquin est ici).

Le chapitre 1 définit les termes du débat, le numérique est une économie de l'information et de la connaissance, où les biens produits ont les caractéristiques de biens publics et où les monopoles ont tendance à naître compte tenu des coûts fixes importants. Les auteurs mettent ensuite en avant l'importance de cette économie de la connaissance pour la croissance économique. De mon point de vue ce chapitre n'est pas le plus réussi, c'est un peu le bazar, certains éléments auraient pu faire l'objet de chapitres séparés (typiquement le lien connaissance/croissance), bref, le meilleur est à venir.

Le chapitre 2 traite des réseaux, il est passionnant, mêlant analyse économique et sociologique. Après avoir défini les effets réseaux, les auteurs partent des éléments constitutifs: les liens forts et faibles entre agents (pour reprendre les termes de Putnam (2001) le bridging et le bonding), pour ensuite analyser la structure des réseaux (les hubs, les cliques, trous structuraux, la théorie des graphes etc). Il y a dans ce chapitre des phrases qui donnent envie de se lancer dans la recherche en analyse structurale des réseaux, qui je cite, "a pour objet de comprendre comment les individus établissent leurs réseaux de relation et, ce faisant, créent ou font évoluer des structures sociales qui contraignent à leur tour leur comportement futur".

Le chapitre 3 est essentiel, il traite du système technique d'internet. L'architecture du net y est précisément décrite, son découpage horizontal avec un contrôle par les extrémités permet d'expliquer le caractère inédit d'internet et les effets réseaux qu'il a crée. Le chapitre conclut avec l'apparition des plateformes mises en place par les membres de la GAFAM (Google, Amazon, Facebook, Apple, Microsoft) qui ont tendance à verticaliser le net et mettent ainsi à mal le vecteur d'innovation passé (avec un impact non négligeable sur la neutralité du net).

Le chapitre 4 analyse la société numérique. Quelles sont les motivations des contributeurs du net? De purs égoïstes narcissiques, de purs altruistes? Les auteurs illustrent la diversité des agents qui évoluent sur le net, et montrent comment les communautés virtuelles s'organisent pour contraindre les égoïstes qui ont souvent des comportements de passager clandestin délétère pour le bien commun. La sanction est l'arme nécessaire qui permet aux "restituteurs forts" de dompter les comportements opportunistes et de forger l'économie du partage. Les travaux d'une Nobel, E. Ostrom, y sont présentés ainsi que les questions shakespeariennes de l'identité numérique.

Le chapitre 5 étudie l'organisation des marchés sur le net. On passe donc du côté de l'offre, du e-commerce et des chaînes de valeur avant d'aborder la fixation des prix. Les mécanismes d'enchère y sont présentés ainsi que le rôle des plateformes.

Le chapitre 6 découle naturellement du précédent, il porte sur les institutions d'Internet et détaille entre autres, les caractéristiques de l'ICANN et son contrôle des noms de domaines (du moins des TLD, i.e. ".com", ".fr" etc). Puisqu'il est question de gouvernance, la neutralité du net refait surface en fin de chapitre.

Le chapitre 7 est ambitieux: lier l'économie géographique à l'économie numérique. Le mariage est possible mais la chose n'est pas aisée, passer de l'ICANN à Krugman (1991) est un peu rude. Pourtant dans le fond, c'est passer de la description du net à ses conséquences sur les choix de localisation. Je tente l'expérience (attention auto-promo): les bons modèles d'éco géo (Candau, 2011; voir aussi Candau, 2008 pour un survey) montrent que la baisse des coûts aux échanges (la révolution des transports, des TIC etc) entraîne une dispersion des activités. En effet pourquoi s'agglomérer dans des lieux où les prix du foncier sont exorbitants (Paris) si vous pouvez avoir accès à toutes les technologies, à l'information et à la demande à partir de lieux où votre pouvoir d'achat est plus grand (Rennes)? C'est la raison pour laquelle depuis plus de 50 ans la France concentre de moins en moins d'activités au niveau national. C'est aussi la thèse de Combes, Lafourcade, Thisse et Toutain (2011) qui montrent que l'image d’Épinal de Paris et du désert français n'est plus d'actualité. En fait, le pic d'agglomération des activités remonte aux années 30, depuis c'est la dispersion! Mais si les activités sont de moins en moins concentrées à l'échelle des nations (ce phénomène est vrai en Europe et aussi aux USA), elles sont par contre de plus en plus concentrées au niveau des régions. Aujourd'hui on pourrait facilement parler de Toulouse et de son désert régional par exemple. Cette distinction dispersion/agglomération au niveau nation/région est vraiment importante pour comprendre à quelle échelle ont lieux les interactions spatiales.

Se pose alors la question des clusters au sein des métropoles et les auteurs présentent l'emblématique Silicon Valley. Rajoutons un chaînon à la discussion qui aborde les travaux de Saxenian, auteur incontesté et passionnant sur ce sujet. Il me semble qu'un intérêt central de l'oeuvre de Saxenian (1999) est de montrer l'important apport de l'immigration dans la success story de la Valley. Près de 40% des entrepreneurs étaient asiatiques. Leurs atouts étaient d'avoir à la fois un pied en Asie et d'être intégré à la communauté high-tech américaine. Si tant de clusters ont échoué ailleurs dans le monde, c'est justement parce que ce fait n'a pas été suffisamment observé. Voici ce qu'en dit Saxenian:

"The traditional image of the immigrant economy is the isolated Chinatown or “ethnic enclave” with limited ties to the outside economy. Silicon Valley’s new immigrant entrepreneurs, by contrast, are increasingly building professional and social networks that span national boundaries and facilitate flows of capital, skill, and technology. In so doing, they are creating transnational communities that provide the shared information, contacts, and trust that allow local producers to participate in an increasingly global economy".

Le liens entre les réseaux ethniques des migrants et le réseau américain est encore plus clair dans ce passage:

"Many Chinese and Indian immigrants socialize primarily within the ethnic networks, but they routinely work with native engineers and native-run businesses. In fact, there is growing recognition within these communities that although a start-up might be spawned with the support of the ethnic networks, it needs to become part of the mainstream to grow. It appears that the most successful immigrant entrepreneurs in Silicon Valley today are those who have drawn on ethnic resources while simultaneously integrating into mainstream technology and business networks"

Le lieu des clusters n'a intrinsèquement aucune importance, ce qui compte c'est la connexion au reste du monde, aux autres réseaux. Ce qu'il y a de passionnant dans cette histoire, c'est que les mécanismes de coopération et de sanction que Sylvain et Geodefroy mettent en avant dans l'économie numérique étaient au cœur des associations chinoises et indiennes au sein de la Silicon. Voici typiquement les propos d'entrepreneurs interviewés par Saxenian (1999):

“Doing business is about building relationships, it’s people betting on people, so you still want to trust the people you’re dealing with. A lot of trust is developed through friendship and professional networks like school alumni [...] if you don’t fulfill your obligations, you could be an outcast . . . the pressure of, hey, you better not do this because I’m going to see you at the temple or sitting around the same coffee table at the TiE meeting . . . and I know another five guys that you have to work with, so you better not do anything wrong".

Voilà, je complète la discussion sur "Le Numérique" simplement pour ne pas passer pour le béat de service. Cet ouvrage a du nécessiter des mois de travail et des choix difficiles sur les choses à traiter et à approfondir au confluent de diverses disciplines. Bravo aux auteurs, il ne fait aucun doute que ce premier traité d'économie numérique en langue française va devenir une référence.

F. Candau
ps: ci-dessous, en spécial dédicace, une vieille photo de l'auteur (légèrement retouchée... se voyait-il déjà au firmament?) et du critique.
Références (à citer dès que vous parlez d'éco géo ;-))
  • Candau, F., 2011. Is Agglomeration Desirable? Annals of Economics and Statistics, vol 101/102, 203-22. Ici ou ici dès fois que le premier lien soit gated
  • Candau, F., 2008. Entrepreneur's Location Choice and Public Policies, a Survey of the New Economic Geography. Journal of Economic Surveys, 2008, vol 22, 5, 909-952.


09 février 2014

von Thünen en Amazonie


Comment les activités s'organisent-elles dans l'espace? Pour répondre à cette question la plupart des enseignements d'économie spatiale débutent par le modèle de von Thünen. Après la description du modèle, je l'utiliserai pour quelques digressions sur l'étalement urbain et sur la déforestation de l'Amazonie [NB: il est possible que les rares équations de ce post sortent mal (format latex), dans ce cas je mets à votre dispo la version pdf de ce billet ici, merci de nous mettre un commentaire si vous avez des pbs de lecture. Logiquement après un petit temps de chargement il ne devrait pas y en avoir].


Le modèle

L'objectif initial de von Thünen est d'expliquer l'organisation des activités agricoles dans l'espace, il considère une ville entourée de terre. Les biens agricoles sont transportés en ville où ils sont vendus. Le marché agricole est considéré concurrentiel et les coûts de transport des biens produits sont linéaires ($t{}_{i}$). Pour simplifier, et surtout pour mettre en exergue les coûts de transport, je suppose que les coûts de production ($c$) sont identiques d'une exploitation à l'autre. Chaque localisation est identifiée par sa distance $d$ à la ville. Les terres sont allouées aux agriculteurs suivant un processus d'enchère. Chaque producteur, qu'il produise du blé ou des salades, fait une offre en fonction des profits, notés $\pi_{i}$ qu'il pourra retirer de sa production, notée $q$. Les profits d'une activité localisée en $i$ s'écrivent:

$\pi_{i}=(p_{i}-c-t_{i}d)q{}_{i}-r_{i}$

r est la rente foncière payée par l'agriculteur. Le premier membre de l'expression qui est le profit brut (sans considération du prix de la terre) est l'enchère maximale proposée par l'exploitant (bid rent en anglais). Comme il y a concurrence dans la salle d'enchère, la rente sur le marché sera égale à l'enchère maximale (profit nul) ce qui nous donne:

$r_{i}=(p_{i}-c-t_{i}d)q{}_{i}$

Une relation inverse est donc observée entre le prix de la terre (i.e la rente de localisation) et la distance au marché, plus précisément observons comment varie la rente avec la distance en dérivant:

$\frac{\partial r_{i}}{\partial d}=-t_{i}q{}_{i}$

Ainsi ceux qui espèrent produire beaucoup sur de petites quantités de terre (ex: producteur de salades) seront prêts à payer cher le fait d'être proche de la ville (avec les productions hors sol, ils sont même parfois dans la ville désormais). De la même façon ceux qui ont un coût de transport élevé se localiseront au plus près du marché. En bon classique, von Thünen prend des coefficients fixes, soit pour produire une unité d'un bien, il faudra $a{}_{i}$ unité de terre. La fonction de production par unité de terre est donc $q{}_{i}=1/a{}_{i}$ mais on peut très bien généraliser et obtenir les mêmes résultats (voir Fujita et Thisse, 2003).

Pour illustrer le modèle, prenons deux agriculteurs A et B dont un producteur A qui a une production plus intensive que le producteur B, soit soit $a_{A}<a_{B}$ ou si vous préférez $q_{A}>q_{B}$. Le producteur A proposera une enchère plus élevée, puisqu'une unité de terre lui permet de produire plus. Prenez des valeurs pour les coef techniques des deux agents, idem pour les coûts de transport et vous pourrez tracer la rente en fonction de la distance grâce à l'équation précédente.


L'intersection des deux droites vous donnera le point pour lequel A n'est plus intéressé par la localisation dont B devient le propriétaire. En égalisant les rentes on obtient la limite de l'exploitation de A et le début de celle de B. Ce modèle a ensuite été étendu à l'économie urbaine, il explique alors pourquoi les faibles revenus se localisent en banlieue où le prix du sol est faible alors que les hauts revenus se localisent près du centre d'affaire ou de consommation.

Discussions

Ce modèle ne s'applique pas en tant que tel, c'est évidemment une parabole qui permet de mieux comprendre l'utilisation des sols. Par exemple, pourquoi nos villes s'étalent-elles de façon continue depuis près de 50 ans? Cet étalement urbain peut s'expliquer par la croissance des revenus en ville qui concurrence le secteur agricole dans l'utilisation des sols. De plus, la baisse des coûts de transport a permis a une classe moyenne de plus en plus importante de se localiser dans le périurbain. En clair, si les coûts de transport venaient à augmenter et/ou si les producteurs agricoles gagnaient mieux leurs vie aux abords des villes, on obtiendrait des villes plus denses.

En somme, l'important apport de von Thünen est de démontrer la puissance organisatrice des transports et du marché pour ordonner l'utilisation des sols. Un autre point intéressant est la tension entre les forces d'agglomération et de dispersion, le désavantage d'une localisation distante et/ou d'une production peu intensive est compensé par un prix du sol plus faible (et vice versa pour les coûts de transport élevé et/ou pour les productions intensives). Au cœur de ce modèle réside l'idée d'une spécialisation de l'espace via l'échange (voir Limao et Venables (2002) qui intégre von Thunen dans un modèle HOS) et de ce point de vue l'analyse de la déforestation en Amazonie est intéressante à analyser.

A partir des années 70-80 le Brésil se dote d'une industrie agro-alimentaire moderne, le Brésil va être nommé la ferme du monde, avec des filières agro-exportatrice puissante dans le soja, l'éthanol, le sucre et le bœuf etc. La hausse des profits a permis à l'industrie de s'étendre, de produire toujours plus loin, le rachat de terre par les industriels a été une incitation pour les plus pauvres à brûler la forêt amazonienne premièrement pour l'exploiter (pâturage) mais aussi dans l'espoir d'obtenir un titre de propriété de sortes à pouvoir vendre ensuite (au bout de x années qu'une terre était exploitée, elle devenait la propriété des sans terres). Vous voyez le cercle vicieux...


Ainsi à partir des années 70 l'Amazonie a commencé à fondre comme neige au soleil. Dans les années 90 c'est la forte valorisation du prix du soja qui a accentué cette déforestation. 

Les géographes et les économistes utilisent ainsi le modèle de von Thünen, non pas stricto census, mais plutôt comme une justification à l'intégration de certaines variables (e.g. distance au marché) dans leurs analyses empiriques. Sur la déforestation amazonnienne voir notamment Calvas et al. (2007) qui discutent du modèle de von Thünen et Cropper, Griffiths et Mani (1999) qui s'en inspirent dans leur analyse de la déforestation en Thaïlande.
 
En conclusion citons l'un des plus grand expert d'économie urbaine, Masahisa Fujita:
"In my opinion, Thünen’s thinking was not only amazingly advanced for his time, but in many respects remains novel even today. It is shown that if we unify Thünen’s well-known theory on agricultural land use with this pioneering work on industrial agglomeration by using modern tools, then we essentially come up with a prototype of New Economic Geography model."

L'article est disponible ici (publié en 2012 dans regional science and urban econ). 

F. Candau

Références 
  • Caldas M, R Walker, E Arima,w S Perz, z S Aldrich, C Simmons, 2003. Theorizing Land Cover and Land Use Change: The Peasant Economy of Amazonian Deforestation. Annals of the Association of American Geographers, 97(1), 2007, pp. 86–110
  • Cropper M, C Griffiths; M Mani. 1999. Roads, Population Pressures, and Deforestation in Thailand, 1976-1989. Land Economics, Vol. 75, No. 1., pp. 58-73
  • Fujita M, J-F Thisse, 2003. Economics of Agglomeration; Cities, Industrial Location and Regional Growth, Cambridge University Press, Cambridge.
  • Limao N, A Venables, 2002, Geographical disadvantage: a Heckscher–Ohlin–von Thünen model of international specialisation. Journal of International Economics, 2002.

03 février 2014

Economie du vin, à lire sans modération

L'économie du vin est un domaine particulièrement intéressant pour l'analyse économique. Commençons par l'information imparfaite qui y règne en maître expliquant prix et organisation.
Le vin est un bien d'expérience comme le définissait Nelson (1970), c'est à dire un bien dont la qualité ne peut pas être connue avec certitude avant consommation (ex-ante). Il peut aussi parfois avoir les caractéristiques d'un bien de croyance, soit un bien dont on ne peut même pas évaluer la qualité après consommation (typiquement lorsqu'un néophyte après dégustation vous dit "j'y connais rien, mais il est bon" en lisant l'étiquette ou en vous narrant les commentaires du vendeur).
Cette information imparfaite conduit les consommateurs à se faire une idée de la qualité en considérant un prix moyen, de prime abord un prix élevé est donc un signal de bonne qualité. Mais (il y a toujours un mais) rien n'empêche les mauvais producteurs de vendre leur piquette à un prix élevé pour se faire passer pour ce qu'ils ne sont pas. Pour légitimer leur prix, les producteurs de bon vin vont exhiber leurs coût de production (du moins auprès des experts), démontrant ainsi qu'ils ont réalisé des investissements hors de portée des producteurs low-costs. Pour ceux qui sont intéressés par ces interactions, voir l'article de Mahenc et Meunier (2006) qui appliquent finement les concepts de l'économie industrielle à l'économie du vin.

En ce qui concerne l'organisation du secteur, l'information imparfaite explique l'existence de plusieurs emplois intermédiaires entre les producteurs et les consommateurs dont notamment la profession d'expert. Leur fonction est de restaurer l'information. Seul hic, ces mêmes experts peuvent manipuler/fausser le marché. L'effet Parker, du nom de Robert Parker l'éditeur de wine advocate, est ainsi très connu tant son jugement influence les prix. Selon Ali, Lecocq et Visser (2008) qui utilise une expérience quasi-naturelle, ce gourou nous coûterait en moyenne 3 euros par bouteille de Bordeaux.

Outre cet effet direct de l'expérience, le vin est aussi un investissement plus ou moins risqué, un vin de garde par exemple révèle ses qualités en veillissant, il est donc "plus ou moins" difficile de prédire ses carastéristiques sur le long terme. Pourquoi "plus où moins"? Pour une raison simple (et encore une fois on retourne aux fondamentaux), la prédiction est possible mais il faut connaître les caractéristiques de l'offre. Ashenfelter (2008) montre ainsi qu'une simple équation économétrique intégrant les caractéristiques des sols et les conditions climatiques expliquent 80% de la variation moyenne des Bordeaux. L'auteur montre aussi comment les experts ont par le passé négligé ces caractéristiques qui constituent pourtant l'essence de la qualité d'un vin. Gergaud et Ginsburgh (2008) affinent l'analyse et montrent que les dotations du sol ne sont rien en comparaison du travail des vignerons, la qualité d'un vin est davantage une question de technique qu'une question de nature. Evidemment il n'y a rien de révolutionnaire dans ces découvertes, Vauban sous Louis XIV ne disait-il pas que "le meilleur terroir ne diffère en rien du mauvais s'il n'est cultivé" (cette citation est empruntée à cet article).
Pour conclure, comment expliquer la forte augmentation des prix observés dans les années 2000 sur les 1000 plus grands vins du monde (voir graph ci-dessous)?

Cette forte augmentation peut en partie s'expliquer par la croissance des revenus dans les pays émergents*. Les grands crus sont des produits de luxes, c'est à dire des biens dont l'élasticité revenu est supérieure à un, d'où un effet direct et puissant de la croissance sur les prix. En effet puisque la demande pour ces vins augmente encore plus vite que les revenus et que l'offre est fixe sur le court terme, les prix ont flambé. Je vous laisse faire le graphique offre/demande. Rajoutez à ceci que les vins sont des placements financiers (liquides) assez prisés et vous voilà en mesure d'expliquer la hausse des prix (puis stagnation) du vin avec des arguments micro de base.

F. Candau

*que l'on pourrait résumer par "pour cent BRICs, t'as du vin", dès lors plutôt normal que les lendemains soient difficiles

Références
  • Ali, H. H., Lecocq, S. and Visser, M. (2008), The Impact of Gurus: Parker Grades and En Primeur Wine Prices. The Economic Journal, 118: F158–F173.
  • Ashenfelter, O. “Predicting the quality and prices of Bordeaux wine. The Economic Journal 118
  • Gergaud, O and Ginsburgh, V (2008), “Endowments, production technologies and the quality of wines in Bordeaux. Does terroir matter?”, The Economic Journal 118, 142-157.