Affichage des articles dont le libellé est Microéconomie. Afficher tous les articles
Affichage des articles dont le libellé est Microéconomie. Afficher tous les articles

07 avril 2020

Secteur pharmaceutique, monopole et commerce international

L'industrie pharmaceutique a quasiment un siècle et mériterait un long post, j'essaierai cependant de faire court en abordant principalement (mais brièvement) l'organisation concurrentielle et internationale de ce secteur. Cependant, avant cela, attardons nous quelques instants sur la découverte accidentelle par Alexander Fleming d'un champignon, le penicillium notatum. Cette moisissure allait changer la vie de l'humanité devenant quelques années plus tard le premier antibiotique, la pénicilline. La méthode de production (utilisant le maïs, découverte par le ministère de l'agriculture américain) est devenue véritablement industrielle avec la seconde guerre mondiale, impliquant plus de vingt entreprises différentes. La concurrence fut si forte qu'au sortir de la guerre, le prix de gros de la pénicilline en 300 000 doses unitaires n'était que de 3 dollars en 1945 et qu'il continua de baisser passant à 1 dollar en 1948 et à 10 cents en 1953 (Scherer, 2000). 

Le succès de la pénicilline a conduit un autre chercheur, Selman Waksman à analyser de nombreux échantillons de sol au début des années 1940 et il découvre ainsi la streptomycine. Avec Waksman, une certaine méthode de la découverte venait de naître et de nouveaux antibiotiques à large spectre ont rapidement été obtenus entre 1948 et 1953. Cette méthode de "terrain" diffère de l'approche allemande de Paul Ehrlich qui développe en 1909 le premier médicament de synthèse, un arsenical actif contre la syphilis.

Ces deux modèles de recherche vont être à la base de l'industrie pharmaceutique alliant une R&D sur les effets thérapeutique de nouvelles molécules (Ehrlich) et sur des substances naturelles (Waksman). 

Contexte français

En France, c'est l'une des industries qui a connu la plus forte croissance sur les 50 dernières années (IRDES). Le chiffre d'affaire de cette industrie s'élevait à 6,5 milliards d'Euros en 1970 contre 53 milliards en 2015 selon le LEEM dont plus de la moitié est réalisée grâce aux exportations (26,2 Mrd€). Cette industrie emploierait 101 000 emplois directs et est caractérisée par une très forte concentration des entreprises qui a de plus augmenté au fil des ans. Le graphique ci-dessous illustre ainsi qu'il y avait 422 entreprises dans ce secteur en 1970 et que ce nombre est passé à 250-70 récemment.

Graphique 1: Nombre d'entreprises dans le secteur pharmaceutique en France

Cycle du produit

Pour comprendre un peu mieux ce secteur, une brève analyse du cycle de production d'un médicament peut être intéressante. Nous pouvons distinguer 4 temps importants:

  • La découverte et le développement
Les méthodes de découverte ont dépassé les techniques de découverte par tâtonnement d'Ehrlich et de Waksman.  La recherche de nouvelles molécules est devenue beaucoup plus rigoureuse et systématique. A partir des années 1970, des approches dites rationnelles (axées sur les mécanisme pathologique et sur la biochimie), puis le développement de l'informatique ont permis de davantage ciblés les recherches. Cependant, en dépit de ces progrès, sur les milliers de molécules analysées, seules quelques unes font l'objet d'un brevet. Les découvertes les plus "faciles" ont en quelques sortes déjà été réalisées (sans parler de problèmes majeurs comme la résistance aux antibiotiques).
  • Les tests

Ces molécules devront ensuite passer plusieurs tests et essais cliniques avant de devenir un médicament. Les exigences de vérification se sont renforcées ces dernières années, et au regard de différents scandales, c'est plutôt une bonne chose. Car l'histoire de l'industrie pharmaceutique c'est aussi la mise en vente de médicaments dont la toxicité a été reconnue après causé la mort ou des troubles importants (le Stalinon en 1953, la Thalidomide en 1961, le Distilbène en 1971, puis plus récemment les scandales de l'hormone de croissance, de Isoméride, du Mediator, de la Dépakine etc).

  • La mise sur le marché
Entre la découverte et la mise sur le marché, il faut compter en moyenne huit ans.
  • La fin du monopole et l'entrée des génériques. 

Ci dessous un Graphique du LEEM qui représente les laboratoires pharmaceutiques, qui illustre le raccourcissement de la période de profit depuis l'entrée massive des génériques.

Cycle du médicament (source: LEEM)

Concurrence monopolistique, monopsone et régulation

Les brevets qui permettent d'exploiter un produit sur plusieurs années années confèrent aux firmes de ce secteur une position de monopole sur les variétés qu'elles produisent. On parle de concurrence monopolistique. Petit rappel de microéconomie: un monopole est une entreprise, qui profite littéralement de son pouvoir de marché pour fixer un prix supérieur à son coût marginal de production ce qui cause une perte nette pour la société dans son ensemble. Ce pouvoir de marché n'est évidemment pas sans limite, tout d'abord les brevets sont temporaires (les génériques ont d'ailleurs contribué a diminuer le coût des traitements), de plus les firmes peuvent développer des molécules similaires et il existe donc une concurrence plus ou moins directe. Les stratégies de production des laboratoires est assez complexes, mais pour simplifier on peut noter qu'avant les années 90s les grands groupes réalisaient des profits importants avec des produits phares, dits "blockbuster", mais au moins deux éléments ont en partie fait vaciller cette stratégie. Tout d'abord les brevets de nombreux blockbusters sont arrivés à terme, de plus les stratégies "me too", qui consistent à n'améliorer un produit qu'à la marge se sont généralisées. Pour restaurer leur pouvoir de monopole de nombreuses fusions et acquisitions ont eu lieu à partir de cette date. Enfin, une stratégie de niche, dites nichebuster, s'est développée autour de l'idée de fournir des médicaments plus spécialisés (et peut-être moins facilement copiable) sur des maladies plus rares de sortes à fixer des prix très élevés (Lakdawalla, 2018; Montalban, 2011).

Pour contrebalancer ces monopoles, l'Etat dispose d'un pouvoir de monopsone, il représente une part importante de la demande. Son intervention est de plus continue, il fixe les prix, décide de la durée des brevets, du remboursement des médicaments etc... Ce post est déjà trop long, donc pour une analyse historique et sociologique de détermination du prix des médicaments et des négociations entre l'Etat et les industriels en France voir Nouguez et Benoît (2017).



Doit-on favoriser la concurrence dans ce secteur? 

De nombreuses études théoriques présentent les mécanismes économiques expliquant comment les brevets favorisent les innovations et la croissance économique en augmentant les rentes issues de ces activités de R&D (Romer, 1990; Aghion et Howitt, 1992).

Les pouvoirs publics craignent ainsi qu'une réduction de ces perspectives de gains créent de mauvaises incitations en termes de R&D. Cette vision n'est pas une vue de l'esprit, un grand nombre de maladies dans les pays en développement ne font l'objet d'aucune recherche. Les faibles recherches sur la malaria, ou encore le désastre causé par la récente épidémie de maladie à virus Ebola en sont l'illustration (vous en trouverez d'autres). L'espérance de gain qui motive la recherche d'une molécule est en partie déterminée par la "taille du marché", c'est à dire par la demande et sa croissance.  Acemoglu et Linn (2004) constatent qu'une augmentation de 1% de cette taille du marché est associée à une augmentation de 4 à 6 % du nombre de nouvelles entités moléculaires entrant dans le marché. La valeur exacte de cette élasticité est très débattue, mais l'effet de la demande sur l'innovation semble certain. Blume-Kohout et Sood (2013) montre par exemple que l'élargissement de la couverture de remboursement (Medicare Part 2) à plus de 28 millions de sénior américains a entraîné une augmentation des prescriptions ayant eu pour conséquence une hausse de la recherche des laboratoires. Le graphique ci-dessous représente une étude de cas pour les traitements contre Alzheimer qui sont entrés dans cette politique et mis en perspective avec le nombre de test cliniques pour les hormones contraceptives qui n'ont pas bénéficié de cette réforme. Le résultat est très visuel, alors que les recherches sur Alzheimer diminuaient avant la réforme, elles ont constamment augmenté ensuite. A l'inverse, on peut voir que les recherches sur les contraceptifs hormonaux n'ont pas évolué au passage de l'année d'implémentation de Medicare Part 2.

Médicaments entrant dans les essais cliniques pour la maladie d'Alzheimer par rapport aux contraceptifs hormonaux

L'importance de réaliser un chiffre d'affaire conséquent semble être d'autant plus nécessaire que les coûts de R&D peuvent être particulièrement élevés. Ce secteur se situe ainsi à la deuxième place derrière l'automobile en France, mais devant l'aéronautique, la chimie, l'informatique et la communication.

L'objectif de l'Etat est de soutenir ces recherches, mais dans le même temps les médicaments innovants aux prix exorbitants (41000 euros pour un traitement de 3 mois contre l'hépatite C) crée un malaise, ces recherches ne pourraient-elles pas se poursuivre à un prix plus faible? La cours des comptes, médecin du monde, la ligue contre le cancer et bien d'autres ont tendance à répondre par l'affirmative à cette question. L'Assurance Maladie se pose des questions similaires et note dans un rapport de 2017 que "les nouveaux traitements dans des domaines très spécialisés, tels que la cancérologie, la rhumatologie ou l’infectiologie (avec les récents médicaments contre l’hépatite C), qui augmentent significativement les coûts de traitement et dont l’impact budgétaire questionne la soutenabilité du système de remboursement solidaire". Ce rapport met en avant les progrès que représentent ces traitements mais analyse dans le même temps l'augmentation du prix d'une année de vie gagnée (je reviendrais sur cet indicateur dans un prochain post). Les prix ont ainsi fortement augmenté pour des résultats moindres que par le passé. Ce résultat peut bien sûr refléter des rendements décroissants dans la recherche mais il est difficile d'exclure que ces prix ne reflètent pas une stratégie de discrimination des monopoleurs dont la stratégie économique est de faire payer au consommateur (en l’occurrence, l'Etat) le prix maximal qu'il est prêt à payer. 


Tous les médicaments sont fabriqués en Asie?

La pandémie du COVID19 a révélé au grand public que la logique du commerce international s’appliquait aussi au secteur pharmaceutique. Dans les années 80, l'Europe (et notamment l'Allemagne) produisait une grande partie des produits actifs des médicaments, mais dans les années 90 et plus encore dans les années 2000, la Chine va devenir le pays de production n°1. 

De plus, le fait que le commerce mondial soit un commerce de biens intermédiaires, où la production de molécules de base est en partie délocalisée dans les pays asiatiques, fait peser le risque d’une rupture de la chaîne de production. Enfin, le fait qu’une grande partie de ce commerce soit intra-branche (environ 40% des échanges internationaux), c'est-à-dire que les nations échangent entre elles des variétés différentes de produits, pose un problème particulier dans une période de pandémie mondiale où les échanges sont bloqués. Le manque de coordination et de pilotage à l'échelle européenne est à cet égard très dommageable. Une partie des échanges de produits médicaux se fait en effet au sein de l'UE, et une pandémie est justement un drame qui dépassent les nations, bref l'Europe aurait été un bon échelon pour mieux gérer les échanges, la production (et avant cela les stocks)...Notons cependant que les pays européens n'ont pas été les seuls à considérer les médicaments comme un biens comme les autres. Au Etats-Unis, 97% des produits servant à la production d'antibiotiques sont produits en Chine.  

Les graphiques ci-dessous illustrent cet échange réciproque de biens entre nations au sein d'un même secteur. 




A cette organisation internationale, s'ajoute l'adoption du lean management et d'une production "juste-à-temps". Le principe, initié par Toyota dans les années 1950, est de réduire le temps de traversée entre le point d'entrée de la matière première dans l'entreprise et la vente du bien. Pour accélérer les flux le long de la chaîne de valeur ajoutée et réduire les coûts, la réduction des stocks est une conséquence logique de la stratégie des laboratoires. Le problème évident de cette fragmentation de la chaîne de production et de son management est que si elle est trop intensive des tensions d'approvisionnement peuvent apparaître. L’Agence française du médicament comptait ainsi en 2018 que plus de 500 cas de médicaments ayant un «intérêt thérapeutique majeur » présentaient un risque de rupture d'approvisionnement.

Les pouvoirs publics ne sont pas inactifs face à cette situation. La loi de sécurité du médicament de 2011 établissait dans son article 46 l'obligation pour les entreprises d'anticiper 1 an à l'avance les possibles ruptures de stock et l'article 45 imposait aux grossistes-répartiteurs de préciser les exportations prévue dans ce même horizon temporel. En 2016, un plan de "gestion des pénuries" a été mis en place visant à justement augmenter les stocks et à identifier des alternatives aux produits pouvant être en ruptures. 

Hélas la crise du COVID19 a mis en évidence la fragilité de ces plans concernant une grande partie d'appareil médicaux... les masques, les appareils respiratoires et l'incapacité industrielle à réaliser des tests à grande échelle ne sont sans doute que les parties émergées de l'iceberg.  Espérons que cette crise renforcera les politiques publiques visant à assurer l'indépendance et la capacité de production du secteur de la santé. La relocalisation des industries pharmaceutique en Europe (et en France) nécessitera cependant plus que des discours, il faudra un engagement continuel et long des gouvernements, car outre le fait que ces productions nécessite un savoir faire et une technologie que nous avons peut-être perdu, la relocalisation nécessite une coordination de différent acteurs qui est loin d'être évidente.  



Références

  • Aghion, P., & P. Howitt, 1992, A Model of Growth Through Creative Destruction, Econometrica, 60(2), 323–351.
  • Acemoglu, Daron, and Joshua Linn. 2004. “Market Size in Innovation: Theory and Evidence from the Pharmaceutical Industry.” Quarterly Journal of Economics 119 (3): 1049–90.
  • Blume-Kohout, Margaret E., and Neeraj Sood. 2013. “Market Size and Innovation: Effects of Medicare Part D on Pharmaceutical Research and Development.” Journal of Public Economics 97: 327–36. 
  • Lakdawalla, 2018, Economics of the Pharmaceutical Industry, Journal of Economic Literature 2018, 56(2), 397–449.
  • Montalban, M. 2011. La financiarisation des Big Pharma. De l'insoutenable modèle blockbuster à son dépassement ? Savoir/Agir 2011/2 (n° 16), pages 13 à 21.
  • Nouguez E et C Benoît, 2017. Gouverner (par) les prix. La fixation des prix des médicaments remboursés en France. Revue française de sociologie 2017/3 (Vol. 58), pages 399 à 424.
  • Romer, P. M., 1990, Endogenous Technical Change, Journal of Political Economy, 98(5), S71–S102.
  • Scherer, 2000.  F. M. 2000. “The Pharmaceutical Industry.” In Handbook of Health Economics: Volume 1B, edited by Anthony J. Culyer and Joseph P. Newhouse, 1297–336. Amsterdam and Boston: Elsevier.

29 mars 2020

Théories de l'information

Lorsque vous allez chez votre dentiste ou chez votre garagiste et que l'un ou l'autre vous annoncent la nécessité de réaliser une réparation/opération coûteuse, vous êtes face à une asymétrie d'information. Ces professionnels peuvent profiter de votre ignorance pour vous faire payer une opération qui n'était peut-être pas nécessaire.

L'expression française de “menteur comme un arracheur de dents”, où la réputation de “voleur” qui entache la profession des garagistes souligne la possibilité de ces comportements déviants lorsque l'information est asymétrique. Evidemment ces professions ne sont que des exemples, pour en donner un supplémentaire, l'étude de Johnson and Rehavi (2016) a montré que certains obstétriciens américains profitaient de l'ignorance des femmes enceintes pour pratiquer des césariennes qui n'étaient pas nécessaires simplement pour augmenter leurs salaires (aux Etats-Unis, les césariennes sont mieux payées que les accouchements naturels).

Ces asymétries d'information peuvent avoir de multiples conséquences sur le fonctionnement du marché que je détaille dans cette courte vidéo pour mes étudiants de L1 Introduction à la micro. Vous y trouverez le marché des occasions (Akerlof, 1970), l'application au marché bancaire (Stiglitz et Weiss, 1981) et les solutions à ces problèmes dont le signalement (Spence, 1970). Si vous préférez lire plutôt qu'écouter, le pdf est disponible ici.

19 mars 2020

Bien privé et bien public

Voici ma vidéo destinée à mes étudiants de L1 en intro à la micro, mais aussi tout à fait compréhensible pour des lycéens, présente les problèmes de non rivalité et de non exclusivité associés aux biens publics qui conduisent à la tragédie des communs et au dilemme du prisonnier. Vous ne comprenez rien à ce résumé? Normal, regardez la vidéo!

La pandémie du corona virus, la situation des hôpitaux, la saturation des réseaux, l'industrie du disque, la qualité de l'information fournie par les médias sont autant d'éléments divers qui trouvent une cohérence grâce aux éléments abordés.

17 mars 2016

Behavioral Economics

Les sciences économiques se sont diversifiées au cours des trente dernières années et l'économie comportementale est sans doute l'une des disciplines qui s'est le plus développée sur cet intervalle. L'objectif a été de mieux comprendre les décisions économiques des agents pour amender et améliorer les enseignements de la microéconomie de base (optimisation, équilibre etc). L'économie comportementale a développé plusieurs analyses et méthodes qui sont désormais des disciplines à part entière telles que l'économie expérimentale, l'économie psychologique ou encore la neuroéconomie.

David Laibson and John A. List ont récemment écrit un papier intitulé "Behavorial Economics in the Classroom" qui résume les "principes" qui peuvent être tirés de ces analyses.

En résumé l'économie comportementale (prospect theory initialement) a montré que les décisions risqués sont évalués par les individus en termes de gains et de pertes par rapport à un point de référence (par exemple le revenu actuel), cette référence ou encore cette contextualisation de la décision peut conduire à de mauvais choix. De plus les agents n'évaluent pas les pertes de la même façon que les gains, ils surestiment l'occurrence des événements rares (e.g. terrorisme), sous-estime ceux dont la probabilité est grande et ils peuvent aussi avoir trop confiance en eux ou dans des choses qu'ils croient connaître. Les investisseurs ont par exemple tendance à avoir une préférence pour des investissements “familiers” et surestiment souvent la performance des firmes de leur pays (home bias). Les français détiennent ainsi beaucoup plus d'actions Renault que les américains (voir Rey et Coeurdacier (2011, JEL) pour une revue de la littérature sur le home bias financier).

Autre exemple (parmi bien d'autres), les américains n'épargnent pas suffisamment pour leur retraite, pourquoi? Est-ce un problème économique? d'information? Lorsqu'on leur pose la question, ils disent qu'ils ont conscience du problème et qu'ils vont justement augmenter leur épargne, mais pas aujourd'hui, demain. Le problème, c'est que demain, c'est toujours demain. Les individus ont clairement des problèmes de self-control, la façon dont il décompte l'effort futur est clairement incohérente avec leurs préférences et leurs choix d'aujourd'hui (voir les premiers travaux de Laibson sur l'hyperbolic discounting). Bref, la procrastination fait partie des traits comportementaux nous conduisant à réaliser de mauvais choix.

Les individus ont aussi tendance a valoriser beaucoup plus un bien qu'ils possèdent que ce même bien s'ils ne le possèdent pas, ou plus précisément ils ne sont pas prêts à payer grand chose pour augmenter leur dotation par contre ils seront très réticent à la voir diminuer (endowment effect de Thaler).

Enfin les interactions sociales jouent un grand rôle sur les décisions économiques des individus.

Ces nouveaux éléments dans l'analyse des comportements économiques ont enrichi les travaux de finance, d'économie du travail, du développement, etc.... DellaVigna (2009, JEL)Pesendorfer (2006, JEL), et Barberis (2012, NBER) offrent des revues de la littérature qui pourront vous intéresser.

Pour d'autres enseignements, notamment en économie publique, voir cette vidéo rassemblant plusieurs contributions. Tout d'abord Raj Chetty qui utilise des Big Data (1 milliard d'obs) pour comprendre les réactions fiscales des américains dans différents Etats au cours du temps, puis Olivia Mitchell sur la sécu américaine, Naomie Feldman sur une politique familiale (child tax credit) et Johannes Schmieder sur les allocations chômage. Here the power of the nudge!




David Laibson a aussi récemment participé à une revue de la littérature d'une autre science économique relativement nouvelle (et reliée à la précédente): la neuroéconomie.

Edit: léger souci pour répondre aux commentaires, je poste donc ici ma réponse:
McCabbe, Glimcher et Smith ont été les initiateurs et promoteurs de la neuroéconomie vers la fin des années 90 début des années 2000. Pour une histoire de la pensée en français de la neuroeco il y a cette thèse de Nicolas Vallois https://tel.archives-ouvertes.fr/tel-00765033/document

16 octobre 2015

Angus Deaton, Almost Ideal Nobel Prize


Source: The Economist
Angus Deaton a obtenu le Nobel cette année et il nous a semblé intéressant de confronter nos points de vue sur ce prix, en effet nous n'avons pas lu le même Deaton. J'ai surtout lu une partie de ses travaux sur la consommation et sur le bien-être, alors qu'Elisa a une connaissance plus approfondie de ses articles et ouvrages sur la pauvreté. On vous propose donc deux billets, dont voici le premier sur conso et bien-être, le prochain sera sur l'économie du développement (ici).

Micro de la conso

Lorsqu'on a un cours de micro un peu avancée à faire, le Deaton et Muellbauer (1980) est une référence incontournable. L'originalité de ce bouquin est de se focaliser sur la consommation, toutes les bases sont rappelées de la demande marshallienne à la demande hicksienne, avec une mise en perspective des travaux empiriques analysant la conso. L'ouvrage met ainsi en avant le travail de Deaton et Muellbauer (1980, AER) sur leur modèle d'Almost Ideal Demand System. Je ne vais pas rentrer dans les détails, mais je vous invite à lire le post de Dave Giles qui utilise R pour estimer les élasticités de la demande de différents biens en utilisant justement ce modèle. On peut ainsi voir comment le prix du vin est influencé par le prix des bières, analyser si le vin est un bien de luxe etc. Mais le gros intérêt du modèle, est qu'il permet d'estimer un système de demande en faisant sauter l'hypothèse de maximisation:

"if maximizing behavior is not assumed but it is simply held that demands are continuous functions of the budget and of prices, then the AIDS demand functions (8) (without the restrictions (11) and (12)) can still provide a first-order approximation". DM (AER, p. 315)

C'est la raison pour laquelle il est "almost ideal" ce système et c'est aussi la raison pour laquelle j'aurais espéré qu'il soit un peu célébré.
Je souhaite aussi insister sur le fait que ce modèle est toujours utile pour la recherche actuelle. Par exemple en éco inter, où les chercheurs ont énormément travaillé sur l'offre (Ricardo expliquait le commerce par les avantages en termes de coûts de production liés aux technologies, HOS en termes de dotation de facteur, Krugman, Brander en terme de concurrence imparfaite...), le côté demande a été négligé. La plupart du temps, les auteurs prennent une fonction d'utilité à élasticité de substitution constante (CES) et s'occupent d'améliorer l'offre (e.g. Melitz). A l'inverse avec un modèle AIDS, les élasticités de substitution peuvent être variables. Le commerce (ou son absence) s'explique ainsi de façon plus fine en prenant en compte un élément important des choix de conso des individus. Voir Feenstra (2003, 2009), Fèmènia et Gohin (2009) et Novy (2010) pour de telles extensions. De plus, que dire de l’homothétie des préférences d'une CES qui contraint les chercheurs a ne considérer que les biens normaux? Deaton (1992, p. 9) n'y va pas par 4 chemins:

"The supposition that there are neither luxuries nor necessities contradicts both common sense and more than an hundred years of empirical research" Deaton (1992, p. 9)

Cette phrase pourrait être une réponse au philosophe Michel Onfray qui n'a qu'un siècle de retard en confondant Angus Deaton et Ernst Engel (1821-1896):



C'est dommage, car les travaux de Deaton intéressent justement les philosophes qui se donnent la peine de les lire, car ils touchent à un domaine hautement philosophique: le bonheur.

Bien-être et enquêtes

Comment comparer la situation d'individus qui ont des préférences différentes. Dès 1979, Deaton propose une solution à cette question en définissant une fonction de distance monétaire à un référentiel qui serait le même pour tous. Il a ainsi participé à cette littérature sur le revenu équivalent qui après avoir été éclipsé des analyses de choix social, reprend une place importante depuis une dizaine d'années pour analyser le bien être des individus. Voir sur ce point l'ouvrage "Au delà du PIB" de Didier Blanchet et Marc Fleurbaey.

Passant de la théorie à la pratique, Deaton (2008) a été à la fois utilisateur et critique sur les travaux d'enquête qui vise à demander aux gens de mesurer leur niveau de bien-être (sur une échelle allant par exemple de 1 à 10). Il montre que le "bien-être" mesuré par ces enquêtes est corrélé au revenu mais pas à la santé (y compris lorsque des maladies graves telles que le SIDA sont prises en compte) et ce résultat lui semble (à juste titre de mon point de vue) très douteux, il en conclut:

"Neither life satisfaction nor health satisfaction can be taken as reliable indicators of population well-being, if only because neither adequately reflects objective conditions of health". 

Dans la même veine, Deaton (2011) étudiant les effets de la crise de 2008 sur le moral des américains note que le "bien-être" mesuré par ces enquêtes a tendance à diminuer lorsque cette question est précédée par une question de politique... Ceci montre la volatilité des réponses suivant le contexte dans lequel se place les agents lorsqu'ils répondent. Cela n'a rien de révolutionnaire (j'imagine avec horreur un nouvel Onfray basé sur mon texte) et représente simplement une illustration supplémentaire de connaissances que nous devons à la socio et à la psycho, mais il est rassurant de voir que le Nobel ait été décerné à un type qui, suffisamment intéressé par l'avis (et la vie) des gens, n'hésite pas à utiliser ces enquêtes pour en déceler les problèmes et en extraire l'analyse la plus juste possible.

Enfin Deaton plus que quiconque s'est posé la question de savoir comment comparer au niveau international la situation d'individus qui consomment des biens différents (voir Deaton (2010, AER) et Deaton et Heston (2010, AEJ)).

Deaton (2009) est aussi connu pour sa critique des "randomista" qui ont envahi la Banque Mondiale et l'ensemble des institutions travaillant sur le développement. De mon point de vue cette critique n'est rien par rapport à celles portées par les chefs de file de ce mouvement (voir notamment de nombreux écrits d'Esther Duflo), elle est simplement une indication que l'on peut aussi faire de l'économie du dev différemment, un peu à l'ancienne en estimant un modèle pour pouvoir ensuite faire des simulations (Elisa développera cette critique dans son prochain post ici).

Conclusion

Habituellement nous n'écrivons pas sur les nobels, la presse et d'autres blogs font ce boulot et dans l'ensemble c'est plutôt bien. Comme toujours nos blogs préférés ont été irréprochables. Deux heures après l'annonce du Nobel, A. Delaigue avait déjà fait le job, Martin Anota s'est mis à la traduction de la note technique du comité, le Captain' avait des super super réponses, Dave Giles faisait tourner R, Chris Blattman nous racontait quelques savoureuses anecdotes et Fine Theorem était plus que fine, com d'hab. Mais côté presse, nous avons été vraiment déçu. L'article le plus mauvais est venu du Figaro qui n'explique à aucun moment les travaux de Deaton... et puis c'est vraiment limité comme info, illustration (avec "homme blanc aux yeux bleus"):


S'il est incontestablement problématique que le portrait robot soit si facilement identifiable, on pourrait attendre d'un journal de qualité (?) qu'il soit moins caricatural et qu'il se pose des questions allant au delà du Nobel qui n'est que le reflet du passé de notre profession.
Il est effectivement désespérant que notre profession soit systématiquement tournée vers quelques grandes fac américaines et quelques grandes revues (américaines aussi), il est aussi fort dommageable que les individus élevés au rang de super-star soit souvent des hommes enseignants aux Etats-Unis, mais il y aussi une vie à côté de cette tendance dominante et je crois que les choses évoluent dans le bon sens (alors certes pas assez vite). Pour conclure on doit vous avouer que, toutes choses n'étant hélas pas égales par ailleurs, Angus Deaton est bien notre Almost Ideal lauréat.

Sans vergogne, piquons à A Delaigue son excellent disclamer:

et surenchérissons avec du Krugman:

"Oh, and cue the usual complaints that this isn’t a “real” Nobel. Hey, this is just a prize given by a bunch of Swedes, as opposed to the other prizes, which are given out by, um, bunches of Swedes."


F. Candau



Biblio (en vrac et non exhaustive, c'est un blog!)

  • Deaton A. 1979, The distance function in consumer behaviour with applications to index numbers and optimal taxation, Review of Economic Studies 46: 391—405.
  • Deaton, A. 1992. Understanding Consumption. New York: Oxford University Press.
  • Deaton A. 2008, Income, health, and well-being around the world: Evidence from the Gallup World Poll, Journal of Economic Perspectives 22: 53-72.
  • Deaton A. 2010, “Price indexes, inequality, and the measurement of world poverty, ”American Economic Review 100: 5–34.
  • Deaton A. 2011, “The fi…nancial crisis and the well-being of Americans,” Oxford Economic Papers.
  • Deaton A., A. Heston 2010, “Understanding PPPs and PPP-based National Accounts,”American Economic Journal: Macroeconomics 2: 1–35.
  • Deaton A., J. Muellbauer 1980, Economics and consumer behaviour, Cambridge.
  • Feenstra, R. 2003. A Homothetic Utility Function for Monopolistic Competition Models, Without Constant Price Elasticity, Economic Letters 78, 79-86.
  • Feenstra, R. 2009. Measuring the Gains from Trade under Monopolistic Competition, Presented as a "State of the Art" lecture to the Canadian Economics Association.
  • Féménia, F. Gohin,A. 2009. Estimating censored and non homothetic demand systems: the generalized maximum entropy approach, WP SMART - LERECO 200912, INRA UMR SMART
  • Novy, D. 2010.a, International Trade without CES: Estimating Translog Gravity, CESifo Working Paper

13 avril 2015

L'incroyable commerce des petites bêtes

En 1952 James Meade écrit un papier théorique sur les externalités positives qu'il illustre avec un exemple qui est au cœur de ce post. Les externalités positives sont à l'opposé des pollutions, ce sont des situations où si on laisse les individus poursuivre leurs propres intérêts, ils produiront une quantité trop faible d'un bien qui est pourtant bénéfique pour toute la société. La main invisible ne fonctionne plus, le marché est défaillant. Habituellement on pense à la R&D. Meade aurait peut-être pu prendre l'exemple de la pile voltaïque et, un brin futuriste, aurait pu regretter que la faiblesse de la R&D ne le prive d'une voiture électrique efficiente. Plus terre à terre, il choisit l'abeille et le pommier.*

Imaginez un champ de pommier et juste à côté un apiculteur. Les abeilles pollinisent les fleurs du pommier et assurent ainsi la production de pommes. Mais notez surtout que le pollen assure aussi la production de miel. Pour Meade c'est ce derniers lien qui est central. Selon ce disciple de Keynes, nobellisé en 1977, si l'on double l'exploitation de pommiers, la quantité de miel pourrait doubler. Par contre, si l'on double le nombre d'abeilles, il y a peu de chance que le nombre de pommes soit multiplié par deux. Pour Meade l'affaire est entendue, l'apiculteur bénéficie d'une externalité positive, ses abeilles se nourrissent gratos chez le voisin et tout le monde en profite en petit déjeunant des tartines au miel (bah, ok, peut-être des miel pops) à moindre coût. Subventionnons donc cette bonne poire:

"The apple-farmer is paid less than the value of his marginal social net product, and the
bee-keeper receives more than the value of his marginal social net product. [...] Capitalists in apple-farming should be subsidised because the unpaid benefits which they confer upon the bee-keepers more than outweigh the unpaid benefits which they receive from labour and capital employed in bee-keeping." Meade (1952)

Si l'on quitte maintenant la période bénie de Meade (1952!), et que l'on suppose que les insecticides (et autres facteurs) ont tué en masse les abeilles, on se rend rapidement compte que l'externalité joue aussi fortement dans le sens inverse. Sans ces petites bêtes, la pollinisation devient difficile et la production fruitière est moins productive. Pour le bien-être social, il n'y a pas assez d'abeilles, il faut donc aider les apiculteurs.

Mais au fait la subvention est-elle la seule solution? Deux autres solutions peuvent être complémentaires pour résoudre les problèmes d'externalité, la première est la réglementation (ici concernant les insecticides) la seconde proposée par Coase est de créer un marché. Paradoxal, non ? Approfondissons. Pour Coase, si les coûts de transaction sont suffisamment faibles et si les droits de propriété sont clairement définis alors les externalités peuvent être internalisées par des contrats privés. Avec la formidable baisse des coûts de transport, il est devenu possible d'acheter des abeilles et de les transporter d'un coin des USA à un autre, simplement pour booster la production agricole (voir photo ci-dessous pour illustration).

Oups...ça va piquer

Un marché international s'est même développé, les abeilles ont un prix et plus elles sont rares, plus elles sont chères d'où une incitation à investir dans ces petites bestioles...

Commerce international d'abeille

Pour ce qui est du commerce inter, allons sur le site des Nations Unies, Comtrade, à Live Animals, il y a nos chères bees (code 010641). Notons que les importations et les exportions ne sont pas totalement comparables, les imports sont en CIF (Cost, Insurance and Freight) et incluent donc les coûts commerciaux alors que les exports sont en FOB (Free on Board) soit sans les frais de transport et d'assurance.** Ci-dessous les exportations et importations des Etats-Unis vers le monde et idem pour la France sur les années 2012-2014 (pas de données avant).

Première constatation, il existe bel et bien un commerce international d'abeilles vivantes. Les Etats-Unis exportent ainsi des abeilles pour une valeur de 7 millions de dollars (le principal partenaire est le Canada)! Les USA sont un exportateur net, ce qui n'était pas évident compte tenue des difficultés rencontrées par les apiculteurs dans les années récentes. En effet les colonies d'abeilles américaines ont été affectées par un syndrome d'effondrement important (colony collapse disorder), dans les années 2006-2007 près de 30% de la population a été décimée. Mais pour reprendre l'expression de Meade (et HOS) il semble que la spécialisation agricole induise un avantage relatif via un "unpaid factor of production" (le pollen de la prod agri) qui, allié sans doute à un investissement important, a permis cette position d'exportateur net.

La France est un plus petit acteur et elle est importatrice nette. Poursuivons notre étude de l'Hexagone concernant l'importation d'un autre insecte pour en analyser ses effets.



Conséquences des importations de coccinelles asiatiques en France

Non seulement il y a un commerce d'abeilles, mais il y a aussi un commerce de coccinelles dont les motivations ne sont pas si éloignées de l'exemple précédent. Selon l'une des légendes qui entoure cet insecte, au moyen-âge alors que les pucerons mettaient en péril les récoltes, les fermiers auraient prié pour une solution miraculeuse et c'est alors qu'un essaim de coccinelle les auraient sauvé de la famine en dévorant les nuisibles, d'où leur nom de "bêtes à bon Dieu". A notre époque où la diminution des pesticides semble nécessaire, il est apparu intéressant d'utiliser ce porte bonheur. Nos coccinelles européennes (cocs à deux points) étant peu voraces, on a importé des coccinelles asiatiques, dénommées Harmonia axyridis.


Seul problème, l'espèce est devenue invasive... Maia David, que nous avons le plaisir d'accueillir dans notre labo cette année, nous a présenté son article sur le sujet et l'invasion est indéniable comme en témoigne ces cartes issues de son étude co-écrite avec Raja Chakir, Estelle Gozlan et Aminata Sangare.


Même la Corse est touchée par l'invasion.
Est-ce un problème? Ces coccinelles sont une atteinte à la biodiversité (disparition de la coccinelle indigène), elles s'installent dans les maisons, tâchent les murs de pigments rouges, dégagent un gaz désagréable mais surtout, et c'est là que ça devient inadmissible dans notre pays, elles s'attaquent aux vignes! Prises en flag ci-dessous, vous remarquerez comment elles s'incrustent aux raisins, une fois vendangées et broyées, elles confèrent au vin un goût âcre...  Cette expérience montre que l'échange international du vivant peut parfois être problématique et a largement dépassé nos anticipations.
En fait, les nuisances sont telles que Chakir et al. (2014) montrent à l'aide d'une méthode de choice experiment, que le consentement à payer de la population française (l'échantillon est représentatif de la pop française et pas seulement d'une région ou d'un groupe, ce qui est rare dans ce type d'étude) pour réduire la population de cette ladybird est loin d'être négligeable.

Bon alors, on fait quoi?

Il n'y a évidemment pas de réponse simple. Lutter contre les externalités négatives, favoriser les externalités positives sont hélas des concepts largement plus faciles à énoncer qu'à appliquer.



F. Candau


Notes de bas de post

*Simplement pour vous faire lire du Francis Bacon, voici une citation sur l'abeille et les économistes de The Economic Journal dans lequel Meade a publié son article:

"Those who have handled the sciences have been either Empiricists or Rationalists. Empiricists, like ants, merely collect things and use them. The Rationalists, like spiders, spin webs out of themselves. The middle way is that of the bee, which gathers its material from the flowers of the garden and the field, but then transforms and digests it by a power of its own. And the true business of philosophy is much the same, for it does not rely only or chiefly on the powers of the mind, nor does it store the material supplied by natural history and practical experiments untouched in its memory, but lays it up in the understanding changed and refined. Thus from a closer and purer alliance of the two faculties- the experimental and the rational, such as has never yet been made- we have good reason for hope".

** En soustrayant les exportations des USA vers le monde qui sont en CIF, des importations du monde en provenance des USA qui sont en FOB (non reportée ici, voir comtrade), vous obtiendrez une approximation des coûts commerciaux au commerce d'abeille américain, assurance (d'abeille) incluse.

23 février 2015

Sauver les médias


Je viens de lire l'ouvrage de Julia Cagé sur "sauver les médias". Julia Cagé est une économiste iconoclaste, elle a par exemple écrit des articles contre la libéralisation commerciale dans les pays en développement et contre la concurrence dans les médias (voir sa page pour plus de détails). Dans cet ouvrage elle poursuit cette dernière thèse et montre que la concurrence a eu pour effet de diminuer la quantité (nombre de pages, de mots, d'articles) et sans doute la qualité du journalisme. Elle a d'ailleurs un petit passage en forme de pique pour tout ceux qui défendent à tout crin la concurrence: "combien, en effet, sont ceux (majoritairement des économistes) qui, face à la baisse du nombre de journalistes, haussent les épaules et considèrent que cette baisse reflète une augmentation des gains de productivité? En d'autres termes: "c'est une très bonne nouvelle, chaque journaliste pris individuellement se débrouillera pour produire davantage d'articles en un laps de temps plus réduit. Les journaux peuvent diminuer leurs coûts et augmenter leur rentabilité en réduisant les effectifs"".

Mais qu'ils sont méchants ces gens (majoritairement des économistes)...Il n'empêche, je me suis senti concerné, pas vraiment par le passage "gains de productivité" mais pour avoir beaucoup hausser les épaules. Pourquoi sauver les médias? Parce qu'ils sont en crise? Parce que la qualité de l'info diminue? Mouais... Obsession du déclin et de la catastrophe... encore et toujours. Zola, sans Twitter et les chaînes d'info en continu, flippait déjà: "Le flot déchainé de l'information à outrance a transformé le journalisme, tué les grands articles de discussion, tué la critique littéraire, donné chaque jour plus de place aux dépêches, aux nouvelles grandes et petites, aux procès-verbaux de reporters et des interviewers".  

Pourquoi donc faut-il sauver les média? Parce qu'ils fournissent l'info? L'auteure nous le dit avec autorité "Rappelons donc une évidence: sans journalistes, il n'y a pas d'information". Je rehausse les épaules, avec certains journalistes, il y a des infos qui n'en sont pas. Oui, mais alors attention, Julia Cagé nous parle des "vrais" journalistes. Mais qui sont-ils? Quel pourcentage? Comment ce pourcentage évolue t-il? Aussi lorsqu'elle écrit "Qu'est-ce qui distingue un journaliste - un vrai - d'un blogueur du dimanche?" j'aurais tendance à répondre, qu'en l'absence de toute quantification et définition du "vrai" journaliste (et du "blogueur du dimanche"), il n'y a pas de grande différence. Bref, je reste persuadé que ce livre aurait gagné à définir et analyser davantage les "vrais" journalistes, ceux qui nous font un peu rêver, car sans ces journalistes du haut de la distribution, on a pas vraiment envie de sauver les médias.

De plus, tant qu'on y est, pourquoi ne pas parler du bas de la distribution, car au delà du danger lié à une accaparation de l'info par de riches millionnaires, il y a un autre danger, tout aussi important pour la démocratie: les gens s'informent de plus en plus sur des médias "alternatifs" qui désinforment totalement, mentent outrancièrement, attisent la haine etc... Vous pouvez bien penser que les deux choses sont reliées, peut-être, en partie, mais je pense qu'une étude spécifique de ces médias (et une réflexion sur comment les discréditer) est aussi importante pour savoir comment sauver "les" médias et préserver une démocratie éclairée. Les intellectuels fr ont trop tendance à mépriser la fachosphère du net, mais ce n'est pas en l'ignorant qu'elle n'existe plus, pour sauver les médias il aussi faut s'attaquer à cet autre mal.
On trouve la réponse au "pourquoi" sauver les médias dans les chapitres 2 et 3, il faut sauver les médias parce qu'ils sont essentiels à la démocratie. C'est assez convaincant, il y a une multitude d'exemples, le Tea Party qui a la main sur Fox, des journaux locaux qui disparaissent aux USA et qui laissent une corruption locale non couverte... et l'on repense à toutes ces affaires qui sont sorties en France grâce aux médias.

En bref, on finit par adhérer. Le livre est bien documenté, il y a une multitude de stats qui intéresseront tous ceux qui veulent en savoir plus sur ce secteur. Pour mes étudiants en microéconomie, c'est un ouvrage qui permettra d'illustrer plusieurs concepts (sans aucune équation!). L'information contenue dans les journaux était par le passé privée, elle est devenue un bien public avec l’avènement d'internet. Un bien public est un bien qui a perdu ses caractéristiques d'exclusivité et de rivalité. Il ne peut plus être rentable. Julia Cagé nous décrit plusieurs expériences dans divers pays visant à rendre les journaux plus profitables. Le chapitre 3, dernier chapitre de ce petit ouvrage, est celui qui m'a le plus plu. L'auteure illustre comment le mode de gestion influence la fourniture d'information et c'est passionnant. Elle présente notamment les méfaits des introductions en bourse, comme celle du Chicago Tribune qui a vu sa valorisation augmenter mais moins vite que son chiffre d'affaire, entraînant inévitablement une pression sur les coûts et une réduction des dépenses (=moins de journalistes). De plus, pour être rentable une stratégie de niche visant à cibler les lecteurs les plus aisés s'est faite au détriment d'un accès pour tous à l'information avec une hausse des tarifs des abonnements. Pire, certains sujets d'actu, étant considérés comme de faible intérêt pour cette classe aisée, ne sont plus traités.  Après avoir résumé d'autres modes de financement et de contrôle, Julia Cagé en vient à sa proposition d'un nouveau statut. Elle propose un mode de gestion à but non lucratif où les apports en capitaux seront pérennisés et où les droits de vote des gros actionnaires seront minorés par rapport à des petits actionnaires tels que les journalistes et les lecteurs ayant fait du crowdfunding. Excellente idée!

Fabien Candau
Référence: la citation de Zola provient de l'ouvrage de July "Dictionnaire amoureux du journalisme" qui adopte une intéressante perspective historique et personnelle du journalisme.

05 mai 2014

Un hommage d'enfer à Becker


Gary Becker vient de décéder. Ce lauréat du prix nobel d'économie (et blogueur de 83 ans) était soit adulé, soit détesté pour ces applications microéconomiques à des thèmes tels que le mariage ou la criminalité (il a eu aussi des contributions plus conséquentes sur l'éducation et le capital humain).

Je connais peu ses écrits (voir Brenda Cronin et Justin Wolfers pour un résumé) mais j'aime son idée de pousser le raisonnement économique dans des domaines à la frontière de l'économie (en évitant cependant l'impérialisme). Aussi pour son passage dans l'au delà mon hommage ne sera pas de vous faire une recension de ses travaux, mais de vous faire un petit topo sur un livre que j'ai lu récemment "THE MARKETPLACE OF CHRISTIANITY" d'Ekelund, Hébert et Tollison (2008, MIT press) qui est l'un des premiers ouvrages d'économie des religions. Oui, c'est étrange comme thème....

La thèse de base est qu'il existe un marché des religions. Les auteurs considèrent que de nombreux concepts de la science économique peuvent s'appliquer à la religion, à commencer par le fait qu'il y a une demande et une offre. Côté offre, il y a concurrence entre les différentes religions (ici les religions chrétiennes), avec des innovations et des imitations d'une religion à l'autre. Côté demande, certains individus ont une demande de surnaturel (vie après la mort...) et d'autres ont une demande plus intellectuelle, une réflexion sur eux et sur la société...

Le chapitre I est introductif. Le chapitre II réalise un tour d'horizon des économistes qui ont déjà abordé la religion, vous y trouverez le premier des classiques (Smith) et le derniers (Marx) et évidemment Weber (qui contrairement à ce que l'on lit parfois ne défendait pas un lien univoque entre protestantisme et croissance économique).

Le chapitre III commence avec cette citation qui résume bien le début du chapitre "I don't want realism. I'll tell you what I want. Magic!", où les auteurs tentent une définition de la religion, puis ils utilisent plusieurs concepts d'économie pour affiner cette définition.

La religion est ainsi considérée comme un "bien club", au sein d'un groupe, les agents ont des préférences proches, ils partagent des expériences communes, parfois ils échangent des contacts professionnels. Comme dans tous les clubs, il y a aussi des passagers clandestins qui profitent du bien commun sans contribuer. Pour pallier à ces comportements, les religions adoptent différentes stratégies avec plus ou moins de succès.

Le marché des religions a aussi tendance à être dominé par des religions "superstars". Comme le note les auteurs cela est dû aux externalités de réseaux liées au fait que la satisfaction est d'autant plus grande que la croyance est partagée (l'effet "ouf, c'est pas une secte" associé aux effets clubs pré-cités). Evidemment les monopoles sont souvent publics (ou l'ont été)...

Le bien religieux s'approche aussi de la définition que les économistes ont des biens assurantiels, du moins en terme de demande. Face à un avenir incertain (en termes de revenu, d'amour, de survie etc) les individus vont avoir une demande de religion de sorte à s'assurer un soulagement à leur turpitudes.

Le chapitre IV propose des études de cas visant à analyser les changements de forme des religions (vous y trouverez une analyse du passage au mono-deisme sous Akhenaton, puis on rentre dans le christianisme avec une distinction catholique/protestant qui est au coeur du livre).

Le chapitre V est voué à l'entrée du protestantisme sur le marché des religions et le chapitre VI à la réaction du leader, l'église catholique et sa réforme (1555-1648). Le chapitre VII traite de l'évolution du follower soit une concurrence spatiale et quelques changements organisationnels au sein du protestantisme. Le chapitre VIII revisite Max Weber et le lien entre religions et performances économiques. Le derniers chapitre conclut sur cette concurrence des religions au sein du christianisme.

Au final, je ne conseille pas vraiment ce bouquin, qui est tout de même un peu long et qui déçoit une fois que l'on a passé le premier stade de la découverte d'une application nouvelle.

Cette recension était cependant l'occasion parfaite pour rendre un derniers hommage à Gary Becker qui a influencé ce type d'analyse (pour le meilleur et pour le pire) où les instruments de l'économie sont utilisés pour regarder d'un œil nouveau des thématiques centrales dans d'autres disciplines. C'est aussi l'occasion de lire de l'économie tout en se cultivant (à la marge dirait-on en private joke).

Voir ici un lien où Michel Foucault commente en 1979 les travaux de G Becker.

17 février 2014

Economie numérique, le bouquin à lire, le blog à suivre

Une fois n'est pas coutume me voilà en situation de vous faire la recension d'un ouvrage dont je connais bien l'un des auteurs, Sylvain Dejean (on a fait notre thèse en même temps) qui a coécrit avec Godefroy Dang Nguyen: "Le Numérique, Economie du partage et des transactions" publié chez Economica.
Ladej (son pseudo Twitter donné par un pote rappeur qui coupait la fin des noms et rajoutait "la" au début), passionné par l'économie numérique, a réalisé une thèse sur les biens culturels, le piratage et l'émergence des communautés virtuelles. Puis, il a décroché un post-doc à Rennes avant d'intégrer l'un des labos de référence en France sur les technologies de l'information et de la communication (ici). Aujourd'hui, il est maître de conférences à La Rochelle et compte bien dynamiser ses cours en bloguant sur l'économie numérique (le blog du bouquin est ici).

Le chapitre 1 définit les termes du débat, le numérique est une économie de l'information et de la connaissance, où les biens produits ont les caractéristiques de biens publics et où les monopoles ont tendance à naître compte tenu des coûts fixes importants. Les auteurs mettent ensuite en avant l'importance de cette économie de la connaissance pour la croissance économique. De mon point de vue ce chapitre n'est pas le plus réussi, c'est un peu le bazar, certains éléments auraient pu faire l'objet de chapitres séparés (typiquement le lien connaissance/croissance), bref, le meilleur est à venir.

Le chapitre 2 traite des réseaux, il est passionnant, mêlant analyse économique et sociologique. Après avoir défini les effets réseaux, les auteurs partent des éléments constitutifs: les liens forts et faibles entre agents (pour reprendre les termes de Putnam (2001) le bridging et le bonding), pour ensuite analyser la structure des réseaux (les hubs, les cliques, trous structuraux, la théorie des graphes etc). Il y a dans ce chapitre des phrases qui donnent envie de se lancer dans la recherche en analyse structurale des réseaux, qui je cite, "a pour objet de comprendre comment les individus établissent leurs réseaux de relation et, ce faisant, créent ou font évoluer des structures sociales qui contraignent à leur tour leur comportement futur".

Le chapitre 3 est essentiel, il traite du système technique d'internet. L'architecture du net y est précisément décrite, son découpage horizontal avec un contrôle par les extrémités permet d'expliquer le caractère inédit d'internet et les effets réseaux qu'il a crée. Le chapitre conclut avec l'apparition des plateformes mises en place par les membres de la GAFAM (Google, Amazon, Facebook, Apple, Microsoft) qui ont tendance à verticaliser le net et mettent ainsi à mal le vecteur d'innovation passé (avec un impact non négligeable sur la neutralité du net).

Le chapitre 4 analyse la société numérique. Quelles sont les motivations des contributeurs du net? De purs égoïstes narcissiques, de purs altruistes? Les auteurs illustrent la diversité des agents qui évoluent sur le net, et montrent comment les communautés virtuelles s'organisent pour contraindre les égoïstes qui ont souvent des comportements de passager clandestin délétère pour le bien commun. La sanction est l'arme nécessaire qui permet aux "restituteurs forts" de dompter les comportements opportunistes et de forger l'économie du partage. Les travaux d'une Nobel, E. Ostrom, y sont présentés ainsi que les questions shakespeariennes de l'identité numérique.

Le chapitre 5 étudie l'organisation des marchés sur le net. On passe donc du côté de l'offre, du e-commerce et des chaînes de valeur avant d'aborder la fixation des prix. Les mécanismes d'enchère y sont présentés ainsi que le rôle des plateformes.

Le chapitre 6 découle naturellement du précédent, il porte sur les institutions d'Internet et détaille entre autres, les caractéristiques de l'ICANN et son contrôle des noms de domaines (du moins des TLD, i.e. ".com", ".fr" etc). Puisqu'il est question de gouvernance, la neutralité du net refait surface en fin de chapitre.

Le chapitre 7 est ambitieux: lier l'économie géographique à l'économie numérique. Le mariage est possible mais la chose n'est pas aisée, passer de l'ICANN à Krugman (1991) est un peu rude. Pourtant dans le fond, c'est passer de la description du net à ses conséquences sur les choix de localisation. Je tente l'expérience (attention auto-promo): les bons modèles d'éco géo (Candau, 2011; voir aussi Candau, 2008 pour un survey) montrent que la baisse des coûts aux échanges (la révolution des transports, des TIC etc) entraîne une dispersion des activités. En effet pourquoi s'agglomérer dans des lieux où les prix du foncier sont exorbitants (Paris) si vous pouvez avoir accès à toutes les technologies, à l'information et à la demande à partir de lieux où votre pouvoir d'achat est plus grand (Rennes)? C'est la raison pour laquelle depuis plus de 50 ans la France concentre de moins en moins d'activités au niveau national. C'est aussi la thèse de Combes, Lafourcade, Thisse et Toutain (2011) qui montrent que l'image d’Épinal de Paris et du désert français n'est plus d'actualité. En fait, le pic d'agglomération des activités remonte aux années 30, depuis c'est la dispersion! Mais si les activités sont de moins en moins concentrées à l'échelle des nations (ce phénomène est vrai en Europe et aussi aux USA), elles sont par contre de plus en plus concentrées au niveau des régions. Aujourd'hui on pourrait facilement parler de Toulouse et de son désert régional par exemple. Cette distinction dispersion/agglomération au niveau nation/région est vraiment importante pour comprendre à quelle échelle ont lieux les interactions spatiales.

Se pose alors la question des clusters au sein des métropoles et les auteurs présentent l'emblématique Silicon Valley. Rajoutons un chaînon à la discussion qui aborde les travaux de Saxenian, auteur incontesté et passionnant sur ce sujet. Il me semble qu'un intérêt central de l'oeuvre de Saxenian (1999) est de montrer l'important apport de l'immigration dans la success story de la Valley. Près de 40% des entrepreneurs étaient asiatiques. Leurs atouts étaient d'avoir à la fois un pied en Asie et d'être intégré à la communauté high-tech américaine. Si tant de clusters ont échoué ailleurs dans le monde, c'est justement parce que ce fait n'a pas été suffisamment observé. Voici ce qu'en dit Saxenian:

"The traditional image of the immigrant economy is the isolated Chinatown or “ethnic enclave” with limited ties to the outside economy. Silicon Valley’s new immigrant entrepreneurs, by contrast, are increasingly building professional and social networks that span national boundaries and facilitate flows of capital, skill, and technology. In so doing, they are creating transnational communities that provide the shared information, contacts, and trust that allow local producers to participate in an increasingly global economy".

Le liens entre les réseaux ethniques des migrants et le réseau américain est encore plus clair dans ce passage:

"Many Chinese and Indian immigrants socialize primarily within the ethnic networks, but they routinely work with native engineers and native-run businesses. In fact, there is growing recognition within these communities that although a start-up might be spawned with the support of the ethnic networks, it needs to become part of the mainstream to grow. It appears that the most successful immigrant entrepreneurs in Silicon Valley today are those who have drawn on ethnic resources while simultaneously integrating into mainstream technology and business networks"

Le lieu des clusters n'a intrinsèquement aucune importance, ce qui compte c'est la connexion au reste du monde, aux autres réseaux. Ce qu'il y a de passionnant dans cette histoire, c'est que les mécanismes de coopération et de sanction que Sylvain et Geodefroy mettent en avant dans l'économie numérique étaient au cœur des associations chinoises et indiennes au sein de la Silicon. Voici typiquement les propos d'entrepreneurs interviewés par Saxenian (1999):

“Doing business is about building relationships, it’s people betting on people, so you still want to trust the people you’re dealing with. A lot of trust is developed through friendship and professional networks like school alumni [...] if you don’t fulfill your obligations, you could be an outcast . . . the pressure of, hey, you better not do this because I’m going to see you at the temple or sitting around the same coffee table at the TiE meeting . . . and I know another five guys that you have to work with, so you better not do anything wrong".

Voilà, je complète la discussion sur "Le Numérique" simplement pour ne pas passer pour le béat de service. Cet ouvrage a du nécessiter des mois de travail et des choix difficiles sur les choses à traiter et à approfondir au confluent de diverses disciplines. Bravo aux auteurs, il ne fait aucun doute que ce premier traité d'économie numérique en langue française va devenir une référence.

F. Candau
ps: ci-dessous, en spécial dédicace, une vieille photo de l'auteur (légèrement retouchée... se voyait-il déjà au firmament?) et du critique.
Références (à citer dès que vous parlez d'éco géo ;-))
  • Candau, F., 2011. Is Agglomeration Desirable? Annals of Economics and Statistics, vol 101/102, 203-22. Ici ou ici dès fois que le premier lien soit gated
  • Candau, F., 2008. Entrepreneur's Location Choice and Public Policies, a Survey of the New Economic Geography. Journal of Economic Surveys, 2008, vol 22, 5, 909-952.

03 février 2014

Economie du vin, à lire sans modération

L'économie du vin est un domaine particulièrement intéressant pour l'analyse économique. Commençons par l'information imparfaite qui y règne en maître expliquant prix et organisation.
Le vin est un bien d'expérience comme le définissait Nelson (1970), c'est à dire un bien dont la qualité ne peut pas être connue avec certitude avant consommation (ex-ante). Il peut aussi parfois avoir les caractéristiques d'un bien de croyance, soit un bien dont on ne peut même pas évaluer la qualité après consommation (typiquement lorsqu'un néophyte après dégustation vous dit "j'y connais rien, mais il est bon" en lisant l'étiquette ou en vous narrant les commentaires du vendeur).
Cette information imparfaite conduit les consommateurs à se faire une idée de la qualité en considérant un prix moyen, de prime abord un prix élevé est donc un signal de bonne qualité. Mais rien n'empêche les mauvais producteurs de vendre leur piquette à un prix élevé pour se faire passer pour ce qu'ils ne sont pas. Pour légitimer leur prix, les producteurs de bon vin vont exhiber leurs coût de production (du moins auprès des experts), démontrant ainsi qu'ils ont réalisé des investissements hors de portée des producteurs low-costs. Pour ceux qui sont intéressés par ces interactions, voir l'article de Mahenc et Meunier (2006) qui appliquent finement les concepts de l'économie industrielle à l'économie du vin.

En ce qui concerne l'organisation du secteur, l'information imparfaite explique l'existence de plusieurs emplois intermédiaires entre les producteurs et les consommateurs dont notamment la profession d'expert. Leur fonction est de restaurer l'information. Seul hic, ces mêmes experts peuvent manipuler/fausser le marché. L'effet Parker, du nom de Robert Parker l'éditeur de wine advocate, est ainsi très connu tant son jugement influence les prix. Selon Ali, Lecocq et Visser (2008) qui utilise une expérience quasi-naturelle, ce gourou nous coûterait en moyenne 3 euros par bouteille de Bordeaux.

Outre cet effet direct de l'expérience, le vin est aussi un investissement plus ou moins risqué, un vin de garde par exemple révèle ses qualités en veillissant, il est donc "plus ou moins" difficile de prédire ses carastéristiques sur le long terme. Pourquoi "plus où moins"? Pour une raison simple (et encore une fois on retourne aux fondamentaux), la prédiction est possible mais il faut connaître les caractéristiques de l'offre. Ashenfelter (2008) montre ainsi qu'une simple équation économétrique intégrant les caractéristiques des sols et les conditions climatiques expliquent 80% de la variation moyenne des Bordeaux. L'auteur montre aussi comment les experts ont par le passé négligé ces caractéristiques qui constituent pourtant l'essence de la qualité d'un vin. Gergaud et Ginsburgh (2008) affinent l'analyse et montrent que les dotations du sol ne sont rien en comparaison du travail des vignerons, la qualité d'un vin est davantage une question de technique qu'une question de nature. Evidemment il n'y a rien de révolutionnaire dans ces découvertes, Vauban sous Louis XIV ne disait-il pas que "le meilleur terroir ne diffère en rien du mauvais s'il n'est cultivé" (cette citation est empruntée à cet article).
Pour conclure, comment expliquer la forte augmentation des prix observés dans les années 2000 sur les 1000 plus grands vins du monde (voir graph ci-dessous)?

Cette forte augmentation peut en partie s'expliquer par la croissance des revenus dans les pays émergents*. Les grands crus sont des produits de luxes, c'est à dire des biens dont l'élasticité revenu est supérieure à un, d'où un effet direct et puissant de la croissance sur les prix. En effet puisque la demande pour ces vins augmente encore plus vite que les revenus et que l'offre est fixe sur le court terme, les prix ont flambé. Je vous laisse faire le graphique offre/demande. Rajoutez à ceci que les vins sont des placements financiers (liquides) assez prisés et vous voilà en mesure d'expliquer la hausse des prix (puis stagnation) du vin avec des arguments micro de base.

F. Candau

*que l'on pourrait résumer par "pour cent BRICs, t'as du vin", dès lors plutôt normal que les lendemains soient difficiles

Références
  • Ali, H. H., Lecocq, S. and Visser, M. (2008), The Impact of Gurus: Parker Grades and En Primeur Wine Prices. The Economic Journal, 118: F158–F173.
  • Ashenfelter, O. “Predicting the quality and prices of Bordeaux wine. The Economic Journal 118
  • Gergaud, O and Ginsburgh, V (2008), “Endowments, production technologies and the quality of wines in Bordeaux. Does terroir matter?”, The Economic Journal 118, 142-157.