28 août 2014

AU PAYS DES INÉGALITÉS

Le capital du XXIe siècle (18) – Inégalités (Best of - Billets parus entre 2 et 17/7/14)
Poursuite de ma promenade au sein du livre de Thomas Piketty après la croissance et le capital, parlons des inégalités.
Nous en arrivons donc au thème des inégalités, celui dont on a le plus parlé au sujet du livre de Thomas Piketty, Le capital du XXIe siècle.
D’abord rien ou presque, puis l’immobilier, les actifs financiers tout en haut…
Première observation de Thomas Piketty, les inégalités face au capital sont toujours plus fortes que face au revenu :



« Pour donner un premier ordre de grandeur, la part des 10 % des personnes recevant le revenu du travail le plus élevé est généralement de l’ordre de 25 %-30 % du total des revenus du travail, alors que la part des 10 % des personnes détenant le patrimoine le plus élevé est toujours supérieure à 50 % du total des patrimoines, et monte parfois jusqu’à 90 % dans certaines sociétés.
De façon peut-être plus parlante encore, les 50 % des personnes les moins bien payées reçoivent toujours une part non négligeable du total des revenus du travail (généralement entre un quart et un tiers, approximativement autant que les 10 % les mieux payés), alors que les 50 % des personnes les plus pauvres en patrimoine ne possèdent jamais rien – ou presque rien (toujours moins de 10 % du patrimoine total, et généralement moins de 5 %, soit dix fois moins que les 10 % les plus fortunés).  »
Ainsi la moitié inférieure de la société ne posséderait que sa force de travail, et n’aurait accumulé aucun capital.
Une autre différence importante, cette fois à l’intérieur du capital, est la différence de sa composition en fonction de sa taille. Aujourd’hui, dans nos sociétés développées, le patrimoine net moyen est d’environ 200 000 € par adulte, et il est composé pour 2/3 par de l’immobilier, et 1/3 par des actifs financiers et professionnels.
Que devient cette répartition si on analyse par niveau de richesse ?
Les plus pauvres qui représentent 50% de la population ne détiennent que 5% du capital total, et pour eux le patrimoine moyen par adulte n’est que 20 000 €. Le plus souvent, ce sont des locataires, et leur patrimoine est composé de biens durables comme du mobilier ou une automobile. La part supérieure peut être propriétaire de son appartement, mais il est grevé des emprunts restant à rembourser, d’où un actif net modeste.
Les 40% suivants qui détiennent 35% du capital total, ont un actif moyen de 175 000 €. C’est au sein de cette tranche qu’apparaissent les premiers réels actifs financiers et économiques : quand le patrimoine dépasse les 300 000 €, l’immobilier représente encore l’essentiel, mais le patrimoine financier devient significatif, surtout quand les emprunts ont fini d’être remboursés.
Venons en maintenant aux 10% les plus favorisés. Leur patrimoine moyen est de 1,2 M€. Zoomons au sein de cette tranche.
Les premiers 9% ont un patrimoine de 900 000 €, versus 5M€ pour le 1% du haut. Ils sont tous propriétaires de leur appartement. Mais alors que les actifs immobiliers représentent de la moitié aux trois-quarts du patrimoine des premiers 9%, pour le décile supérieur, ce sont les actifs financiers et professionnels qui dominent : « Entre 2 et 5 millions d’euros, la part de l’immobilier est inférieure à un tiers ; au-delà de 5 millions d’euros, elle tombe au-dessous de 20 % ; au-delà de 20 millions d’euros, elle est inférieure à 10 %, et les actions et parts constituent la quasi-totalité du patrimoine.  »
Des populations qui partagent le même territoire, mais n’ont pas les mêmes préoccupations
Résumons en simplifiant la structure du capital telle qu’elle se présente dans un pays développé moyen, c’est-à-dire peu ou prou comme la France.
La première moitié de la population est locataire et n’a pour actif que ce qu’elle met dans l’appartement et dans quoi elle roule.
Puis à partir des patrimoines autour de 100 000€, commence le monde des propriétaires immobiliers, et le poids de cet investissement représente d’abord la totalité, et encore l’essentiel de leur patrimoine, ce jusqu’à 1M€, c’est-à-dire quand on atteint les derniers pourcentages de la population.
Au-delà, pour le dernier %, le poids de l’immobilier baisse, et nous entrons dans le monde des actifs financiers et professionnels, actifs qui deviennent dominants quand on dépasse les 2 M€.
Enfin après 20 M€, l’immobilier devient marginal.
Une autre façon de formuler cela, serait de dire :
- La moitié de la population est préoccupée par le niveau des loyers, et épargne pour meubler son appartement et acheter sa voiture. Aucun capital, uniquement des revenus, donc une très grande sensibilité à toute évolution des conditions de travail, ainsi que des loyers qui constituent une part essentielle des dépenses contraintes (plus de 20% aujourd’hui en France).
- 45% sont préoccupés par la valeur de l’immobilier qui constitue l’essentiel de ses actifs. La chute de la bourse et des placements financiers aura un impact sur leur capital, mais de deuxième ordre par rapport à l’évolution de l’immobilier. Une fois les emprunts remboursés, et si aucun nouveau projet d’agrandissement immobilier n’est nécessaire, une variation des revenus peut être amortie.
D’une société de rentiers à une société de cadres




Que s’est-il passé selon Thomas Piketty en matière de réduction des inégalités de revenus ? Beaucoup à cause des guerres, rien à cause d’un processus structurel de compression des inégalités. Telle est une des thèses majeures de son livre : les inégalités perdurent, et même se développent comme nous le verrons plus loin.
« Dans une large mesure, la réduction des inégalités au cours du siècle écoulé est le produit chaotique des guerres, et des chocs économiques et politiques qu’elles ont provoqués, et non le produit d’une évolution graduelle, consensuelle et apaisée. Au XXe siècle, ce sont les guerres qui ont fait table rase du passé, et non la paisible rationalité démocratique ou économique.  »
Cette assertion est loin de faire l’unanimité aux seins des économistes. Comme un de mes amis me disait dernièrement : « Au temps des rois, seuls les nobles pouvaient lire la nuit. Au dix-neuvième siècle, toute la bourgeoisie le pouvait. Aujourd’hui tout le monde. Belle réduction des inégalités, non ? »
Il est vrai que l’accès au confort et technologies diverses se diffuse de plus en plus…
Sans entrer dans cette polémique entre experts, force est de constater que la tranche où les revenus du capital dominent les revenus du travail ne représente de nos jours que 0,1% des revenus les plus élevés, soit cinq fois moins qu’en 1930, et dix fois moins qu’en 1910.
Mais si les inégalités liées au capital se sont réduites, celles liées aux salaires restent, car, comme Thomas Piketty le rappelle, le salariat n’a jamais été un bloc homogène.
Thomas Piketty ramasse cela en une formule adroite : « Dans une large mesure, nous sommes passés d’une société de rentiers à une société de cadres. » Et il précise : « C’est-à-dire d’une société où le centile supérieur est massivement dominé par des rentiers (des personnes détenant un patrimoine suffisamment important pour vivre des rentes annuelles produites par ce capital) à une société où le sommet de la hiérarchie des revenus – y compris le centile supérieur – est composé très majoritairement de salariés à haut salaire, de personnes vivant du revenu de leur travail.  »
Le monde des super-cadres anglo-saxons




Arrêtons-nous maintenant sur une comparaison au sein des pays développés entre les pays anglo-saxons versus les autres, car depuis les années 70, nous vivons une évolution divergente.
Du côté des pays anglo-saxons, les inégalités de revenus se creusent.
Ainsi selon les calculs de Thomas Piketty, « si l’on cumule la croissance totale de l’économie américaine au cours des trente années précédant la crise, c’est-à-dire de 1977 à 2007, alors on constate que les 10 % les plus riches se sont approprié les trois quarts de cette croissance ; à eux seuls, les 1 % les plus riches ont absorbé près de 60 % de la croissance totale du revenu national américain sur cette période ; pour les 90 % restants, le taux de croissance du revenu moyen a été ainsi réduit à moins de 0,5 % par an. »
Bien plus, c’est le millième supérieur qui a capté l’essentiel : à eux seuls, ils ont absorbé plus de 30% cette croissance. Qui sont-ils ? D’abord des cadres dirigeants, et seulement pour moins de 5%, des sportifs, acteurs ou artistes. D’où une nouvelle formule de Piketty, concernant les USA : « Les nouvelles inégalités américaines correspondent bien plus à l’avènement des « super-cadres » qu’à une société de « superstars ». »
Cette évolution, on la retrouve dans les autres pays anglo-saxons, mais deux à trois fois moins forte.
A l’inverse dans les autres pays développés, aussi bien en Europe qu’au Japon, on ne retrouve pas cette évolution : la part du centile supérieur est sensiblement stable depuis les années 70, ce qui signifie que la captation des revenus s’est fait à due proportion de sa situation antérieure. Les inégalités ne diminuent, ni se creusent.
Même remarque pour le millime supérieur. Ainsi les salaires extrêmement élevés de quelques cadres dirigeants y sont suffisamment rares pour que ceci ne se traduise pas dans les indicateurs macroéconomiques.
En résumé, dans les pays anglo-saxons, l’inégalité des revenus a retrouvé ou est en passe de retrouver les niveaux records des années 1910-1920, alors qu’en Europe continentale et au Japon, elle est beaucoup plus faible et a peu changé depuis 1945.
Ceci est bien résumé par la comparaison entre les États-Unis et l’Europe : la part du décile supérieur évolue de façon synchrone jusqu’en 1970, puis diverge. En 2010, le décile supérieur représente près de 50% des revenus aux USA, contre 35% en Europe.
Une Europe devenue moins inégalitaire en terme de patrimoine que les États-Unis
Passons maintenant aux inégalités de patrimoine.
Là encore, on constate en France, et plus généralement en Europe, que la période des deux guerres mondiales a fortement réduit les inégalités de patrimoine, et que depuis, peu ou prou, la situation est stable, mais toujours avec un fort niveau de concentration :
- 65% du patrimoine est détenu en 2010 par le décile supérieur, contre près de 90% en 1910 et autour de 80% pendant tout le 19ème siècle.
- 25% par le centile supérieur en 2010, contre 60% en 1910, et 45 à 50% pendant le 19ème siècle.



Une autre façon de formuler cette évolution est de dire qu’il faut dix fois plus de personnes pour obtenir le niveau de détention : 10% de la population au lieu de 1% un siècle plus tôt.
Que dire de la comparaison entre Europe et États-Unis ?
D’abord une inversion des positions : l’Europe de 1910 était nettement plus inégalitaire que les États-Unis, le décile supérieur y détenant plus de 60% des biens contre 45%. Cent ans plus tard, de partout les inégalités ont diminué, mais nettement moins aux USA qui se retrouvent plus inégalitaires, avec 35% détenu par le décile supérieur contre 25% en Europe.
Selon Thomas Piketty, c’est cette forte réduction des inégalités, couplée avec la forte croissance qui est à l’origine de l’image si positive des Trente Glorieuses sur le vieux continent : « On a l’impression d’avoir dépassé le capitalisme, les inégalités et la société de classes du passé ». 
Et comme depuis la croissance s’est enrayée et que les inégalités ne régressent plus, nous serions en train de vivre le temps de désillusion. Thèse intéressante et probablement pertinente…
Le retour de l’héritage
Autre angle d’analyse concernant le patrimoine : celui de l’héritage. Quel est son poids ?
Je ne vais pas reprendre ici le détail des calculs de Thomas Piketty qui portent sur l’impact de l’allongement de la durée de vie, de la mortalité due aux deux guerres, du baby-boom qui en a suivi, puis du développement récent des donations.
Je vais me contenter de la synthèse qu’il en fait, c’est-à-dire de la part des patrimoines hérités dans le patrimoine total en France, et dans les ressources totales :
- Avant 1910, ils représentaient 85 à 90 % du patrimoine total, et 24% des ressources totales,
- Entre 1910 et 1970, chute rapide jusqu’à ne plus représenter que 45% du patrimoine, et 10% des ressources,
- Remontée depuis 1970 pour atteindre en 2010, 65% du patrimoine et 22% des ressources.


Ainsi la destruction engendrée par les deux guerres avait fait de la France un pays largement à reconstruire, et donc neuf en quelque sorte. Mais la reconstruction une fois faite, le poids de l’héritage est de retour.
Est-ce à dire que, comme Thomas Piketty le propose, cette part va continuer à croître dans les décennies à venir et que nous allons retrouver le pic de 1910 ? Cela dépendra des ruptures technologiques à venir et de la solidité des patrimoines actuels. Donc difficile d’être aussi affirmatif sur le futur.
Mais ce qui semble clair, est que le poids des héritages est aujourd’hui redevenu important. Ceci ne serait pas gênant si l’on pouvait compenser un handicap en patrimoine, par un avantage en revenu salarial. Malheureusement, et c’est bien un des problèmes de la société française contemporaine, l’un et l’autre ont tendance à se renforcer, l’importance des donations et le fonctionnement de l’Éducation nationale jouant de concert.
Poursuivons l’analyse de cette relation entre héritage et revenu…
Hériter ou travailler ?
Une autre façon d’analyser la relation entre héritage et revenu est de comparer le niveau de vie atteint par les personnes qui ont bénéficié du 1% des héritages les plus élevés, versus par les personnes qui ont atteint les 1% des emplois les mieux payés. Ou formulé plus simplement : pour être riche, vaut-il mieux hériter ou travailler ? C’est ce que Thomas Piketty appelle le dilemme de Rastignac : faut-il faire un bon mariage ou réussir professionnellement ?


Jusqu’en 1870, la réponse est sans appel : le niveau des héritiers favorisés est 2,5 fois plus élevé que celui des salariés favorisés. Donc pas de dilemme : si vous n’êtes pas un héritier et que vous êtes ambitieux, chercher la meilleure dot. Inutile de vous épuiser à faire des études.
Dès 1870, l’écart diminue et s’inverse en 1890, c’est-à-dire avant les deux guerres mondiales. Probablement l’impact de la révolution industrielle. Ainsi pendant plus de 60 ans, la réponse s’inverse : priorité à la réussite professionnelle.
A partir de 1930, et surtout de 1950, le niveau de vie des héritiers se redresse, et finalement à partir de 1970, les deux sont équilibrés : l’inégalité héritée équivaut à l’inégalité professionnelle. Thomas Piketty projette que les héritiers dans les années à venir vont dépasser les professionnels, mais à nouveau ses projections ne sont que spéculatives, et de plus l’écart est modeste.
Retenons donc en tout cas qu’en 2010, si vous êtes bien nés ou avez fait le bon mariage, cela équivaut à la meilleure réussite professionnelle.
Or comme Thomas Piketty l’indique : « Nos sociétés démocratiques s’appuient en effet sur une vision méritocratique du monde, ou tout du moins sur un espoir méritocratique, c’est-à-dire une croyance en une société où les inégalités seraient davantage fondées sur le mérite et le travail que sur la filiation et la rente. Cette croyance et cet espoir jouent un rôle tout à fait central dans la société moderne. Pour une raison simple : en démocratie, l’égalité proclamée des droits du citoyen contraste singulièrement avec l’inégalité bien réelle des conditions de vie, et pour sortir de cette contradiction il est vital de faire en sorte que les inégalités sociales découlent de principes rationnels et universels, et non de contingences arbitraires. »
Voilà bien un des défis actuels français : défendre une culture de l’entrepreneuriat et de l’innovation. Comment arriver à ne pas retomber dans une forme d’inégalité héritée ? A sa façon, le livre de Piketty apporte des éléments montrant qu’en France, pour reprendre une expression populaire, « c’est pas gagné ! ».
 La force des placements des plus grandes fortunes
Dernier volet de cette promenade au pays des inégalités guidé par Thomas Piketty, celui qui a trait aux plus grandes fortunes.


Premier mode d’analyse proposé, celui qui part du classement du magazine Forbes. Selon ce magazine, la part détenu par les milliardaires en dollar est passée de 0,4% du patrimoine privé mondial en 1987 à 1,5 % en 2013.
Autre façon proposée par Piketty : examiner l’évolution du patrimoine détenu par un pourcentage fixe de la population mondiale, par exemple le un vingt millionième le plus riche ou le un cent millionième. Dans le premier cas, le patrimoine moyen est passé de 1,5 Milliards $ en 1987 à 15 en 2013, soit une progression moyenne annuelle de 6,4% au-dessus de l’inflation. Dans le deuxième cas, le patrimoine moyen est passé de 3 à près 35 Milliards $, soit 6,8% au-dessus de l’inflation. Soit dans les deux cas, nettement plus que la progression annuelle du patrimoine moyen qui n’a été que 2,1%, ou encore le revenu mondial qui a été 1,4%.
Selon ses calculs, il y aurait donc bien une concentration croissante du capital : plus on est riche, plus son capital s’accroît rapidement.


Pour appuyer son étude, Thomas Piketty analyse alors les performances relatives des dotations en capital des universités américaines. C’est en effet une source homogène, avec un accès à toutes leurs performances, et de taille très variée (le capital géré par les plus grandes dépasse les 10 Milliards $ et s’apparentent donc aux plus grandes fortunes, alors que celui des plus petites est en dizaines de millions).
Première conclusion : elles ont toutes globalement surperformées, puisque le rendement moyen obtenu a été de 8,2% par an entre 1980 et 2010.
Deuxième conclusion : la performance s’accroît avec la taille puisqu’elle passe de 6,2 % pour les plus petites à 10,2% pour, Harvard (30 Milliards $ de capital géré), Yale (20 Milliards $) et Princeton (plus de 15 Milliards $), et cette croissance est systématique.
Un écart de 1% peut sembler modeste, mais comme il est renouvelé chaque année, il conduit à un écart de 22% en 20 ans, et 64% en 50 ans. L’écart annuel de 4% entre les deux extrêmes revient à multiplier par plus de 2 en 20 ans, et plus de 7 en 50 ans.
D’où vient cette divergence croissante ? D’abord, de l’effet de taille qui permet d’une part de mieux amortir les frais de gestion ;
Mais surtout selon Piketty, les très grandes fortunes bénéficient des meilleurs conseils et accèdent aux meilleurs placements. Ainsi plus le capital géré par l’Université est important, plus sa stratégie de placement est diversifiée, et plus elle a accès à des placements à très haut rendement tels que les actions non cotées (private equity), fonds spéculatifs (hedge funds), produits dérivés… : « On constate qu’ils (les placements alternatifs) représentent à peine plus de 10 % des portefeuilles pour les dotations inférieures à 50 millions d’euros, puis atteignent rapidement 25 % entre 50 et 100 millions d’euros, 35 % entre 100 et 500 millions d’euros, 45 % entre 500 millions et 1 milliard, pour finalement culminer à plus de 60 % des portefeuilles pour les dotations supérieures à 1 milliard d’euros. »
Tel est pour Piketty un des risques majeurs : voir les plus grandes fortunes progresser quasiment inexorablement à cause de cet accès réservé aux meilleurs produits financiers.
« Si l’on ajoute à cela l’inégalité du rendement du capital suivant la taille du capital initial, que la complexité croissante des marchés financiers globalisés peut avoir tendance à renforcer, on voit que tous les ingrédients sont réunis pour que la part détenue par le centile et le millime supérieurs de la hiérarchie mondiale des patrimoines dans le capital de la planète atteigne des niveaux inconnus. Il est certes difficile de dire à quel rythme se fera cette divergence.  »
Dernière remarque tirée de son livre avant de conclure : la somme des actifs nets détenus par les ménages européens représentent 70 000 milliards €, soit plus de 20 fois la somme de tous les fonds souverains chinois et des réserves de la Banque de Chine. Donc pas d’inquiétude à avoir : nous ne sommes pas prêts d’être détenus par la Chine. Donc selon lui, le seul vrai risque est bien la divergence oligarchique

25 août 2014

LE CAPITAL DU XXIe SIÈCLE : CROISSANCE, MYTHES ET RÉALITÉS

Le capital du XXIe siècle (Best of - Billets parus entre 10 et 19/6/14)
Difficile depuis quelques semaines de ne pas avoir entendu parler du livre de Thomas Piketty, le Capital du XXIe siècle. Qu'y dit-il à propos de la croissance ?
Tout d'abord, avant d'entrer dans le vif du sujet, une des premières bones surprises à la lecture du livre de Thomas Piketty est son regard distancié et souvent critique sur ses confrères, les économistes.
Laissons-lui la parole avec trois citations :
« Disons-le tout net : la discipline économique n’est toujours pas sortie de sa passion infantile pour les mathématiques et les spéculations purement théoriques, et souvent très idéologiques, au détriment de la recherche historique et du rapprochement avec les autres sciences sociales. Trop souvent, les économistes sont avant tout préoccupés par de petits problèmes mathématiques qui n’intéressent qu’eux-mêmes, ce qui leur permet de se donner à peu de frais des apparences de scientificité et d’éviter d’avoir à répondre aux questions autrement plus compliquées posées par le monde qui les entoure.  »
« L’expérience de la France à la Belle Époque démontre si besoin est le degré de mauvaise foi atteint par les élites économiques et financières pour défendre leur intérêt, ainsi parfois que par les économistes, qui occupent actuellement une place enviable dans la hiérarchie américaine des revenus, et qui ont souvent une fâcheuse tendance à défendre leur intérêt privé, tout en se dissimulant derrière une improbable défense de l’intérêt général.  »
« Je n’aime pas beaucoup l’expression « science économique », qui me semble terriblement arrogante et qui pourrait faire croire que l’économie aurait atteint une scientificité supérieure, spécifique, distincte de celle des autres sciences sociales. Je préfère nettement l’expression « économie politique », peut-être un peu vieillotte, mais qui a le mérite d’illustrer ce qui me paraît être la seule spécificité acceptable de l’économie au sein des sciences sociales, à savoir la visée politique, normative et morale. (…) Trop longtemps, les économistes ont cherché à définir leur identité à partir de leurs supposées méthodes scientifiques. En réalité, ces méthodes sont surtout fondées sur un usage immodéré des modèles mathématiques, qui ne sont souvent qu’une excuse permettant d’occuper le terrain et de masquer la vacuité du propos.  »
Daniel Kahneman a déjà mis l’accent sur ce danger d’une application simpliste des mathématiques, notamment en insistant sur le fait que nous sommes des « Humans » et non pas des « Econs » (voir mon article consacré à ce point : Arrêtons de diriger en croyant le monde peuplé d’ « Écons » !).
J’ai moi-même, à de multiples reprises, expliqué que l’art du management avait peu à voir avec les mathématiques, et davantage avec la philosophie et l’histoire (voir par exemple « Philosophie et histoire sont plus utiles que les mathématiques pour diriger dans l'incertitude  »)
Rassurant de voir que Thomas Piketty, tout en s’appuyant sur de nombreux calculs, ne croît pas que la vérité va miraculeusement en surgir…
Croissance de la production et croissance de la population
Venons-en donc maintenant au thème de la croissance. Que dit-il à son sujet ?


D’abord une remarque de bon sens, mais qui est souvent ignorée : le premier moteur de la croissance est l’expansion démographique.
Aussi, pour parler de la croissance et analyser sa dynamique, il faut d’abord commencer par étudier la croissance démographique : en effet si la population s’accroît de 1%, tout croissance de la production inférieure à 1% représente en fait une régression par habitant.
Donc comment la population mondiale a-t-elle évoluée depuis l’antiquité ?
Pourquoi partir de si loin ? Car c’est bien un des enseignements les plus fascinants de ce livre, c’est la longueur des séries historiques, qui permet de remettre en perspective nos réflexions.
Qu’en dit-il ?
« Quelles que soient les imperfections des sources historiques et des estimations de la population mondiale à ces deux dates, il ne fait donc aucun doute que la croissance démographique moyenne entre l’an 0 et 1700 était nettement inférieure à 0,2 % par an, et très certainement inférieure à 0,1 %.  »
Tout change ensuite.
« Conséquence de cet emballement démographique : le taux de croissance de la population au niveau mondial atteint au XXe siècle le chiffre record de 1,4 % par an, alors qu’il n’avait été que de 0,4 %-0,6 % aux XVIIIe et XIXe siècles.  »
Du coup, on peut alors accéder au calcul de la croissance par habitant, c’est-à-dire celle qui mesure la progression du revenu individuel, et donc la vitesse de transformation d’une société.
« Au niveau mondial, la croissance moyenne de 0,8 % par an de la production par habitant entre 1700 et 2012 se décompose en à peine 0,1 % au XVIIIe siècle, 0,9 % au XIXe siècle et 1,6 % au XXe siècle. En Europe occidentale, la croissance moyenne de 1,0 % entre 1700 et 2012 se décompose en 0,2 % au XVIIIe siècle, 1,1 % au XIXe siècle et 1,9 % au XXe siècle. Le pouvoir d’achat moyen en vigueur sur le Vieux Continent a tout juste progressé entre 1700 et 1820, puis a été multiplié par plus de deux entre 1820 et 1913, et par plus de six entre 1913 et 2012. »
Donc plus d’un siècle de quasi stagnation, puis une accélération depuis 1820, et surtout depuis 1910.
Croître de 1,5% par an, c’est grandir de plus de 50% en 30 %
Quelques premiers commentaires sur la croissance.
Quand nous nous émerveillons de la croissance américaine, et que nous nous lamentons sur l’atonie en Europe, nous oublions que l’essentiel de l’écart est dû à la différence entre les dynamiques démographiques : si les États-Unis croissent plus vite que nos vieux pays, c’est d’abord à cause de la croissance de la population. Voilà qui donne une nouvelle saveur à tous les discours qui veulent limiter l’immigration…
Mais l’essentiel dans l’analyse de Thomas Piketty est ailleurs, elle est dans son affirmation que le rythme normal de la croissance de production par habitant se situe autour de 1 %, et que la croissance à long terme dans les pays avancés ne peut pas être supérieure à 1,5% :
« Qu’importe le détail de ces chiffres : le point important est qu’il n’existe aucun exemple dans l’histoire d’un pays se trouvant à la frontière technologique mondiale et dont la croissance de la production par habitant soit durablement supérieure à 1,5 %. (…) Sur la base de l’expérience historique des derniers siècles, il me paraît assez improbable que la croissance à long terme de la production par habitant dans les pays les plus avancés puisse être supérieure à 1,5 % par an. Mais je suis bien incapable de dire si elle sera de 0,5 %, 1 % ou 1,5 %. Le scénario médian présenté plus loin repose sur une croissance à long terme de la production par habitant de 1,2 % par an dans les pays riches, ce qui est relativement optimiste par comparaison aux prédictions de Gordon (qui me semblent un peu trop sombres), et en particulier ne pourra se produire que si de nouvelles sources d’énergie permettent de remplacer les hydrocarbures, en voie d’épuisement. Mais il ne s’agit que d’un scénario parmi d’autres.  »
Est-ce si grave ? Est-ce que cela veut dire que nous sommes condamnés au déclin ? Non, bien au contraire, car :

« La bonne façon de voir le problème est là encore de se placer au niveau générationnel. Sur trente ans, une croissance de 1 % par an correspond à une croissance cumulée de plus de 35 %. Une croissance de 1,5 % par an correspond à une croissance cumulée de plus de 50 %. (…)
Il s’agit d’une différence considérable avec les sociétés du passé, où la croissance était quasi nulle, ou bien d’à peine 0,1 % par an, comme au XVIIIe siècle. Une société où la croissance est de 0,1 % ou 0,2 % par an se reproduit quasiment à l’identique d’une génération sur l’autre : la structure des métiers est la même, la structure de la propriété également. Une société où la croissance est de 1 % par an, comme cela est le cas dans les pays les plus avancés depuis le début du XIXe siècle, est une société qui se renouvelle profondément et en permanence.  »
Certes, certes, mais nous sommes bien loin du discours des politiques qui rêvent d’une croissance supérieure à 2%, ce qui, vu notre stagnation démographique en Europe, serait donc hors de portée.
Mais pourtant nous avons connu dans le passé, une telle croissance. Ah, ses merveilleuses Trente Glorieuses…
Croître plus vite pour reconstruire et rattraper


Si un rythme de croissance « normale » par habitant est de 1 à 1,5% par an pour une économie développée, pourquoi avons-nous connu au cours des années appelées les Trente Glorieuses une croissance beaucoup plus rapide ? N’étions-nous alors pas développés ?
Pas exactement… mais oui d’une certaine façon. En effet, si les économies européennes étaient déjà dès les années cinquante, sophistiquées, elles venaient de subir le double choc des deux guerres mondiales. Elles avaient donc accumulé pendant la période 1914-1945, un retard de croissance important : les Trente Glorieuses ne seraient qu’un phénomène de rattrapage.
« Une fois ce rattrapage terminé, l’Europe et les États-Unis se sont retrouvés ensemble à la frontière mondiale, et se sont mis à croître au même rythme, qui est structurellement un rythme lent à la frontière. »
Selon Thomas Piketty – et les données venant à l’appui de ses propos sont convaincantes –, pas grand chose donc à voir avec un quelconque meilleure efficacité économique. Nous n’avons pas alors eu une croissance rapide parce que nous étions plus performants qu’aujourd’hui, mais simplement parce que nous rattrapions notre retard et reconstruisions notre pays.
A l’appui de sa thèse, il montre qu’il y a une corrélation directe entre l’importance du taux de croissance par habitant pendant les Trente Glorieuses, et le taux de destruction et de préjudice subi précédemment : l’Europe croît beaucoup plus vite que les États-Unis (attention en mesurant ceci par habitant, car la croissance des États-Unis totale était, elle, importante, parce que tirée par l’expansion démographique), et au sein de l’Europe, l’Europe continentale plus vite que le Royaume-Uni.
Il en arrive à conclure que ceci n’a rien à voir avec la politique suivie alors :
« Il est probable que la France, l’Allemagne et le Japon auraient rattrapé leur retard de croissance à la suite de l’effondrement des années 1914-1945, quelles que soient les politiques suivies, ou presque. Tout juste peut-on dire que l’étatisme n’a pas nui. »
Symétriquement, il en vient à douter de l’impact des politiques libérales développées aux États-Unis et en Angleterre à partir des années 80. Constatant le retard de croissance, ces deux pays ont changé de politique au moment où le rattrapage était terminé, et du coup l’écart de croissance entre eux et l’Europe continentale a disparu… non pas parce que ces politiques libérales étaient plus efficaces, mais simplement parce que le retard accumulé à cause des deux guerres avaient été effacé .
Finalement, il en arrive à douter de la validité de toute corrélation entre le type de politique menée et la croissance observée.
« Aujourd’hui encore, dans ces deux pays (États-Unis et Grande-Bretagne), on considère souvent que les révolutions conservatrices ont été un franc succès puisque les deux pays ont cessé de croître moins vite que l’Europe continentale et le Japon. En vérité, le mouvement de libéralisation entamé autour de 1980 de même d’ailleurs que le mouvement d’étatisation mis en œuvre en 1945 ne méritent ni cet excès d’honneur ni cet excès d’indignité. De même, une fois que la frontière mondiale était rattrapée, il n’est guère étonnant que ces pays aient cessé de croître plus vite que les pays anglo-saxons, et que tous les taux de croissance se soient alignés. (…) En première approximation, les politiques de libéralisation ne semblent guère avoir affecté cette réalité toute simple, ni à la hausse ni à la baisse.  »
Et nous retrouvons avec une France qui rêve de revenir à l’interventionnisme étatique et des pays anglo-saxons chantres de l’ultra-libéralisme, les uns et les autres leur attribuant des vertus qu’ils n’auraient pas !
Attention à ne pas en conclure qu’il n’y a aucun lien entre politique publique et performance économique…
Diriger par émergence s’applique aussi à la politique
Nous voilà donc avec une affirmation plus que troublante : la performance économique d’un pays ne dépendrait que bien peu de la politique menée par ceux qui le gouverne.
Avant de modérer ce propos, et de revenir sur les limites à lui apporter, je veux d’abord relever que ceci est très directement en ligne avec nombre de constats faits dans le management des entreprises, et au premier chef par Daniel Kahneman : un dirigeant qui réussit est d’abord un dirigeant qui est à la tête d’une entreprise qui réussit et se trouve porté par des vagues favorables.
Cela fait écho à cette histoire fameuse dans la culture chinoise, où un grand général apprend qu’il a gagné des batailles d’abord parce qu’il était à la tête de la meilleure armée, et secondairement à cause de ses propres décisions. Écho aussi à Léon Tolstoï qui, dans Guerre et Paix, montre comment la campagne de Russie de Napoléon Bonaparte fut essentiellement le fruit du hasard. (voir mon article « Le succès d’un champion est d’abord dû au hasard, et secondairement à son talent  »).
Que nos hommes politiques, comme les dirigeants d’entreprises, apprennent donc d’abord l’art de la modestie.
Mais est-ce à dire que quel que soit son leader un pays va réussir ou échouer, à cause des circonstances ?
Certainement pas !
Comme je l’ai expliqué longuement dans mon dernier livre, Les Radeaux de feu, l’acceptation du dépassement et le passage au management par émergence, ne sont pas le renoncement au management. Ils impliquent un nouveau mode de management, fait de leadership, de capacité à trouver des points fixes sur lesquels caler sa stratégie, mettre en place des organisations simples où chacun comprend son rôle et celui des autres, développer une culture faite de confiance et confrontation :
« Chacun est riche de sa personnalité, de son histoire, de ses compétences, de ses rêves, de ses envies, de sa compréhension. La cohésion de l’ensemble résulte de processus subtils, tissés de confiance et confrontation, associant lâcher-prise, vision commune, geste naturel et prise d’initiatives. Aussi pour faire que ce radeau collectif ne soit pas le jouet des événements, et que ce ne soit pas le fleuve et les éléments qui choisissent sa destination, l’art du management doit être également subtil : il ne peut être question pour le dirigeant de se voir ni comme une reine véhiculée et protégée passivement par ses troupes, ni comme un Dieu tout puissant, sachant tout et décidant de tout. À lui et à son équipe de direction de trouver le cap, de faire que la rivière devienne fleuve, d’apporter confiance et stabilité, de créer les conditions pour que chacun puisse effectivement agir individuellement et collectivement… Pour cela, il doit agir dans le non-agir, décider par exception, accompagner et soutenir, jamais ne cesser de vouloir mieux comprendre et apporter du sens.  »
Alors, et alors seulement, les processus émergents feront que les actions collectives sauront tirer le meilleur parti des situations et des opportunités.
Quand je regarde comment nos pays, et singulièrement la France, sont dirigés, je ne peux que constater que nous en sommes loin…
Apprendre à vivre durablement avec une croissance d’environ 1%
Si le politique n’est pas sans prise sur ce qui se passe dans son pays, il n’en reste pas moins soumis aux lois globales de l’évolution. Un bateau ne peut pas faire fi du cours du fleuve… Il est donc essentiel de le comprendre et de l’intégrer.


Or en matière de croissance, les prévisions de Thomas Piketty pour les décennies à venir ne nous dessinent pas un futur porté par une forte croissance, du moins dans nos pays occidentaux.
En raisonnant d’abord sur la croissance par habitant, il prévoit pour la période 2012-2100 :
- 1,2 % pour les pays les plus riches (Europe occidentale, Amérique du Nord, Japon),
- La poursuite du processus du convergence jusqu’à 2050 pour les autres pays avec une croissance de 5% puis 4% ; et à partir de 2050, un croissance de 1,2%
Soit en moyenne : « Dans ce scénario médian-optimiste, la croissance mondiale de la production par habitant dépasserait légèrement 2,5 % par an entre 2012 et 2030, puis de nouveau entre 2030 et 2050, avant de tomber au-dessous de 1,5 % après 2050, et de se diriger vers 1,2 % dans le dernier tiers du siècle. »
En intégrant les prévisions démographiques, il obtient comme prévision pour la croissance mondiale totale, un ralentissement progressif depuis le taux actuel de 3,5%, à 3% en 2050, et 1,5% à la fin du siècle.
Notons qu’il considère ceci comme un scenario optimiste :
« Elle suppose une continuation sans heurt politique ou militaire du processus de convergence des pays émergents vers les pays riches, jusqu’à son terme vers 2050, ce qui est très rapide. Il est aisé d’imaginer des scénarios moins optimistes, auquel cas la courbe en cloche de la croissance mondiale pourrait tomber plus vite et vers des niveaux plus bas que ceux indiqués sur les graphiques.  »
Inutile de prendre à la lettre ces prévisions – d’ailleurs Thomas Piketty lui-même attire l’attention des lecteurs sur le fait qu’il ne s’agit que de scenarios de cadrage –, l’important est de retenir les ordres de grandeur, et notamment que le plus probable est que, pour les décennies à venir, la croissance dans nos pays d’Europe se situera guère au-dessus de 1%.
Comme déjà indiqué, cela ne correspond en rien à une stagnation, mais imaginer que l’on pourra grâce à une politique volontariste – qu’elle soit d’inspiration libérale ou étatiste –, renouer avec des taux de croissance de 2, voire 3% est très probablement illusoire.
Ceci rejoint plusieurs articles que j’ai publié ces dernières années sur mon blog, dans le Cercle Les Échos et Sur AgoraVox (voir notamment "Le meilleur est improbable, mais il n'est pas hors d'atteinte" paru en 2012)
Nous devons donc nous organiser pour vivre et prospérer avec ce niveau de croissance. Pour un pays comme la France, cela renforce la nécessité d’entreprendre le plus tôt possible des transformations structurelles : nous ne règlerons pas nos problèmes de chômage et d’endettement public grâce à une croissance revenue miraculeusement.
Et si jamais le futur était meilleur, il serait alors très facile d'y faire face !

21 août 2014

BIG DATA ET ÉMERGENCE DE « REAL HUMANS »

Big Data (Best of - Billets parus entre 20/5 et 5/6)
Difficile d’ouvrir un journal traitant de l’économie et des entreprises sans rapidement tomber sur le mot « Big Data ». Est-ce un effet de mode, une sorte de nouvelle contagion informatique, un virus managérial ? Va-t-on voir ce buzz word s’effondrer comme a fait pschitt en son temps, le syndrome du « L’informatique ne passera pas la date du 1-1-2000 » ? Ou est-ce la naissance d'un nouveau monde ? ...
Non, je ne crois vraiment pas. Derrière ce mot quelque peu barbare, se cache – du moins je le pense – une transformation profonde de nos organisations et nos modes de fonctionnement, et probablement bien au-delà de ce que pensent les spécialistes du sujet ! Nous sommes à la veille d’un changement de paradigme…
Aussi ai-je décidé de consacrer une série de billets à ce sujet. Je ne prétends pas avoir une vue exhaustive du sujet, ni encore en maîtriser les conséquences. Prenez simplement ce que je vais écrire dans les jours qui viennent comme une première réflexion, largement à chaud. Peut-être est-ce l’embryon d’un futur livre à venir… Qui sait ?

Mais d’abord, pour ceux qui n’auraient pas encore croisé un quelconque article sur le Big Data, de quoi s’agit-il ?
Il s’agit tout simplement de la capacité de manipuler de plus en plus facilement de très grandes masses de données.
Un des exemples les plus courants est le moteur de recherche qui fait la fortune et le succès de Google : il sait parcourir en quelques secondes la jungle de tout ce qui existe sur Internet pour répondre à la plus fantaisiste des questions que vous vous posez. Et ceci en tenant compte de tout ce qui est constamment mis en ligne. Rien n’est figé, tout est dynamique.
Mais pourquoi donc est-ce si nouveau ?
Les magiciens de la bibliothèque de Babel contemporaine
Commençons par ce que nous expérimentons chaque jour : l’indexation du contenu du web fait par Google. Nous sommes tellement habitués à nous en servir que nous n’y prêtons plus guère attention.
Pourtant, prenez conscience de la puissance informatique nécessaire pour, quasiment en temps réel :
- indexer tout nouveau contenu mis en ligne, et non pas seulement son titre, mais bien la totalité de l’information présente,
- garder en mémoire combien de fois ce contenu a été vu,
- établir un classement de la fréquentation des pages web,
- face à une demande quelconque, parcourir l’ensemble des informations archivées, et proposer en quelques secondes, les réponses les plus pertinentes, ce bien sûr en tenant compte des recherches précédentes effectuées par le demandeur.
Étonnant, non ? Je reste émerveillé de l’efficacité cachée, probablement mon côté enfant…
Impressionnante capacité à manipuler des quantités considérables de données pour en extraire dynamiquement une réponse, ce dans un délai de plus en plus court. Ce d’autant plus que la quantité de ces données croît de manière exponentielle :
- L’ancien PDG de Google, Éric Schmidt, estimait en 2010 que nous produisions tous les deux jours autant d’informations qu’entre le début de la culture humaine et 2003,
- Dans son article introductif au numéro d’avril 2014 de la revue la Jaune et la Rouge, consacré au Big Data, Jean-Pierre Dardayrol indiquait que chaque semaine en 2014 la quantité d’information produite dans le monde est bien supérieure à celle produite depuis l’invention de l’écriture jusqu’en l’an 2000,
- Selon un rapport publié en 2012, IDC prévoyait que d’ici 8 ans, la masse des données serait multipliée par un facteur cinquante
Je repense à une nouvelle de Jorge Luis Borges qui m’a toujours donné le vertige, celle de la Bibliothèque de Babel. Dans cette bibliothèque, se trouvent tous les livres de quatre-cent dix pages, avec quarante lignes par pages, susceptibles d’avoir été ou d’être écrits, dans le passé comme dans le futur. Ils sont répartis sur une quasi infinité d’étagères, dans une quasi infinité d’alvéoles, et des bibliothécaires s’y promènent, prenant en main, de temps en temps, un livre et s’extasiant quand ils tombent sur une phrase qui a un sens. Car, bien sûr, dans cet océan des combinaisons, trouver déjà une phrase qui en a un, est un tour de force.
Avec le Big Data, le cauchemar disparaît, les bibliothécaires se font magiciens, et d’un geste sûr et immédiat, savent saisir instantanément le bon livre dans le dédale contemporain et foisonnant des informations du monde.
Apprendre en observant en temps réel
Nous vivons donc aux temps de l’explosion de la quantité des informations et de la capacité de traitement et de navigation au sein de cette marée montante.
En quoi ceci peut-il donner naissance à un nouveau monde ?
En mai 2012, The Economist a consacré un article sur le lien entre Big Data et les banques, « Crunching the numbers  ». Quelques exemples tirés de cet article :
Lutte contre la fraude  : La première utilisation est celle d’identifier la fraude et de repérer en temps réel un client indélicat. Avec le développement des micro-paiements, du commerce en ligne et de la mondialisation des transactions, cette application est de plus en plus complexe.
Scoring en vue d’attribuer des prêts  : créée par un ancien de Google, Zestcash a développé une nouvelle approche intégrant un très grand nombre de données, lui permettant d’accorder des prêts à des clients rejetés par tous les prêteurs classiques.
Analyse des comportements d’achats pour affiner des offres  : si un client a l’habitude de déjeuner souvent dans des restaurants italiens, pourquoi ne pas lui envoyer par sms en fin de matinée des propositions de trattorias voisines ?
Tout ceci pose évidemment de nombreuses questions dans le domaine de la protection de nos données et du secret bancaire…
Dernièrement, Gilles Martin, dans un article publié sur son blog, intitulé « Le progrès par le désordre et l’approximation  », insiste sur un autre type de conséquence, celle d’avoir un autre rapport à l’exactitude, et de pouvoir accepter le flou comme outil.
Citant les travaux récents de Viktor Mayer-Schönberger et Kenneth Cukier, dans leur ouvrage « Big Data : a revolution that will transform how we live, work and think », il indique : « C’est pourquoi certains pensent que le monde de la mesure, de la précision de la mesure, qui a permis les progrès au XIXèmesiècle, va être remplacé par le monde des volumes et de l’approximation, des données en désordre, un monde de la datafication.  »
Un des exemples qu’il cite est celui de la détermination de l’indice des prix : plutôt que de relever le prix de quelques produits choisis a priori, pourquoi ne pas s’appuyer sur les millions de prix accessibles en ligne via le web ? Les deux chercheurs ont montré que cette méthode rendue possible par l’utilisation d’un logiciel capable d’aller pêcher ces prix et de les analyser, aboutit à un meilleur suivi des phénomènes inflationnistes et déflationnistes. Ceci a débouché sur un projet du MIT, « PriceStats » qui fournit en temps réel un nouvel indice disponible en temps réel.
Et si donc tout ceci nous ramenait au thème de l’émergence ?
Analyser sans a priori
Un indice de suivi de l’évolution des prix qui s’appuie sur ce qui est disponible sur le web, un scoring des clients qui tient compte du comportement observé réel, des publicités qui s’affichent en fonction de ce que l’on a fait la veille ou la semaine dernière, un classement des pages web qui est le résultat direct de la navigation de tout un chacun, bienvenu dans le calcul par émergence du Big Data !
Autre exemple d’émergence « spontanée » d’un indicateur, celui de l’information sur l’apparition de la grippe : Google a montré que, si l’on observe les recherches faites par les internautes, on dispose d’une estimation quasiment en temps réel de la propagation. Il y a en effet une corrélation directe entre le nombre d’internautes qui posent des questions sur la grippe, et l’intensité du phénomène épidémique (voir Google Suivi de la grippe).
Ceci vient en écho et nourrit mes développements sur l’importance de l’émergence, tel que je l’ai fait dans mon dernier livre, les Radeaux de feu.
Autre intérêt de ces modes de calcul par émergence, c’est qu’ils ne partent d’aucun a priori, d’aucune vision préalable du monde et des lois qui le régissent : ce sont les comportements eux-mêmes qui sont observés, et c’est d’eux que découlent les analyses. Donc moins de risques d’erreurs, ce surtout en cas de rupture et d’apparition d’une nouvelle logique.
J’ai encore le souvenir de cet opérateur de télécommunications qui refusait de comprendre au milieu des années 90, que la téléphonie mobile pouvait intéresser des clients résidentiels. Sa vision lui disait que le marché était professionnel, et aucun de ses systèmes de mesure et de calcul n’était tourné vers le grand public…
Plus les visions s’auto-élaborent à partir du réel, et moins nous avons de chances de nous tromper.
Mais cette capacité de l’approche Big Data à remplacer l’expertise pointue par la largesse du recueil des données, me rappelle une autre approche, celle que l’on appelle l’intelligence collective ou la sagesse des foules…
La logique des coopérations informationnelles
La logique des Big Data est de faire émerger une intelligence collective à partir de données qui, prises isolément, n’en auraient pas : grâce à des logiciels ad-hoc, savoir les associer, les lire pour en extraire l’information pertinente, et faire émerger une réponse pertinente.
Je ne peux pas ne pas faire un lien avec la logique des ruches et des fourmilières : prises isolément chaque fourmi ou chaque abeille sont faibles et incapables à faire face aux défis de sa vie quotidienne. C’est grâce à la colle sociale, qu’émerge une puissance collective capable d’apporter des réponses étonnantes :
- Les fourmis de feu savent construire des radeaux vivants qui leur permettent de survivre aux inondations (voir Les fourmis de feu sont sauvées par des radeaux qui les dépassent )
- D’autres ont inventé l’agriculture (voir La fourmi est petite, mais la fourmilière est grande )
- Les abeilles peuvent trouver le meilleur emplacement pour une nouvelle ruche (voir L’agora est dans le ciel ! )
Dans les radeaux de feu, en conclusion de la partie consacrée aux tribus animales, j’écrivais :
« Il est frappant de constater que, tout au long de l’évolution du monde, de nouvelles matriochkas se tissent sans cesse. En parallèle de la loi de l’accélération de l’accroissement de l’incertitude, aurait-on une deuxième qui serait celle de l’accélération de l’accroissement des coopérations ? D’abord des coopérations physiques, puis chimiques, et maintenant informationnelles. Et au sein des coopérations informationnelles, d’abord basiques via des substances chimiques, puis de plus en plus complexes avec les langages et les neurones-miroir. Ces coopérations ne sont pas seulement à l’intérieur d’une espèce donnée, mais aussi entre espèces différentes, donnant alors naissance à des développements symbiotiques comme des végétaux entre eux, ou encore des fourmis avec des arbres ou des champignons, des abeilles avec des fleurs, ou des espèces animales entre elles.  »
Avec le Big Data, serions-nous au début d’une nouvelle coopération informationnelle, dans lequel le vivant aurait pour seul rôle d’avoir construit les machines et écrit le programme ?
L’intelligence des foules
Nous ne sommes ni des fourmis, ni des abeilles, et nous sommes persuadés que notre puissance collective repose sur nos différences individuelles et l’association d’expertises personnelles.
Mais est-ce si vrai ?
Divers écrits et travaux de recherche montrent l’intelligence des foules, c’est-à-dire la supériorité d’un réseau d’individus choisis au hasard.
Un des livres les plus complets sur ce thème est celui de James Surowiecki, The wisdom of crowds.
Quelques extraits :
« L’idée de la sagacité des foules prend aussi la décentralisation comme un acquis positif, puisque cela implique si l’on arrive à centrer sur un même problème une communauté de personnes automotivées, indépendantes sur un mode décentralisé, au lieu d’avoir à diriger leurs efforts depuis le sommet, la solution collective apparaîtra meilleure à toute autre solution susceptible de naître. (…)
Et la meilleure façon d’apprécier la pertinence collective de l’information que l’intelligence collective réunit, est la sagacité collective de l’intelligence communautaire. La centralisation n’est pas la réponse, mais l’agrégation oui. (…)
Fondamentalement, après tout, qu’est-ce qu’un marché libre ? C’est un mécanisme construit pour résoudre un problème de coordination, certainement le plus important des problèmes de coordination : allouer les ressources aux bons endroits au meilleur coût. »
Daniel Kahneman, dans Système 1 / Système 2 : Les deux vitesses de la pensée , apporte lui aussi de nombreux exemples de la limite de l’expertise et de la puissance du collectif :
« Les fonds mutuels sont gérés par des professionnels très expérimentés et travailleurs qui achètent et vendent des actions pour obtenir les meilleurs résultats pour leurs clients. Cependant, cinquante ans de recherche sur le sujet le confirment : pour une grande majorité de gestionnaires d'actifs, la sélection des actions tient plus du jeu de dés que du poker. En général, au moins deux fonds communs de placement sur trois sont en dessous des performances de l'ensemble du marché quelle que soit l'année. (…)
(Philip Tetlock, psychologue de l'université de Pennsylvanie,) leur a demandé d'évaluer la probabilité que certains événements se produisent dans un avenir relativement proche, à la fois dans leurs domaines de compétence et dans d'autres. (…) Les experts s'en sont moins bien tirés que s'ils s'étaient contentés d'assigner des probabilités équivalentes à chacun des résultats potentiels. (…) Même dans la région qu'ils connaissaient le mieux, les experts n'étaient pas significativement plus exacts que des non-spécialistes. (…)
Plusieurs études ont montré que les décideurs humains sont inférieurs à une formule de prédiction même quand on leur donne le résultat obtenu par la formule ! Ils se disent qu'ils peuvent passer outre parce qu'ils disposent d'informations supplémentaires, mais là encore, le plus souvent, ils ont tort. »
Finance et intelligence collective
L’intelligence des foules peut-elle réellement rivaliser avec celle des experts ? A cette question, un article paru le 26 mars dernier dans ParisTech Review, Calcul humanoïde : la finance à l’heure de l’intelligence collective, apporte de nouveaux éléments.
Cet article commence par rappeler une expérience issue du passé, celle de l’utilisation des courses de chevaux comme moyen d’améliorer la sélection de la race chevaline :
« On pourrait le qualifier de « calcul humanoïde », ou utiliser l’expression anglaise human computation : pas d’approche théorique, ni bien sûr d’ordinateur, mais une intuition géniale qui consiste à sous-traiter à une foule d’amateurs, éleveurs ou entraîneurs, la résolution d’un problème trop complexe pour des spécialistes. Les courses de chevaux ne sont pas un but mais le moyen d’arriver, par l’épreuve publique, à la sélection des reproducteurs de pur-sang destinés, soit à perpétuer la race, soit à améliorer les autres races indigènes par l’apport de l’influx nerveux »
Puis, il vient au cœur du sujet, en parlant du projet Krabott.
De quoi s’agit-il ? Voici ce qu’il en est dit :
« Il consiste à confier à des amateurs la conception par le jeu de stratégies de trading complexes sur le modèle de Fold-it, en remplaçant l’intelligence de l’ingénieur de salle de marché par une foule d’anonymes plutôt adeptes du poker en ligne ou de jeux comme World of Warcraft que des équations différentielles. Krabott ressemble un peu à un avion dont les passagers prendraient collectivement les commandes pour poser l’appareil… et bien mieux que ne le ferait son pilote. (…)
Lors de nos expérimentations, nous avons ainsi mis en concurrence une machine capable de tester et d’évaluer environ 100 000 stratégies de trading sur une période de neuf mois face à une centaine de joueurs qui ont exploré environ 1000 stratégies manuellement. Le résultat est sans appel, les joueurs, malgré une capacité exploratoire 100 fois moindre, ont créé des stratégies toujours plus performantes que celles des machines.  »
Autre observation : seule la collectivité des joueurs est performante. Aucun pris individuellement n’est capable de construire une stratégie pertinente.
Neurones miroirs et tribus sociales
Cet article se termine avec une question qui ouvre le débat : « Il faudra aussi se poser la question de la nature de cette intelligence collective : d’où vient-elle et comment se forme-t-elle ? Le cerveau humain est-il « câblé » pour réfléchir « collectif » ?  »
Effectivement…
Je me garderais bien de répondre définitivement à une telle question, mais il est frappant de voir comme depuis l’origine du monde, ce sont les propriétés collectives qui ont été privilégiées, et comme à chaque fois qu’une nouvelle tribu ou ensemble se constituent – ce que j’appelle une poupée russe ou matriochka dans mon livre, Les Radeaux de feu – une nouvelle propriété émerge. Pourquoi l’espèce humaine devrait-elle suivre une autre logique ? Nous faisons partie de ce monde, et les mêmes règles s’appliquent à nous…
Un des puissants « outils » de l’intelligence collective est l’existence des neurones miroirs (1). De quoi s’agit-il ? De neurones qui, sans l’intervention d’un quelconque processus conscient, sont capables de mimer ce que fait l’autre : quand un animal muni de tels neurones, regarde la main d’un autre se déplacer, le mouvement est reproduit dans son cerveau. Il peut donc apprendre en regardant.
Avec la magie des neurones miroirs, c’est l’autre qui s’invite à l’intérieur de ses congénères. Le monde des autres, les sensations qui l’habitent, les expériences qu’il a eues, c’est un peu de tout cela qui vit en l’autre : à l’instar de la corde d’une guitare qui se met à vibrer sous l’impulsion de sa voisine pour peu que celle-ci partage avec elle ses caractéristiques propres, les émotions se propagent de l’un à l’autre.
Comme je l’écrivais dans le résumé du chapitre consacré aux tribus animales :
« Grâce à la communication interindividuelle et aux neurones-miroirs, des sociétés naissent. Ces matriochkas sociales sont plus souples, et font émerger des cerveaux collectifs, comme par exemple pour les fourmilières ou les ruches.
Ainsi, lorsqu’un risque d’inondation les menace, les fourmis de feu s’accrochent les unes aux autres pour former un radeau vivant capable d’affronter les flots. Les fourmis savent-elles nager pour autant, et sont-elles individuellement conscientes de ce qu’elles font ? Non, la solution émerge de l’entremêlement de leurs actions individuelles.
En sus des capacités développées par chaque individu, apparaissent des savoir-faire collectifs qui dépassent largement ce que chacun peut faire, en reposant sur la combinaison effective et efficiente des actions individuelles. Chacun est littéralement dépassé par ce à quoi il participe et qu’il contribue à faire exister, sa compréhension n’étant nécessairement que partielle.  »
Apprendre à partir de rien
Avant de poursuivre, je voudrais refaire un détour sur la façon dont fonctionne notre cerveau, et sur sa capacité à faire émerger du sens et de la connaissance.
En juin et juillet 2012, j’ai consacré sur mon blog, vingt articles aux travaux de Stanislas Dehaene. Je ne vais pas ici tout reprendre en détail, mais revenir simplement et très rapidement sur ce qu’il appelle le cerveau Bayésien, et ses conséquences.
Qu’est-ce d’abord qu’une inférence Bayésienne ? C’est une forme de probabilité inversée : au lieu de chercher à prévoir le futur à partir du présent, on prévoit quel a pu être le passé qui a conduit au présent. C’est analyser une situation pour en retirer tout ce que l’on peut apprendre d’elle.
Voilà ce que je disais sur ce sujet dans les Radeaux de feu  :
« C’est au sein de nos neurones qu’est faite cette projection à partir des connaissances acquises. Inutile de réfléchir consciemment, tout est automatique : à partir de nos données sensorielles et de notre expérience, nous anticipons, et n’arrêtons pas de rêver le monde avant de le vivre. Nous créons au plus profond de nous-mêmes, une vision de ce qui est caché, de ce qui devrait ou pourrait arriver : notre savoir-faire ne nous sert pas seulement à comprendre le monde, mais aussi à penser ce qu’il pourrait devenir. (…)
Mais, comment notre cerveau peut-il induire à partir de presque rien ?
Essentiellement parce qu’il ne se contente pas de tirer des conclusions à partir de ce qu’il observe, mais parce qu’il mobilise des règles apprises dans le passé : il est capable de les transférer et donc de progresser rapidement.
Un exemple simple : quelqu’un vient de tirer successivement deux boules blanches et une noire, et je dois deviner quel est l’objet suivant. Si je n’ai aucune autre information, il est impossible d’avoir une certitude : je sais que cet objet doit pouvoir être contenu dans la boîte, et dans la main où il s’y trouve, mais il est périlleux d’aller plus loin. Maintenant si, par expérience, j’ai appris que ces boîtes ne contiennent toujours que des objets identiques, alors aucun doute à avoir : le prochain objet est nécessairement une boule. Si en plus, je sais qu’il ne peut pas y avoir plus de deux couleurs, je sais qu’elle est blanche ou noire. En couplant la règle acquise par mon expérience avec les nouvelles informations, je suis capable de résoudre le problème.
Tel est le principe du méta-apprentissage : nous apprenons à apprendre, et, chaque progrès nous transforme et facilite l’acquisition future. Nous extrayons naturellement des régularités du monde.
Ce point est essentiel et très nouveau dans la théorie de la cognition : le cerveau de l’enfant n’a pas besoin d’avoir de capacités innées, tout semble pouvoir être acquis par l’expérience. La compréhension initiale serait nulle, elle émergerait progressivement. Il suffit pour cela d’avoir un cerveau capable de repérer des régularités et de calculer des probabilités, ce qui est le cas de nos systèmes neuronaux. »
Quel est donc le lien entre ceci et les Big Data ? Je pense qu’il est essentiel…
Alors Big data ou Real Humans ?
Notre cerveau ne sait rien à la naissance, mais sa structure lui permet d’apprendre, car il peut repérer les similitudes et calculer les probabilités de telle ou telle configuration : dès l’origine, nous sommes capables d’apprendre, et chaque pas franchi facilite le suivant. Nous naissons sans a priori, sans pré-programmation, et c’est au travers des évènements de notre vie que, petit à petit, nous nous forgeons expérience, convictions et savoir-faire.
De même, dans la logique Big Data, il n’y a pas de programmes et de solutions a priori. L’intelligence émerge de cette masse au travers des rapprochements, des différences et des singularités.
D’un côté la masse des expériences archivés et stockés dans notre cerveau, de l’autre celle présente dans les Big Data. C’est la même logique, celle de l’émergence : nos connaissances émergent de nos expériences et de ce qui a été gravé dans notre mémoire, avec l’influence de nos émotions présentes et passées, de notre cerveau intestinal, et même de notre macrobiote (voir ma série d’articles sur l’écosystème de notre corps) : notre « je » est la pointe émergée de notre « Big Data » personnel.
Peut-être demain serons-nous capables de construire des ordinateurs capables eux-aussi comme notre cerveau de repérer les occurrences, les pondérer, en déduire des hypothèses qui seront testées, invalidées, enrichies ou confirmées. Mais est-ce que ce seront encore vraiment des ordinateurs, si, comme nous, ils sont capables d’apprendre à partir de rien, simplement en créant de nouveaux rapprochements, construisant des hypothèses, les validant ou les infirmant ?
Je terminais Les Radeaux de feu avec une question en forme de vertige :
« Peut-on raisonnablement croire que la triple logique de l’accroissement de l’incertitude, de la multiplication des emboîtements et des émergences, s’est arrêtée à nous, l’espèce humaine, et que nous serions le but ultime de ce processus ?
N’est-il pas plus vraisemblable de nous penser à notre tour, emboîtés n-fois dans des matriochkas qui nous dépassent et pour lesquelles nous ne sommes qu’atomes et particules ? Vis-à-vis d’elles, sommes-nous dans la situation des micro-organismes qui nous peuplent et qui, tout en contribuant à notre existence, ne peuvent en aucun cas, accéder à la compréhension et à la perception de ce dont nous sommes capables ? »
Avec le Big Data, sommes-nous en train de donner naissance à un nouvel emboîtement qui pourrait rapidement nous dépasser ? Sommes-nous à l’avant-veille du monde décrit par de nombreux livres de science-fiction, ou plus récemment dans la série télévisée suédoise Real Humans ?
(1) Voir le livre Les Neurones Miroirs de Giacomo Rizzolatti et Corrado Sinigaglia