12 juin 2014

CROISSANCE DE LA PRODUCTION ET CROISSANCE DE LA POPULATION

Le capital du XXIe siècle (3) – Croissance1
Premier thème central du livre de Thomas Piketty la croissance.
Que dit-il à son sujet ?
D’abord une remarque de bon sens, mais qui est souvent ignorée : le premier moteur de la croissance est l’expansion démographique.
Aussi, pour parler de la croissance et analyser sa dynamique, il faut d’abord commencer par étudier la croissance démographique : en effet si la population s’accroît de 1%, tout croissance de la production inférieure à 1% représente en fait une régression par habitant.
Donc comment la population mondiale a-t-elle évoluée depuis l’antiquité ?
Pourquoi partir de si loin ? Car c’est bien un des enseignements les plus fascinants de ce livre, c’est la longueur des séries historiques, qui permet de remettre en perspective nos réflexions.
Qu’en dit-il ?
« Quelles que soient les imperfections des sources historiques et des estimations de la population mondiale à ces deux dates, il ne fait donc aucun doute que la croissance démographique moyenne entre l’an 0 et 1700 était nettement inférieure à 0,2 % par an, et très certainement inférieure à 0,1 %. »

Tout change ensuite.
« Conséquence de cet emballement démographique : le taux de croissance de la population au niveau mondial atteint au XXe siècle le chiffre record de 1,4 % par an, alors qu’il n’avait été que de 0,4 %-0,6 % aux XVIIIe et XIXe siècles. »
Du coup, on peut alors accéder au calcul de la croissance par habitant, c’est-à-dire celle qui mesure la progression du revenu individuel, et donc la vitesse de transformation d’une société.
« Au niveau mondial, la croissance moyenne de 0,8 % par an de la production par habitant entre 1700 et 2012 se décompose en à peine 0,1 % au XVIIIe siècle, 0,9 % au XIXe siècle et 1,6 % au XXe siècle. En Europe occidentale, la croissance moyenne de 1,0 % entre 1700 et 2012 se décompose en 0,2 % au XVIIIe siècle, 1,1 % au XIXe siècle et 1,9 % au XXe siècle. Le pouvoir d’achat moyen en vigueur sur le Vieux Continent a tout juste progressé entre 1700 et 1820, puis a été multiplié par plus de deux entre 1820 et 1913, et par plus de six entre 1913 et 2012. »
Donc plus d’un siècle de quasi stagnation, puis une accélération depuis 1820, et surtout depuis 1910.

(à suivre)

11 juin 2014

UN ÉCONOMISTE QUI SE MÉFIE DES MATHÉMATIQUES

Le capital du XXIe siècle (2)
Une des premières surprises à la lecture du livre de Thomas Piketty est son regard distancié et souvent critique sur ses confrères, les économistes.
Laissons-lui la parole avec trois citations :
« Disons-le tout net : la discipline économique n’est toujours pas sortie de sa passion infantile pour les mathématiques et les spéculations purement théoriques, et souvent très idéologiques, au détriment de la recherche historique et du rapprochement avec les autres sciences sociales. Trop souvent, les économistes sont avant tout préoccupés par de petits problèmes mathématiques qui n’intéressent qu’eux-mêmes, ce qui leur permet de se donner à peu de frais des apparences de scientificité et d’éviter d’avoir à répondre aux questions autrement plus compliquées posées par le monde qui les entoure. »
« L’expérience de la France à la Belle Époque démontre si besoin est le degré de mauvaise foi atteint par les élites économiques et financières pour défendre leur intérêt, ainsi parfois que par les économistes, qui occupent actuellement une place enviable dans la hiérarchie américaine des revenus, et qui ont souvent une fâcheuse tendance à défendre leur intérêt privé, tout en se dissimulant derrière une improbable défense de l’intérêt général. »
« Je n’aime pas beaucoup l’expression « science économique », qui me semble terriblement arrogante et qui pourrait faire croire que l’économie aurait atteint une scientificité supérieure, spécifique, distincte de celle des autres sciences sociales. Je préfère nettement l’expression « économie politique », peut-être un peu vieillotte, mais qui a le mérite d’illustrer ce qui me paraît être la seule spécificité acceptable  de l’économie au sein des sciences sociales, à savoir la visée politique, normative et morale. (…)  Trop longtemps, les économistes ont cherché à définir leur identité à partir de leurs supposées méthodes scientifiques. En réalité, ces méthodes sont surtout fondées sur un usage immodéré des modèles mathématiques, qui ne sont souvent qu’une excuse permettant d’occuper le terrain et de masquer la vacuité du propos. »
Daniel Kahneman a déjà mis l’accent sur ce danger d’une application simpliste des mathématiques, notamment en insistant sur le fait que nous sommes des « Humans » et non pas des « Econs » (voir mon article consacré à ce point : Arrêtons de diriger en croyant le monde peuplé d’ « Écons » !).
J’ai moi-même, à de multiples reprises, expliqué que l’art du management avait peu à voir avec les mathématiques, et davantage avec la philosophie et l’histoire (voir par exemple « Philosophie et histoire sont plus utiles que les mathématiques pour diriger dans l'incertitude »)
Rassurant de voir que Thomas Piketty, tout en s’appuyant sur de nombreux calculs, ne croît pas que la vérité va miraculeusement en surgir…
(à suivre)

10 juin 2014

UN BEST-SELLER INATTENDU

Le capital du XXIe siècle (1)
Difficile depuis quelques semaines de ne pas avoir entendu parler du livre de Thomas Piketty, le Capital du XXIe siècle.
Après le succès de son road-show aux États-Unis, le voilà devenu best-seller. Étonnant pour un livre de plus de 900 pages qui, tout en étant de lecture facile, n’était pas vraiment destiné de façon évidente au grand public.
Démonstration que le thème qu’il y aborde, celui des inégalités, est un thème central dans nos préoccupations collectives.
J’ai donc décidé de consacrer une série de billets à ce livre, non pas pour en faire un résumé, mais plutôt une promenade personnelle, et ce autour successivement de trois sujets qui sont au cœur de cet ouvrage : celui de la croissance, celui de la rentabilité du capital, celui des inégalités.
Sur chacun de ces sujets, je composerai un patchwork issu du livre, que j’émaillerai de quelques réflexions personnelles.
Mais je commencerai d’abord par la reprise de quelques considérations qu’il fait sur le métier d’économiste…

(à suivre)

6 juin 2014

MANGROVE MAGIQUE

Histoire d’eau (5)
Quand l’eau se fait mer, quand le sel l’envahit, la végétation doit s’adapter pour survivre.
Elle devient mangrove et forme avec elle, un écosystème où se dessinent des formes étranges et nouvelles.
Les arbres deviennent dotés de jambes, et se mettent à marcher. Fantômes aussi bien diurnes que nocturnes, ils hantent sans cesse les rivages.
Des pics et des doigts surgissent à la verticale. Cherchent-ils à embrocher des poissons ou des nageurs imprudents ?
D’autres ont la gentillesse de se doter de quelques feuilles. Ils sont les candélabres de ce spectacle marin…

5 juin 2014

BIG DATA OU REAL HUMANS ?

Big Data (10)
Notre cerveau ne sait rien à la naissance, mais sa structure lui permet d’apprendre, car il peut repérer les similitudes et calculer les probabilités de telle ou telle configuration : dès l’origine, nous sommes capables d’apprendre, et chaque pas franchi facilite le suivant. Nous naissons sans a priori, sans pré-programmation, et c’est au travers des évènements de notre vie que, petit à petit, nous nous forgeons expérience, convictions et savoir-faire.
De même, dans la logique Big Data, il n’y a pas de programmes et de solutions a priori. L’intelligence émerge de cette masse au travers des rapprochements, des différences et des singularités.
D’un côté la masse des expériences archivés et stockés dans notre cerveau, de l’autre celle présente dans les Big Data. C’est la même logique, celle de l’émergence : nos connaissances émergent de nos expériences et de ce qui a été gravé dans notre mémoire, avec l’influence de nos émotions présentes et passées, de notre cerveau intestinal, et même de notre macrobiote (voir ma série d’articles sur l’écosystème de notre corps) : notre « je » est la pointe émergée de notre « Big Data » personnel.
Peut-être demain serons-nous capables de construire des ordinateurs capables eux-aussi comme notre cerveau de repérer les occurrences, les pondérer, en déduire des hypothèses qui seront testées, invalidées, enrichies ou confirmées. Mais est-ce que ce seront encore vraiment des ordinateurs, si, comme nous, ils sont capables d’apprendre à partir de rien, simplement en créant de nouveaux rapprochements, construisant des hypothèses, les validant ou les infirmant ?
Je terminais Les Radeaux de feu avec une question en forme de vertige :
« Peut-on raisonnablement croire que la triple logique de l’accroissement de l’incertitude, de la multiplication des emboîtements et des émergences, s’est arrêtée à nous, l’espèce humaine, et que nous serions le but ultime de ce processus ?
N’est-il pas plus vraisemblable de nous penser à notre tour, emboîtés n-fois dans des matriochkas qui nous dépassent et pour lesquelles nous ne sommes qu’atomes et particules ? Vis-à-vis d’elles, sommes-nous dans la situation des micro-organismes qui nous peuplent et qui, tout en contribuant à notre existence, ne peuvent en aucun cas, accéder à la compréhension et à la perception de ce dont nous sommes capables ? »
Avec le Big Data, sommes-nous en train de donner naissance à un nouvel emboîtement qui pourrait rapidement nous dépasser ? Sommes-nous à l’avant-veille du monde décrit par de nombreux livres de science-fiction, ou plus récemment dans la série télévisée suédoise Real Humans ?

4 juin 2014

APPRENDRE À PARTIR DE RIEN

Big Data (9)
Avant de conclure cette série de billets sur les Big Data, je voudrais refaire un détour sur la façon dont fonctionne notre cerveau, et sur sa capacité à faire émerger du sens et de la connaissance.
En juin et juillet 2012, j’ai consacré vingt articles aux travaux de Stanislas Dehaene. Je ne vais pas ici tout reprendre en détail, mais revenir simplement et très rapidement sur ce qu’il appelle le cerveau Bayésien, et ses conséquences.
Qu’est-ce d’abord qu’une inférence Bayésienne ? C’est une forme de probabilité inversée : au lieu de chercher à prévoir le futur à partir du présent, on prévoit quel a pu être le passé qui a conduit au présent. C’est analyser une situation pour en retirer tout ce que l’on peut apprendre d’elle.
Voilà ce que je disais sur ce sujet dans les Radeaux de feu :
« C’est au sein de nos neurones qu’est faite cette projection à partir des connaissances acquises. Inutile de réfléchir consciemment, tout est automatique : à partir de nos données sensorielles et de notre expérience, nous anticipons, et n’arrêtons pas de rêver le monde avant de le vivre. Nous créons au plus profond de nous-mêmes, une vision de ce qui est caché, de ce qui devrait ou pourrait arriver : notre savoir-faire ne nous sert pas seulement à comprendre le monde, mais aussi à penser ce qu’il pourrait devenir. (…)
Mais, comment notre cerveau peut-il induire à partir de presque rien ?
Essentiellement parce qu’il ne se contente pas de tirer des conclusions à partir de ce qu’il observe, mais parce qu’il mobilise des règles apprises dans le passé : il est capable de les transférer et donc de progresser rapidement.
Un exemple simple : quelqu’un vient de tirer successivement deux boules blanches et une noire, et je dois deviner quel est l’objet suivant. Si je n’ai aucune autre information, il est impossible d’avoir une certitude : je sais que cet objet doit pouvoir être contenu dans la boîte, et dans la main où il s’y trouve, mais il est périlleux d’aller plus loin. Maintenant si, par expérience, j’ai appris que ces boîtes ne contiennent toujours que des objets identiques, alors aucun doute à avoir : le prochain objet est nécessairement une boule. Si en plus, je sais qu’il ne peut pas y avoir plus de deux couleurs, je sais qu’elle est blanche ou noire. En couplant la règle acquise par mon expérience avec les nouvelles informations, je suis capable de résoudre le problème.
Tel est le principe du méta-apprentissage : nous apprenons à apprendre, et, chaque progrès nous transforme et facilite l’acquisition future. Nous extrayons naturellement des régularités du monde.
Ce point est essentiel et très nouveau dans la théorie de la cognition : le cerveau de l’enfant n’a pas besoin d’avoir de capacités innées, tout semble pouvoir être acquis par l’expérience. La compréhension initiale serait nulle, elle émergerait progressivement. Il suffit pour cela d’avoir un cerveau capable de repérer des régularités et de calculer des probabilités, ce qui est le cas de nos systèmes neuronaux. »
Quel est donc le lien entre ceci et les Big Data ? Je pense qu’il est essentiel…
(à suivre)

3 juin 2014

NEURONES MIROIRS ET TRIBUS SOCIALES

Big Data (8)
L’article dans ParisTech Review dont je me faisais l’écho hier, Calcul humanoïde: la finance à l’heure de l’intelligence collective, se termine par la question posée sur le cerveau humain : d’où vient notre capacité à construire une intelligence collective ? Serions-nous il « câblé » pour réfléchir « collectif » ?
Je me garderais bien de répondre définitivement à une telle question, mais il est frappant de voir comme depuis l’origine du monde, ce sont les propriétés collectives qui ont été privilégiées, et comme à chaque fois qu’une nouvelle tribu ou ensemble se constituent – ce que j’appelle une poupée russe ou matriochka dans mon livre, Les Radeaux de feu – une nouvelle propriété émerge. Pourquoi l’espèce humaine devrait-elle suivre une autre logique ? Nous faisons partie de ce monde, et les mêmes règles s’appliquent à nous…
Un des puissants « outils » de l’intelligence collective est l’existence des neurones miroirs (1). De quoi s’agit-il ? De neurones qui, sans l’intervention d’un quelconque processus conscient, sont capables de mimer ce que fait l’autre : quand un animal muni de tels neurones, regarde la main d’un autre se déplacer, le mouvement est reproduit dans son cerveau. Il peut donc apprendre en regardant.
Avec la magie des neurones miroirs, c’est l’autre qui s’invite à l’intérieur de ses congénères. Le monde des autres, les sensations qui l’habitent, les expériences qu’il a eues, c’est un peu de tout cela qui vit en l’autre : à l’instar de la corde d’une guitare qui se met à vibrer sous l’impulsion de sa voisine pour peu que celle-ci partage avec elle ses caractéristiques propres, les émotions se propagent de l’un à l’autre.
Comme je l’écrivais dans le résumé du chapitre consacré aux tribus animales :
« Grâce à la communication interindividuelle et aux neurones miroirs, des sociétés naissent. Ces matriochkas sociales sont plus souples, et font émerger des cerveaux collectifs, comme par exemple pour les fourmilières ou les ruches.
Ainsi, lorsqu’un risque d’inondation les menace, les fourmis de feu s’accrochent les unes aux autres pour former un radeau vivant capable d’affronter les flots. Les fourmis savent-elles nager pour autant, et sont-elles individuellement conscientes de ce qu’elles font ? Non, la solution émerge de l’entremêlement de leurs actions individuelles.
En sus des capacités développées par chaque individu, apparaissent des savoir-faire collectifs qui dépassent largement ce que chacun peut faire, en reposant sur la combinaison effective et efficiente des actions individuelles. Chacun est littéralement dépassé par ce à quoi il participe et qu’il contribue à faire exister, sa compréhension n’étant nécessairement que partielle. »
(1) Voir le livre Les Neurones Miroirs de Giacomo Rizzolatti et Corrado Sinigaglia

(à suivre)

2 juin 2014

FINANCE ET INTELLIGENCE COLLECTIVE

Big Data (7)
L’intelligence des foules peut-elle réellement rivaliser avec celle des experts ? A cette question, un article paru le 26 mars dernier dans ParisTech Review, Calcul humanoïde: la finance à l’heure de l’intelligence collective, apporte de nouveaux éléments.
Cet article commence par rappeler une expérience issue du passé, celle de l’utilisation des courses de chevaux comme moyen d’améliorer la sélection de la race chevaline :
« On pourrait le qualifier de « calcul humanoïde », ou utiliser l’expression anglaise human computation : pas d’approche théorique, ni bien sûr d’ordinateur, mais une intuition géniale qui consiste à sous-traiter à une foule d’amateurs, éleveurs ou entraîneurs, la résolution d’un problème trop complexe pour des spécialistes. Les courses de chevaux ne sont pas un but mais le moyen d’arriver, par l’épreuve publique, à la sélection des reproducteurs de pur-sang destinés, soit à perpétuer la race, soit à améliorer les autres races indigènes par l’apport de l’influx nerveux »
Puis, il vient au cœur du sujet, en parlant du projet Krabott.
De quoi s’agit-il ? Voici ce qu’il en est dit :
« Il consiste à confier à des amateurs la conception par le jeu de stratégies de trading complexes sur le modèle de Fold-it, en remplaçant l’intelligence de l’ingénieur de salle de marché par une foule d’anonymes plutôt adeptes du poker en ligne ou de jeux comme World of Warcraft que des équations différentielles. Krabott ressemble un peu à un avion dont les passagers prendraient collectivement les commandes pour poser l’appareil… et bien mieux que ne le ferait son pilote. (…)
Lors de nos expérimentations, nous avons ainsi mis en concurrence une machine capable de tester et d’évaluer environ 100 000 stratégies de trading sur une période de neuf mois face à une centaine de joueurs qui ont exploré environ 1000 stratégies manuellement. Le résultat est sans appel, les joueurs, malgré une capacité exploratoire 100 fois moindre, ont créé des stratégies toujours plus performantes que celles des machines. »
Autre observation : seule la collectivité des joueurs est performante. Aucun pris individuellement n’est capable de construire une stratégie pertinente.
Cet article se termine avec une question qui ouvre le débat : « Il faudra aussi se poser la question de la nature de cette intelligence collective : d’où vient-elle et comment se forme-t-elle ? Le cerveau humain est-il « câblé » pour réfléchir « collectif » ? »
Effectivement…
(à suivre)

28 mai 2014

L’INTELLIGENCE DES FOULES

Big Data (6)
Nous ne sommes ni des fourmis, ni des abeilles, et nous sommes persuadés que notre puissance collective repose sur nos différences individuelles et l’association d’expertises personnelles.
Mais est-ce si vrai ?
Divers écrits et travaux de recherche montrent l’intelligence des foules, c’est-à-dire la supériorité d’un réseau d’individus choisis au hasard.
Un des livres les plus complets sur ce thème est celui de James Surowiecki, The wisdom of crowds.
Quelques extraits :
« L’idée de la sagacité des foules prend aussi la décentralisation comme un acquis positif, puisque cela implique si l’on arrive à centrer sur un même problème une communauté de personnes automotivées, indépendantes sur un mode décentralisé, au lieu d’avoir à diriger leurs efforts depuis le sommet, la solution collective apparaîtra meilleure à toute autre solution susceptible de naître. (…)
Et la meilleure façon d’apprécier la pertinence collective de l’information que l’intelligence collective réunit, est la sagacité collective de l’intelligence communautaire. La centralisation n’est pas la réponse, mais l’agrégation oui. (…)
Fondamentalement, après tout, qu’est-ce qu’un marché libre ? C’est un mécanisme construit pour résoudre un problème de coordination, certainement le plus important des problèmes de coordination : allouer les ressources aux bons endroits au meilleur coût. »
Daniel Kahneman, dans Système 1 / Système 2 : Les deux vitesses de la pensée , apporte lui aussi de nombreux exemples de la limite de l’expertise et de la puissance du collectif :
« Les fonds mutuels sont gérés par des professionnels très expérimentés et travailleurs qui achètent et vendent des actions pour obtenir les meilleurs résultats pour leurs clients. Cependant, cinquante ans de recherche sur le sujet le confirment : pour une grande majorité de gestionnaires d'actifs, la sélection des actions tient plus du jeu de dés que du poker. En général, au moins deux fonds communs de placement sur trois sont en dessous des performances de l'ensemble du marché quelle que soit l'année. (…)
(Philip Tetlock, psychologue de l'université de Pennsylvanie,) leur a demandé d'évaluer la probabilité que certains événements se produisent dans un avenir relativement proche, à la fois dans leurs domaines de compétence et dans d'autres. (…) Les experts s'en sont moins bien tirés que s'ils s'étaient contentés d'assigner des probabilités équivalentes à chacun des résultats potentiels. (…) Même dans la région qu'ils connaissaient le mieux, les experts n'étaient pas significativement plus exacts que des non-spécialistes. (…)
Plusieurs études ont montré que les décideurs humains sont inférieurs à une formule de prédiction même quand on leur donne le résultat obtenu par la formule ! Ils se disent qu'ils peuvent passer outre parce qu'ils disposent d'informations supplémentaires, mais là encore, le plus souvent, ils ont tort. »
Un article qui vient de paraître dans ParisTech Review apporte encore de nouveaux éléments…
(à suivre)

27 mai 2014

LA LOGIQUE DES COOPÉRATIONS INFORMATIONNELLES

Big Data (5)
La logique des Big Data est de faire émerger une intelligence collective à partir de données qui, prises isolément, n’en auraient pas : grâce à des logiciels ad-hoc, savoir les associer, les lire pour en extraire l’information pertinente, et faire émerger une réponse pertinente.
Je ne peux pas ne pas faire un lien avec la logique des ruches et des fourmilières : prises isolément chaque fourmi ou chaque abeille sont faibles et incapables à faire face aux défis de sa vie quotidienne. C’est grâce à la colle sociale, qu’émerge une puissance collective capable d’apporter des réponses étonnantes :
- Les fourmis de feu savent construire des radeaux vivants qui leur permettent de survivre aux inondations (voir Les fourmis de feu sont sauvées par des radeaux qui les dépassent )
- D’autres ont inventé l’agriculture (voir La fourmi est petite, mais la fourmilière est grande )
- Les abeilles peuvent trouver le meilleur emplacement pour une nouvelle ruche (voir L’agora est dans le ciel! )
Dans Les radeaux de feu, en conclusion de la partie consacrée aux tribus animales, j’écrivais :
« Il est frappant de constater que, tout au long de l’évolution du monde, de nouvelles matriochkas se tissent sans cesse. En parallèle de la loi de l’accélération de l’accroissement de l’incertitude, aurait-on une deuxième qui serait celle de l’accélération de l’accroissement des coopérations ? D’abord des coopérations physiques, puis chimiques, et maintenant informationnelles. Et au sein des coopérations informationnelles, d’abord basiques via des substances chimiques, puis de plus en plus complexes avec les langages et les neurones-miroir. Ces coopérations ne sont pas seulement à l’intérieur d’une espèce donnée, mais aussi entre espèces différentes, donnant alors naissance à des développements symbiotiques comme des végétaux entre eux, ou encore des fourmis avec des arbres ou des champignons, des abeilles avec des fleurs, ou des espèces animales entre elles. »
Avec le Big Data, serions-nous au début d’une nouvelle coopération informationnelle, dans lequel le vivant aurait pour seul rôle d’avoir construit les machines et écrit le programme ?

(à suivre)