Tous les articles par godefroy

Le numérique et l’emploi….je t’aime un peu, beaucoup ou pas du tout ?

Ne pas se tromper de politique publique est forcément quelque chose de délicat. Or sur la question du numérique et de la création d’emploi, il n’est pas facile de se faire une opinion.

En 2011, deux chercheurs E. Brynjolfsson et A. Mc Afee publiaient un essai dans lequel ils dénonçaient le risque sérieux que le numérique faisait peser sur la croissance, en permettant aux machines de se substituer trop vite à l’être humain. Ils actualisèrent et étendirent ce document dans un livre paru en 2014, « The Second Machine Age ». Notant les progrès réalisés en algorithmique, traitement des données et bien sûr, capacité de sans cesse croissante de calcul des microprocesseurs, ils affirmaient que la machine remplacerait rapidement l’être humain dans des tâches auparavant considérées comme trop complexes pour être confiées à un automate , par exemple conduire une voiture. Ils en venaient à affirmer que les progrès effectués par les robots  conduiraient à des restructurations massives au sein des ateliers, des entrepôts, comme déjà le travail de bureau avait été profondément modifié par la diffusion de l’informatique. Mais surtout ils notaient que les progrès exponentiels dans les capacités des circuits intégrés (« Loi de Moore ») conduisaient ce remplacement de l’homme par la machine  à être de plus en plus rapide.

Après tout, ceci n’est pas nouveau : l’histoire de la Révolution Industrielle est un processus permanent de « substitution du capital au travail », avec son lot de misère, de drames et de révoltes. En France celle, célèbre, des canuts lyonnais contre les métiers à tisser automatiques, n’en est qu’un exemple, dont chaque pays touché par la modernité pourrait aussi apporter le témoignage. Pourtant au final, le progrès technique procure de la richesse pour tous, les emplois perdus étant remplacés par des emplois nouveaux sur lesquels finissent par se déverser ceux que la machine a mis au chômage.

Mais le « dommage collatéral » de ce que Schumpeter appelle la « destruction créatrice », pourrait, selon nos auteurs, se transformer aujourd’hui en catastrophe de la taille d’un tsunami. Leur argument est simple : avec un progrès qui suit une loi exponentielle, les emplois que l’on peut perdre, pourraient être l’an prochain en nombre égal à tous ceux que l’on a perdu depuis que le numérique est apparu. Brynjolfsson et Mc Afee utilisent la métaphore du grain de riz et du jeu d’échecs pour illustrer leur propos. Si on met un grain de riz sur la première case d’un échiquier, deux grains sur sa voisine latérale, puis 4 grains sur la suivante, 8 grains sur celle d’après etc .,  on a accumulé un certain nombre de grains lorsqu’on est à la moitié de l’échiquier, mais dans la case suivante on en mettra autant que la somme des tous les grains déposés jusque-là. Si le stock de grains de riz est limité, on aura mis longtemps à le vider à moitié en déposant les grains sur l’échiquier, mais  à l’ instant l’autre moitié sera également perdue.

Leur argument est donc simple : Le numérique provoque un rythme de remplacement de l’homme par la machine auquel la société ne peut plus répondre en créant des emplois de substitution. Cela engendre un chômage de plus en plus grand, mais surtout celui-ci va s’accélérer dans les années qui viennent. Cette thèse a ensuite été reprise et élaborée par d’autres chercheurs. Ainsi Osborne et Frey ont utilisé un protocole à la fois statistique (fondé sur l’observation du passé) et heuristique (s’appuyant sur les opinions « d’experts » en robotique) pour évaluer dans les dix prochaines années la probabilité de substitution des emplois par des robots. Ils suggèrent ainsi que si un orthophoniste ou un gérant hôtelier a 3 à 4 chances sur mille de pouvoir être remplacé par un robot ou un automate dans les dix ans à venir, la probabilité passe à 98% pour un arbitre sportif ( !), un comptable ou un agent immobilier. Cette probabilité est de 40% pour un réparateur d’ascenseur, de 54% pour un embaumeur ( !), de 55% pour un réparateur de télévision. Bien entendu tous les emplois menacés ne le seront pas instantanément, tout dépendra des coûts respectifs du robot ou de l’automate, et du salarié. Ce qu’indique l’étude de Osborne et Frey, c’est la possibilité technique de substitution avec un niveau de performance équivalent. Le papier de Osborne et Frey donne le cadre de ce que pourrait être cette accentuation du rythme de substitution des emplois humains par celui des « machines ».

Cette thèse de Brynjolfsson et Mc Afee qui reste au final difficile à vérifier, bouleverse beaucoup d’idées reçues et rompt avec un débat qui agite les spécialistes du numérique depuis près de 30 ans : quel est l’impact véritable du  numérique sur la croissance ? Depuis le paradoxe de Solow, énoncé par son auteur en 1987 (« on voit les ordinateurs partout sauf dans les statistiques » – sous- entendu celles de la croissance et de la productivité -) deux thèses s’affrontent : pour la plupart des auteurs le numérique a un impact positif sur la productivité, donc sur la croissance ; c’est ce que reprennent la plupart des gouvernements qui font des TIC un vecteur de de dynamisme dans l’économie. Dans le récent plan annoncé en décembre 2014 par le Président de la Commission Européenne J.C Juncker, le numérique figure explicitement comme une des cinq priorités. La présidence lettone de l’UE qui prend effet au 1/1/2015, mentionne également le numérique comme un de ses trois objectifs politiques.

S’appuyant également sur cet axiome,  trois rapports sont récemment parus en France, celui de Philippe Lemoine, du cabinet Roland Berger et de Mc Kinsey, qui disent tous à peu près la même chose : Le numérique bouleverse l’économie, et les entreprises françaises ont pris du retard dans son adoption, ce qui les pénalise. Une consultation publique lancée par le Conseil National du Numérique en Octobre 2014 jusqu’à la mi-janvier, va également dans cette direction et propose notamment un ensemble de mesures pour combler ce retard.

Mais si la thèse des vertus du numérique quant à la croissance est  très largement répandue, certaines voix dissonantes affirment que cet impact est loin d’être évident. C’est notamment le cas de Robert Gordon ici qui depuis le milieu des années 90, tente de montrer que la « révolution du numérique » n’a pas du tout le même impact que les autres révolutions technologiques (machine à vapeur et chemin de fer, électricité et chimie). Un de ses récents papiers suggère par exemple que les progrès actuels du  numérique (smartphones, tablettes, vidéo à la demande…) sont principalement consacrés à la consommation de loisir et n’ont aucun impact sur la productivité des entreprises. Du coup les gains de productivité se concentrent dans le secteur de production du numérique uniquement, sans affecter le reste de l’économie. Pire, Gordon considère que les USA (économie qui est de loin la plus productive en matière de numérique), sont entrés dans une phase séculaire de faible croissance de la productivité, donc d’accumulation des richesses. C’est la thèse du « déclinisme » par rapport aux économies émergentes.

Ainsi par rapport à cette question clé qui est : qu’apporte le numérique aujourd’hui, il y a, avec la récente thèse de Brynjolfsson et Mc Afee, trois visions :

  • Le numérique n’a que très peu d’impact, surtout en comparaison avec les autres révolutions industrielles (Gordon)
  • Le numérique a un impact essentiel, et tout retard dans son adoption est une erreur économique et politique (OCDE, UE, presque tous les gouvernements)
  • Le numérique a un impact trop fort, qu’on risque rapidement de ne plus maîtriser ( Brynjolfsson et Mc Afee).

Ces thèses apparaissent irréconciliables. Pourtant les mettre en regard peut masquer l’essentiel : le numérique, comme tout vecteur du progrès technique, ne réalise pleinement ses effets que si la société s’en approprie les vertus et en limite les risques. Cela passe très souvent par de profondes mutations organisationnelles, tant chez les acteurs économiques que dans la société, voire dans l’ordre juridique. Ce sont ces mutations qu’il faut analyser et comprendre pour déterminer laquelle de ces trois thèses a le plus de chances d’être vraie. Gordon pense que les mutations organisationnelles n’ont que peu à voir avec le numérique, les gouvernements pensent qu’il est de leur responsabilité de susciter un cadre propice à ces mutations (certains gouvernements comme ceux de Corée ou du Japon considèrent même qu’il faut une forte aide publique à l’investissement dans le numérique), et Brynjolfsson et Mc Afee pensent que c’est dans les activités créatrices celles que la machine mettra le plus de temps à remplacer, que réside le salut des économies avancées : On voit que les recommandations en termes de politiques publiques sont très différentes.

La Grande transformation, les plateformes et les objets connectés

L’évolution du numérique pousse vers plus de connexion d’objets, et l’on parle d’ailleurs à ce propos « d’objets connectés ». Mais dans  la situation actuelle,  ces objets sont reliés, via Internet, à des « plateformes », qui intègrent leurs données envoyées et proposent en retour des services s’appuyant sur cette intégration. Comme le réseau de communication entre ces plateformes et ces objets est l’Internet, on évoque « l’Internet des objets ».

A l’origine les objets connectés étaient simplement des ordinateurs, dont les données étaient essentiellement « abstraites ». La mise en place de réseaux d’ordinateurs a ainsi été le grand défi de l’informatique et des télécommunications dans les années 1970-180. Avec le protocole TCP/IP créé en 1983, Internet a fini par s’imposer comme le réseau universel de connexion d’ordinateurs. Toute une série d’applications et de services a pu ainsi se mettre en place, dans la frénésie de la bulle Internet (1996-2001). Après son dégonflement l’innovation a malgré tout continué de suivre le progrès technique permanent dans les semi-conducteurs, d’autant que les réseaux de communications ont connu à leur tour une véritable mutation : déploiement des réseaux de mobiles et accès de ces réseaux à Internet (technologie dite « 3G », qui a décollé dans le milieu de la décennie des années 2000, diffusion de la technologie ADSL au sein des réseaux fixes qui a permis un accès confortable des ménages à Internet ). Le commerce électronique, les moteurs de recherche, les portails, la voix sur IP et maintenant la distribution de programmes audiovisuels sont quelques illustrations de ces évolutions.

Mais le développement des technologies sans fil, la miniaturisation des composants électroniques et la traduction de signaux de toute sorte en fichiers numériques (« numérisation ») a conduit les « objets connectés »  à se multiplier, pour transmettre aux « plateformes » la traduction numérique de quasiment tout phénomène physique, biologique ou abstrait, émanant de toute sorte d’objets, macroscopique ou microscopique, fixe ou mobile. La Grande transformation, c’est ce basculement de toutes les activités matérielles vers la numérisation, où celle-ci a pour vocation, en se greffant sur les objets, de coordonner  les activités matérielles pour en assurer une exécution améliorée, voire profondément bouleversée.

Ainsi sont en train de se mettre en place ce que Kim Clark (1985) appelle des innovations architecturales, où les prestations matérielles se trouvent profondément transformées par une articulation complètement nouvelle de leur fourniture. Donnons quelques exemples :

  • Dans le domaine du transport, un service de covoiturage comme celui de Blablacar est la transformation profonde d’une activité auparavant marginale, l’autostop. Il menace directement les entreprises de transport en commun (cars routiers ou trains, voire transport aérien) de la même façon qu’au moment de la bulle Internet, les sites de vente en ligne  de billets et séjours touristiques ont menacé les agences de voyages, et les sites de téléchargement de musique (légaux ou illégaux) ont menacé la distribution de CD.
  • Toujours dans le domaine du transport, l’opérateur Uber, qui propose lui aussi la formule de covoiturage mais en ville, s’appuie sur la possession de téléphones mobiles et la disponibilité  de places en voiture, pour organiser ce covoiturage urbain. Il menace directement un pan de l’activité des chauffeurs de taxi, voire les transports en commun.
  • Dans le bâtiment, les nécessités créées par la construction ou la rénovation de « bâtiments intelligents » c’est-à-dire économes en énergie et respectueux de l’environnement, imposent de concevoir l’architecture de ces bâtiments en fonction de réseaux « domotiques » qui fournissent des services de gestion des infrastructures pour mieux réguler la consommation d’énergie et d’eau, piloter les produits « blancs »(électroménager) et « bruns » (matériel audiovisuel, informatique) ainsi que toutes les infrastructures  (volets, sanitaires, salle de bain…) que contient le bâtiment en question.
  • Dans le domaine médical, les systèmes de prothèse ou de correction (lunettes), se voient dotés de capacités de communication qui en font des « objets intelligents ». L’apparition des lunettes Google et de la montre Apple, marques globales s’il en est, montre que ces évolutions ne sont plus de l’ordre de la Science-fiction, voire du développement de prototypes, mais ont atteint un niveau de diffusion désormais grand public.
  • Les vêtements à leur tour deviennent « intelligents », incorporant des capteurs entre leurs fibres, pour des usages thérapeutiques ou de confort.

Ainsi se mettent en place des systèmes articulés, des écosystèmes diraient certains, où des plateformes centrales ou périphériques (certains objets connectés, à l’instar du smartphone, sont de véritables plateformes) relient, coordonnent et opèrent des ensembles d’objets,  en une architecture de services disponibles pour toute catégorie d’utilisateurs : individus et organisations, voire d’autres plateformes.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sont les archétypes d’entreprises proposant des plateformes globales, conçues pour accumuler toutes les données afin de fournir tous les services que la numérisation peut proposer. Leur activité reste largement confinée, pour l’instant, dans le maniement des données « abstraites », peu ou pas reliées à des activités matérielles. Mais dans la dynamique d’expansion qui est la leur, ces plateformes globales ont vocation à pénétrer le champ de ces activités comme le démontrent les « Google glasses », la « Google car » et l’ « Apple Watch » évoquées plus haut.

Ces mutations sont donc les témoignages de l’apparition de grappes d’innovation s’appuyant sur les réseaux, l’information stockée dans les serveurs (le « cloud ») et les capteurs matériels de données. Ces innovations sont architecturales mais pas « de rupture » (Clark, 1985), au sens où elles transforment en profondeur les activités précédentes, même si elles n’utilisent pas forcément, pour ce faire, des composants nouveaux. Cela n’enlève rien à leur potentiel.  Après tout c’est comme cela que l’I-phone s’est imposé, en intégrant une série de fonctionnalités nouvelles qui existaient auparavant sur le marché  indépendamment les unes des autres. On appelle ce genre de percée, un « dominant design », un modèle dominant (Abernathy et Utterback, 1978).

Pour qu’une innovation, architecturale ou de rupture, puisse s’imposer, il faut combiner d’une part une compréhension des besoins (latents, donc pas exprimés) que le consommateur ressent, et c’est le propre du marketing. Il faut dans le même temps offrir une solution (technique, s’agissant de produits «high tech ») qui satisfasse ce besoin, donc résoudre pas à pas des difficultés techniques. En règle générale il est assez difficile de coupler la mise au point technique de la solution et la révélation du besoin (latent), malgré ce qu’en dit Clark (1985). Si ce couplage était si aisé, on ne comprendrait pas pourquoi celui qui arrive le premier sur le marché (l’innovateur) n’est pas toujours celui qui rafle la mise, le leader (Teece, 1987). Les cadavres d’innovateurs ayant raté leur marché jonchent en effet  le long parcours du progrès technique.

Dans le cas de la « grande transformation », les innovations et les  mutations sectorielles que vont induire les plateformes et les objets connectés ne seront pas forcément  produites par les GAFAM, malgré leurs avantages indéniables : savoir-faire en manipulation de données,  présence globale, capacité à entretenir des relations privilégiées avec les individus, à les connaître grâce à leurs « traces » numériques. En effet, beaucoup d’applications potentielles sont pour l’instant des marchés de niche qui n’intéressent pas forcément des opérateurs globaux (cas du covoiturage), ou bien sont des activités réglementées où l’entrée d’un opérateur intermédiaire n’est pas forcément facilement autorisée (cas des plateformes de consultation médicale à distance par exemple).  Cela laisse donc des marges de manœuvre à des actions plus locales, soit par des acteurs de la profession capables de se coordonner pour proposer des services en ligne innovants sans toutefois devenir des cartels, soit pour des startups ou PME qui « flairent » les opportunités en raison de leur connaissance du marché local, de leur capacité à réunir rapidement des compétences nécessaires à la mise au point de ces plateformes et services innovants.

Un autre point mérite d’être souligné. La mise en place de ces services « matériels » (ou plutôt facilitant les activités matérielles) en s’appuyant sur des capteurs et des plateformes, permet de surmonter l’obstacle majeur qu’Internet fait peser sur la structure industrielle du numérique : L’indépendance du monde des infrastructures, domaine des opérateurs, de celui des services (logiciels), en raison du protocole IP. Cette indépendance a consacré la domination de « l’infomédiation » (les logiciels et des GAFAM) sur les opérateurs de réseau, confinant ces derniers à un rôle de simple sous-traitant. Avec l’Internet des objets, ils ont au contraire la possibilité de reprendre la main à condition d’étendre leur activité au monde des capteurs. Cela passe par des alliances avec des constructeurs de solution, par la mise en place de plateformes et par un rôle de coordination entre tous les acteurs (industriels, sociétés de service, instances de régulation et métiers utilisateurs). Il n’est pas sûr qu’ils aient pris conscience de ces opportunités. Ils ont du mal à s’approprier des « contenus »,  surtout lorsque ceux-ci correspondent à du savoir-faire spécifique d’une profession. Ils ont également drastiquement réduit leur potentiel de recherche, affaiblissant ainsi leur capacité à résoudre des problèmes techniques.

Un atout sur lequel les opérateurs devraient s’appuyer, c’est leur capacité à mettre en œuvre des standards, sans forcément chercher à s’accaparer les fruits de la standardisation par des brevets.  Ces innovations architecturales en effet sont le siège d’importants effets de réseau locaux, puisqu’il s’agit de coordonner des métiers. Or le risque est d’enfermer la profession dans des standards propriétaires, ou même collectifs mais décidés par la profession, les rendant inaptes à l’interopération avec ceux d’une autre profession. Comme la contrainte technique sur les capteurs

Quoi qu’il en soit, l’Europe cherche une « renaissance industrielle ». Dans le monde du numérique, il existe une voie pour cette renaissance, pas forcément grande créatrice d’emplois directs, mais en tout cas potentiellement pourvoyeuse d’innovations, de brevets et d’activité. En outre les utilisateurs de ces nouveaux services verront à terme leur productivité s’améliorer, et donc leurs marges se restaurer. Ils pourront envisager d’investir et d’embaucher. Bref c’est la croissance économique que la diffusion du numérique dans les activités matérielles va permettre. Un formidable enjeu dont il n’est pas sûr que l’Europe ait pleinement conscience, malgré son agenda H2020 qui cible spécifiquement des actions dans le domaine applicatif.

 Bibliographie :

Clark, K. B. (1985). The interaction of design hierarchies and market concepts in technological evolution. Research policy14(5), 235-251.

Abernathy, W. J., & Utterback, J. M. (1978). Patterns of industrial innovation.Journal Title: Technology review. Ariel64, 254-228.

Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research policy, 15(6), 285-305.

Le strabisme des régulateurs du numérique

« Pendant le changement de titulaire, la vente continue ! ». La nouvelle Commission Juncker qui se met en place ces jours-ci doit reprendre à son compte les travaux lancés par la précédente. Dans le  domaine du numérique, un texte important a été présenté en Septembre 2013, visant à  réaliser un véritable marché pan-européen des télécommunications. Ceci est la seule garantie, selon l’ancienne Commission, que soient restaurés le dynamisme et la capacité d’innovation dont disposait l’Europe des télécommunications il y a plus de 20 ans. C’est en effet en 1992 qu’était lancé le GSM (ou système de communications mobile « 2G », comme on dit maintenant) qui fut le seul fleuron de la technologie européenne des télécommunications, et connut un véritable succès mondial.

Maintenant la Commission européenne explique que cette profonde langueur du marché européen, cette mauvaise santé financière et cette pusillanimité à l’investissement des opérateurs (sur la « 4G »,la nouvelle génération de téléphonie mobile ou sur la fibre), c’est la faute à la fragmentation des marchés nationaux, trop petits, trop contraints par des obligations administratives excessives (autorisation à opérer), trop soumis à la rapacité des Etats désespérément en manque de ressources financières, et qui profitent de la mise aux enchères des fréquences du spectre pour ponctionner les pauvres opérateurs. Tout ce que dit la Commission n’est pas faux, bien au contraire, mais c’est tout sauf l’essentiel.

Car le vrai problème est la régulation « ex ante », c’est-à-dire le contrôle a priori par une instance de régulation, des prix pratiqués par les opérateurs « dominants » notamment pour que leurs concurrents utilisent leurs réseaux, principe cardinal préconisé par la Commission et pratiqué par les agences nationales (l’Arcep en France). Ce contrôle a conduit, au moins en Europe,  à un effondrement des prix sans doute actuellement trop bas. Résultat, les marges des opérateurs sont laminées et ils n’ont plus aucun moyen ni incitation à investir. Ils sacrifient leur R&D, suppriment des emplois, retardent le renouvellement de leurs équipements, tout ceci pour serrer leurs coûts, et plus leurs coûts sont faibles, plus le régulateur sera tenté de leur imposer des « prix de gros » vis-à-vis de leurs concurrents, de plus en plus bas. Bref se met en place une spirale infernale baisse des coûts/ baisse des prix, qui certes bénéficie à court terme au consommateur, mais le prive à long terme d’une offre de qualité, sauf à ce que l’initiative publique (par exemple les collectivités locales) supplée cette carence des offres privées et fasse payer par l’impôt le déploiement des infrastructures avancées.

Pourtant le principe d’une régulation ex ante s’applique à des degrés divers partout dans le monde, et le contrôle des prix par une autorité semble frappé sous le coin du bon sens économique : qui ne voudrait pas de prix bas sur un marché où un opérateur dominant pourrait potentiellement faire la pluie et le beau temps? Mais en Europe ce principe de contrôle est mis en œuvre par 28 instances nationales, dont certaines rivalisent de zèle pour obtenir des opérateurs « dominants » les prix les plus bas possibles. Et la Commission encourage ces « bons élèves » et pointe du doigt les « mauvais » par la procédure de « benchmark », tant vantée dans l’Agenda de Lisbonne.

La vérité pourtant est que les opérateurs dominants ne sont plus dominants de grand-chose : L’essentiel de la valeur créée dans le numérique intervient « over the top », c’est-à-dire au-dessus de la couche IP, là où règnent les Google, Amazon, Facebook, Apple et Microsoft (GAFAM), maintenant rejoints par Twitter. Ceux-ci abusent-ils à leur tour de leur position dominante ? Beaucoup le soupçonnent et des procédures d’enquête  ont été diligentées tant aux USA qu’en Europe, notamment sur les pratiques de Google. D’autres les accusent d’évasion fiscale : Google/ Depardieu, même combat ! Mais de toute façon le contrôle des plateformes, lorsqu’il existe, est exercé a posteriori, et non a priori comme dans les télécommunications. L’impression actuelle est que ce contrôle est extrêmement « light ».

On avance, pour justifier cette mansuétude du régulateur à l’égard des grandes « plateformes » que sont les GAFAM, que celles-ci sont engagées dans une lutte globale sans merci où, pour survivre, ce ne sont pas les prix bas qui font le marché : bon nombre de leurs services sont en effet « gratuits » pour le consommateur, même quand ils ont un coût très élevé, comme la livraison de colis à domicile pour Amazon. Ce qui fait survivre les GAFAM, outre  la revente de données acquises « à l’insu du plein gré » des consommateurs, ce sont les revenus publicitaires, l’archétype étant Google avec son système d’enchère. Apple lui, se finance par la vente avec marge de terminaux beaux mais coûteux, qui placent la dépense en dehors de la consommation du service.

Mais la clef de la survie c’est selon les acteurs eux même, la capacité à innover et à se renouveler en permanence. Dès lors, il ne sert à rien de les surveiller car ils se surveillent mutuellement, à l’affût qu’ils sont des innovations des concurrents, ou de « jeunes pousses » qu’il faudra tenter de racheter quand elles commenceront à décolle, sinon elles finiront par vous écraser, comme l’a fait Google pour Yahoo! ou bien Facebook pour Myspace. Cette insécurité constante quant à leur propre futur rendrait ces plateformes « proactives », à l’écoute du consommateur, se retenant d’abuser de leur position dominante, mais cherchant au contraire à toujours améliorer leur offre de service.

Ce « storytelling » (en français cette fable !) est bien sûr largement inexacte. Beaucoup de concurrents se plaignent que ces plateformes au contraire verrouillent l’innovation en limitant la créativité des concepteurs, profitent indûment d’informations fournies gratuitement par leurs clients (par exemple les données personnelles), pratiquent la distorsion de concurrence en favorisant une application «faite maison » au détriment de celle d’un autre producteur. Ces plaintes ne sont pas faciles à étayer et les autorités de surveillance, qu’elles soient spécifiques (Arcep) ou génériques (tribunal, Conseil de la Concurrence) hésitent à les instruire, si elles ne sont pas officiellement saisies

Pourtant plusieurs éléments devraient les inciter à être moins pusillanimes : il n’y a par exemple aucune portabilité des données quand vous passez d’une plateforme à l’autre. Alors que ceci est imposé pour les numéros, rien de tel n’existe si par exemple vous changez de smartphone, passez de Samsung à Apple ou vice versa. Et pourtant cela rendrait bien des services au consommateur. De même ce que l’on fait de vos données personnelles devrait vous être connu. C’est une licence que vous octroyez, pas un transfert de propriété, sinon on pourrait s’arroger votre patronyme! Le contrat de session de droit serait alors plus équilibré.

Alors que dans les infrastructures le régulateur fait tout pour abolir toute situation de monopole quelle qu’elle soit, dans les industries « over the top », c’est-à-dire sur les plateformes, règne au contraire le monopole de contenu (dans le meilleur cas le brevet logiciel ou pire, le droit d’auteur), que l’on préserve « au nom d’une incitation à l’innovation ». A l’abri de ce monopole en béton, le détenteur du droit d’auteur fait ce qu’il veut. De même la juxtaposition entre un secteur, celui des infrastructures, où on impose la « neutralité du net » c’est-à-dire l’interdiction de discrimination, sauf motif considéré, après examen soigneux, comme « légitime », et où de l’autre côté, l’examen de la discrimination éventuelle n’est même pas envisagé car considéré comme trop complexe et susceptible de « brider l’innovation », on ne peut pas s’attendre à ce que les opérateurs soient aussi performants que les plateformes.

En résumé, les gouvernements européens (Parlement Européen compris) sont comme un conducteur de voiture atteint de strabisme et  lancé à vive allure sur une route sinueuse : Myope de son œil gauche braqué sur la route, et presbyte de son œil droit fixé sur ses pédales de frein et d’accélérateur, comment voulez-vous qu’il ne mène pas sa voiture droit dans le mur ?

Bitcoin ou le rêve libertarien d’un monde sans institution

Les « bitcoins »,  cette « monnaie électronique », officiellement interdite en Chine mais que Monoprix serait « prêt à accepter » avant la fin de l’année 2014,   a reçu récemment un beau coup de projecteur. On ne sait pas trop si c’est un gros « buzz » et si cette « monnaie sans banque » a un réel avenir. On peut penser que tout cela traduit surtout le profond ressentiment que beaucoup éprouvent  à l’égard du système financier et de ses instances de régulation, fauteurs de la plus grande crise économique que l’on ait connue depuis 50 ans, notamment en Europe : Si seulement on pouvait se passer d’un tel système!

Mais au-delà de ces incantations, l’avenir réel des «bitcoins » n’a peut être pas une grande importance, au moins à court terme. Car il s’agit surtout d’une très ingénieuse innovation à la fois technique et sociale, qui pourrait faire des émules dans bien d’autres domaines. Elle nous intéresse car elle met bien en évidence les multiples possibilités d’articulation entre l’économie du partage et l’économie des transactions. Pour le comprendre il faut malheureusement entrer dans le fonctionnement du système « bitcoin » lui-même, ce qui n’est si facile. Il y a de très bonnes références sur le net ici ou .

Comment ça marche ?

Le « protocole bitcoin » est un système « pair à pair », qui revient aux fondamentaux de l’internet, et qui tourne le dos au concept de « plateforme » devenu omniprésent dans l’Internet d’aujourd’hui. Concrètement quand, disons, SD veut transférer 10 de ses bitcoins à GDN il faut, pour que la transaction soit valide, que tous les ordinateurs connectés au système bitcoin soient au courant et qu’ils l’aient en quelque sorte validée. Bien entendu,  ils ne savent pas qui sont SD et GDN, dont les adresses ont été cryptées. Mais pourquoi tous les ordinateurs du système doivent-ils être informés ? L’absence de plateforme centrale (l’ordinateur de la banque) rend nécessaire la décentralisation complète de l’information auprès de tous les participants.

Mais peut-on faire confiance à SD ? il faut notamment que ce chenapan potentiel ne réutilise pas les mêmes bitcoins qu’il a transférés à GDN pour payer FM, durant le laps de temps pendant lequel la première transaction (avec GDN) se dénoue : si celui-ci doit, par exemple, faire livrer un colis par la poste en contrepartie, il peut s’écouler « un certain temps » comme disait Fernand Raynaud, pour que l’affaire soit soldée. Entretemps, avec la vitesse « de la lumière » à laquelle circule l’information sur le Net et la rapidité légendaire de SD qui tel Lucky Luke,  « transacte » plus vite que son ombre, la multiplication d’opérations frauduleuses pourrait submerger le Net.

Mr Nakamoto, le mystérieux créateur de Bitcoin, a imaginé un mécanisme « diabolique » pour déjouer les turpitudes de tous les SD de l’Internet. D’abord chaque bitcoin est individualisé par l’historique de toutes les transactions dans lesquelles il est intervenu : cela correspond au numéro de série d’un billet de banque, mais aussi à un extrait d’un livre de comptes chaque fois que ce bitcoin est apparu dans une transaction. Ensuite, tel le Sphinx égyptien, le système Bitcoin, pose une énigme mathématique nouvelle dès qu’il diffuse une transaction à valider à tous les ordinateurs du réseau, par exemple celle impliquant SD et GDN.  Tous les ordinateurs du Net qui le souhaitent (on les appelle des miners car littéralement ils fouillent dans leur mémoire et leur processeur pour trouver la solution) cherchent à résoudre ces énigmes, car cela leur rapporte des bitcoins nouveaux, créés par le système pour l’occasion. En moyenne la solution est trouvée en 10 minutes. L’heureux vainqueur devient le garant de la transaction par exemple entre SD et GDN, sans que cela l’engage en quoi que ce soit. Il inclut cette transaction qu’il a dûment validée dans une « chaine » de transactions valides, et la fait parvenir à tous les autres ordinateurs du réseau. Une chaine est donc un ensemble de transactions en cours de validation.

On trouve sur cette page une description précise du déroulement d’une transaction

Mais si SD dispose d’un ordinateur très puissant il pourrait, lui, résoudre l’énigme liée à sa transaction  avec FM, avant que les autres ne trouvent la solution à l’énigme liée à celle avec GDN : il bénéficierait de la livraison de GDN  tout en réclamant son dû à FM. Pour éviter cela, les ordinateurs du système contrôlés par un seul miner, ne doivent pas dépasser 50% de la capacité informatique totale. Ainsi la probabilité que SD soit plus rapide que les autres et puisse frauder, devient très faible.

Mr Nakamoto a même prévu le cas de situation d’ « ex aequo », par exemple si une partie du  Net tombe en panne  ou en cas de congestion trop importantes, ce qui pourrait permettre à certains de tricher. Les ordinateurs verraient arriver au moment de la remise en service, plusieurs chaines de validation où interviennent les mêmes bitcoins.  Par défaut le système prévoit que la chaine considérée comme prééminente est la plus longue, celle qui contient le plus de transactions en cours de validation. Car on peut supposer qu’elle provient de plusieurs sources non coordonnées, alors qu’une chaine plus courte proviendra plus vraisemblablement d’une même source (supposée frauduleuse).

 Une histoire de confiance

Le système bitcoin est intéressant car c’est un système créateur de confiance, puisque dans la monnaie c’est d’abord et avant tout de cela dont il s’agit. Or la confiance est provoquée non par une garantie donnée par un « puissant » (un Etat, ou au Moyen Age un banquier qui possède beaucoup d’or), ni par une empathie entre deux ou plusieurs êtres humains, mais bien par un « code » informatique au sens de Lessig, Rappelons que la confiance collective est un bien public, soumis au paradoxe d’Olson et de manière plus large à tous les procédés de trahison de confiance. Pour ceux intéressés par l’analyse de la confiance, nous ne saurions trop recommander deux livres qui figurent dans la bibliographie du « Numérique », celui de Tarik Tazdait et celui de Paul Seabright.

Le système bitcoin est parfaitement décentralisé et pourtant la subtilité du code permet d’éviter le paradoxe d’Olson. Grâce à la technologie, un sentiment (la confiance) peut naitre au sein d’une communauté très large d’êtres humains qui ne se connaissent pas et qui pourtant se coordonnent alors de façon efficace. Clairement le système Bitcoin est dans l’esprit « libertarien » de l’Internet vu comme « un monde à part », où les institutions sont censées ne pas entrer. En ce sens il maintient vivant l’esprit originel de l’Internet, et s’oppose à la prise de contrôle des GAFAM, de l’Etat Américain ou d’autres Etats plus autoritaires.

Cependant le système Bitcoin ne fonctionne de façon réellement décentralisée qu’en interne. Dès qu’il s’agit de transformer vos bitcoins en euros ou dollars ou tout autre monnaie, ou à l’inverse de rentrer dans le système Bitcoin en cherchant à en acquérir contre vos propres devises, il faut passer par des « plateformes », des agents de change électroniques en quelque sorte, où sont affichés les cours du bitcoin en diverses monnaies. Or ce cours est très volatile comme en témoigne ce second graphique extrait du site www.lafinancepourtous.com.

Prix-du-Bitcoin_large

De plus, la plus importante de ces plateformes, MT.Gox, sise au Japon, a fait l’objet d’une attaque de hackers qui l’a dévalisée et elle a dû déposer son bilan début 2014. Ainsi malgré tous ses avantages supposés (anonymat, transparence, élimination des frais bancaires…) le système Bitcoin a encore, pour paraphraser un de nos anciens premiers ministres, une pente raide à gravir, même si la route est droite. Il est bien possible que ce ne soit pas un bon grimpeur.

Protocole versus institution

Mais devenir, à l’instar du dollar une monnaie universelle « as good as gold », n’est peut être pas si important pour le système Bitcoin. Plus significatif est son caractère innovant du point de vue social. Le Bitcoin en effet a fait, comme beaucoup de commentateurs l’ont souligné, une « preuve de concept » montrant que l’on pouvait créer sur une base purement technique (un protocole) et non pas institutionnelle, un mécanisme de confiance entre des individus qui ne se connaissent pas. Seul jusqu’à présent le « marché » tel que l’a conceptualisé Adam Smith, avait réussi cette prouesse. Mais pour qu’il puisse fonctionner, le « marché » a besoin d’institutions qui garantissent l’exécution des contrats, qui arbitrent en cas de litiges, qui puissent recourir à la force pour contraindre une partie qui fait défaut, etc. Et pour que ces institutions puissent elles même fonctionner de façon efficace et correcte, il faut qu’elles soient contrôlées par la société, grâce à des procédures démocratiques. Car sinon elles peuvent engendrer de la corruption, de l’insécurité entrepreneuriale, une croissance moindre, des inégalités insupportables, sources de tensions sociales (c’est bien ce qui s’est passé en Europe à la fin du XIXème siècle).

Cette innovation sociale majeure que fut l’économie de marché a permis – grâce au progrès technique- l’essor de l’espèce humaine sur les 300 dernières années. Le système financier qui est au cœur de l’économie de marché, s’appuie lui-même sur des institutions fortement contrôlées, banques, banques centrales, FMI : si le contrôle s’exerce mal s’ensuit inévitablement une crise avec des conséquences dramatiques, comme celle de 2007-2008.

Or Bitcoin montre que l’on pourrait, en théorie, se passer des institutions tout en reproduisant l’efficacité même de l’économie de marché où les agents se font confiance sans se connaître (Seabright). Pour cela il « suffit » de développer la technologie et les protocoles adéquats. L’essence même de l’architecture du Net, le fonctionnement en  « pair à pair », ou si l’on veut le contrôle par les extrémités comme nous l’avons nommé dans le livre, autorise les interactions   décentralisées, sans intermédiaire et anonymes. Mais l’originalité du système Bitcoin est que par un simple artefact technique, il engendre la confiance, évite les comportements de passager clandestin, d’opportunisme au sens de Williamson, de fraude. Même s’il n’est pas parfait, la marge d’erreur n’est pas plus grande que celle que l’on trouve dans le monde réel où prédominent les institutions.

Bitcoin réalise ainsi le rêve libertarien d’une société sans institution, mais aussi sans lien social.  Il n’est pas sûr que ce soit un progrès. Mais le fait que ce soit techniquement réalisable invite quand même à réfléchir.

Les modèle de Barabasi et Albert (1999), et de Price (1975) en liaison avec les lois puissance

Dans le chapitre 2 du livre « Le numérique » nous avons fait allusion au point suivant : Le champ d’application de la loi puissance paraît si large, que l’on peut s’interroger sur l’origine de ce phénomène. La note suivante, dont le matériau est inspiré des livres de Jackson (2007) et Newman (2010), donne un fondement théorique à cette loi.

Barabasi et Albert ont proposé en 1999 un modèle de croissance d’un graphe complexe du type de celui d’Internet, en faisant l’hypothèse d’une apparition permanente de nouveaux nœuds qui sont connectés aux anciens sur la base d’un attachement préférentiel : les connexions de ces nouveaux nœuds se font préférentiellement avec ceux qui ont déjà beaucoup de liens. Cependant leur modèle est une variante d’un autre élaboré en 1975 par Price concernant le réseau des citations scientifiques, où les nœuds sont les articles et les liens sont les citations qu’un article fait des autres articles. Le graphe  ainsi constitué est orienté : un article i « pointe », en le citant, vers l’article k. Dans le modèle de Barabasi et Albert par contre, le graphe n’est pas orienté. Une autre différence entre les deux modèles est que dans celui de Price un article quelconque fait deux types de citations, vers des articles beaucoup cités (en probabilité, proportionnellement  aux citations dont il bénéficie déjà, suivant le principe d’attachement préférentiel) mais aussi de façon aléatoire. Ainsi un nouveau nœud fait  c citations en moyenne, dont une partie n est « préférentielle » et une autre partie a, aléatoire. Barabasi et Albert ne considèrent que l’attachement préférentiel. Nous présentons le modèle de Price et donnons à la fin les formules obtenues par Barabasi et Albert.

la suite de la démonstration dans le pdf ici

Demonstration Barabasi et Albert (1999) et Price (1975)

références :

Jackson Matthew O. : « Social nd Economic Networks » Princeton University Press, 2010.

Newman Mark.E.J. « Networks: an introduction »Oxford University Press, 2010.