Tous les articles par godefroy

Que se passe-t-il quand 13000 wikipediens jouent au jeu du dictateur ?

« Vous recevez une somme de 10 € que vous devez partager avec une autre personne » (qui se trouve dans le cas présent être un autre répondant au questionnaire), combien gardez-vous ?

Ce jeu, très simple, sans interaction stratégique, est facile à implémenter en ligne et est peu sujet aux biais de compréhension par les répondants. Il permet aussi, rapidement, de révéler des attitudes sociales chez les participants.

Nous avions deux objectifs en faisant jouer ce jeu aux répondants de notre enquête sur les usages de Wikipédia, réalisée par M@rsouin avec l’aide de Wikimédia France (et des wikipédiens).

Tout d’abord mettre en évidence des motivations prosociales chez les wikipediens, mais contrairement à ce que la littérature a déjà montré nous voulions nous intéresser à l’ensemble des wikipediens et pas uniquement aux contributeurs. Les utilisateurs non contributeurs jouent un rôle souvent sous-estimé dans ce type de communauté, l’article de Zhang et Zhu, est éclairant de ce point de vue, il a montré que quand les « lecteurs » disparaissent, les contributeurs arrêtent de contribuer. Et si les motivations prosociales n’étaient pas uniquement l’apanage des contributeurs ?

Deuxièmement, et contrairement à l’approche expérimentale traditionnelle qui neutralise le contexte pour isoler les comportements et préférences « intrinsèques » des agents, nous avons en quelque sorte immergé les répondants dans leur pratique avant de les soumettre au jeu du dictateur (ils ont répondu à un questionnaire sur leurs usages de Wiki et leur attachement à la plateforme avant de jouer au jeu du dictateur). En faisant émerger des motivations prosociales « en contexte » nous cherchions à voir si l’engagement et l’attachement à la communauté Wikipedia avait un impact sur ces motivations. Dit autrement est-ce que la communauté fabrique ces comportements ou est-ce que, dans une approche plus orthodoxe, les individus ont des préférences prosociales « ex ante » qui façonnent leur comportement sur Wikipedia.

le jeu du dictateur

Que nous dit la littérature sur les réponses à ce jeu ?  Ci-dessous les résultats de la meta-analyse d’Engel (2011) qui recense 328 traitements et plus de 20000 joueurs.

 

image001

35% ne donnent rien et sont en général assimilés à des individus rationnels et égoïstes, les réponses non nulles étant assimilées à des comportements prosociaux comme l’altruisme ou la préférence pour l’égalité.

Qu’avons nous trouvé ?

dgwiki

67% des 13000 répondants ont choisi le 50/50 (plus connu sous le nom de fifty/fifty ou moit/moit)

Évidemment en les faisant parler de leur pratique et de leur attachement à Wikipedia nous avons activé leur « prosocialité » ce qui explique cette déviation par rapport aux résultats habituels. Mais pour autant nous ne nous attendions pas à trouver un taux aussi élevé de 50/50, on ne trouve pas dans la littérature un taux de 50/50 supérieur à 40% ici c’est 67% !

photofunky

Qu’est ce que ça veut dire ?

Dans la littérature le 50/50 est assimilé à une norme sociale, celle qui fait que quand vous avez partagé un bon repas avec des amis au restaurant vous partagez la note indépendamment de ce que vous avez pris ou que lors de votre succession vous donnerez la moitié de votre patrimoine à vos deux enfants (sauf bien sur si il y en a un que vous n’aimez pas) ou encore lorsque le propriétaire terrien et le métayer partagent la récolte à parts égales. Des auteurs ont montré que cette réponse au jeu du DG était perçue comme « socialement appropriée ».  Notre résultat montre en quelque sorte que les wikipediens se coordonnent autour de cette norme sociale de partage.

En étant sur une plate-forme où les contributions ne se font pas sur la base d’échange monétaire et étant donné que notre questionnaire a probablement sélectionné les individus les plus « généreux », on pouvait s’attendre à ce qu’ils donnent facilement plus de la moitié de leur dotation voir même la totalité, mais non !!! C’est bien sur cette norme bien particulière du  50/50 que les wikipediens se sont arrêtés.

Qui a répondu 50/50 ?

C’est la partie la plus intéressante, (vous trouverez plus de détails dans l’article de recherche complet ici), et elle nous amène à 3 résultats :

1) pas de différence entre les contributeurs et non contributeurs, la plupart des études avaient jusqu’ici mis en évidence la plus forte « prosocialité » des contributeurs, nous montrons qu’elle existe chez tous les utilisateurs de la plate-forme.

Différents arguments peuvent expliquer ce premier résultat.

  • Contrairement aux idées reçues il n’est pas si facile de contribuer à Wikipedia, il faut des connaissances, suffisamment confiance en soi pour les exprimer, maîtriser les outils éditoriaux ainsi que les règles de contributions parfois complexes, il est donc possible que de nombreux non contributeurs aient les motivations suffisantes pour le faire mais pas les « compétences » requises.
  • L’existence de cette norme du 50/50 marque peut-être l’existence d’une norme de réciprocité implicite entre d’un coté ceux qui contribuent en produisant de la connaissance et ceux qui la valorisent, l’utilisent augmentant ainsi les bénéfices sociaux de ceux qui la produisent. Cette explication est compatible avec le fameux « warm glow » d’Andreoni et plus généralement la volonté d’apparaître aux yeux des autres comme quelqu’un d’altruiste et de généreux. Pour résumer, l’existence d’une norme commune de réciprocité peut ici se justifier par l’échange de contenu (par les contributeurs) contre de l’attention (par les utilisateurs non contributeurs).

2) Plus les utilisateurs utilisent Wikipedia (chercher de l’info, approfondir des connaissances, vérifier un point..) et/ou plus ils connaissent Wikipedia depuis longtemps et/ou plus ils manifestent leur attachement à la plate-forme,  plus ils sont enclins à avoir répondu 50/50. Un travail autour de la causalité de cette relation nous amène à penser que c’est bien dans ce sens qu’elle se manifeste. Ce résultat suggère que la norme se fabrique au fil des interactions dans la communauté qui produit donc les comportements qui font son succès. Ce n’est pas parce que vous êtes « prosociaux » que vous êtes wikipediens, c’est plutôt la communauté qui fait de vous des êtres prososiaux.

3) nous avons également distingué les usages personnels et professionnels sur la plate-forme, si les premiers sont associés au choix du partage égal, les seconds ne le sont pas. Ce résultat montre l’importance des motivations intrinsèques dans l’adhésion à la norme 50/50, si votre usage de wiki est motivé par des considérations professionnelles vous avez moins de chance de choisir le partage égal au jeu du dictateur. On retrouve ici une idée assez connue selon laquelle les motivations extrinsèques évincent les bonnes incitations, l’occasion de citer un prix de la banque de Suède en l’honneur d’Alfred Nobel (ça fait smart) : Benabou et Tirole …et le célèbre Titmuss dont les conclusions restent contestables)

En guise de conclusion, la « sharing economy »

L’expression « économie du partage » est devenue un concept valise… des réseaux P2P à Uber, tout  est bon pour invoquer les valeurs collaboratives et participatives des internautes qui interagissent à l’interieur de ces plateformes. Comprendre l’économie collaborative c’est comprendre que les incitations monétaires et les arbitrages coût/bénéfices ne guident pas toutes les actions, que des individus puissent retirer des bénéfices sociaux de leurs interactions avec les autres au point de rendre possible la constitution du plus grand corpus de connaissance jamais rassemblé. La mise en évidence dans notre recherche d’un point focal autour du partage égal dans le jeu du dictateur montre la force de ces motivations prosociales, a fortiori lorsqu’elle prend la forme d’une norme sociale partagée entre les protagonistes de ces plateformes.

Godefroy DangNguyen, Sylvain Dejean, Nicolas Jullien

Le numérique et l’emploi….je t’aime un peu, beaucoup ou pas du tout ?

Ne pas se tromper de politique publique est forcément quelque chose de délicat. Or sur la question du numérique et de la création d’emploi, il n’est pas facile de se faire une opinion.

En 2011, deux chercheurs E. Brynjolfsson et A. Mc Afee publiaient un essai dans lequel ils dénonçaient le risque sérieux que le numérique faisait peser sur la croissance, en permettant aux machines de se substituer trop vite à l’être humain. Ils actualisèrent et étendirent ce document dans un livre paru en 2014, « The Second Machine Age ». Notant les progrès réalisés en algorithmique, traitement des données et bien sûr, capacité de sans cesse croissante de calcul des microprocesseurs, ils affirmaient que la machine remplacerait rapidement l’être humain dans des tâches auparavant considérées comme trop complexes pour être confiées à un automate , par exemple conduire une voiture. Ils en venaient à affirmer que les progrès effectués par les robots  conduiraient à des restructurations massives au sein des ateliers, des entrepôts, comme déjà le travail de bureau avait été profondément modifié par la diffusion de l’informatique. Mais surtout ils notaient que les progrès exponentiels dans les capacités des circuits intégrés (« Loi de Moore ») conduisaient ce remplacement de l’homme par la machine  à être de plus en plus rapide.

Après tout, ceci n’est pas nouveau : l’histoire de la Révolution Industrielle est un processus permanent de « substitution du capital au travail », avec son lot de misère, de drames et de révoltes. En France celle, célèbre, des canuts lyonnais contre les métiers à tisser automatiques, n’en est qu’un exemple, dont chaque pays touché par la modernité pourrait aussi apporter le témoignage. Pourtant au final, le progrès technique procure de la richesse pour tous, les emplois perdus étant remplacés par des emplois nouveaux sur lesquels finissent par se déverser ceux que la machine a mis au chômage.

Mais le « dommage collatéral » de ce que Schumpeter appelle la « destruction créatrice », pourrait, selon nos auteurs, se transformer aujourd’hui en catastrophe de la taille d’un tsunami. Leur argument est simple : avec un progrès qui suit une loi exponentielle, les emplois que l’on peut perdre, pourraient être l’an prochain en nombre égal à tous ceux que l’on a perdu depuis que le numérique est apparu. Brynjolfsson et Mc Afee utilisent la métaphore du grain de riz et du jeu d’échecs pour illustrer leur propos. Si on met un grain de riz sur la première case d’un échiquier, deux grains sur sa voisine latérale, puis 4 grains sur la suivante, 8 grains sur celle d’après etc .,  on a accumulé un certain nombre de grains lorsqu’on est à la moitié de l’échiquier, mais dans la case suivante on en mettra autant que la somme des tous les grains déposés jusque-là. Si le stock de grains de riz est limité, on aura mis longtemps à le vider à moitié en déposant les grains sur l’échiquier, mais  à l’ instant l’autre moitié sera également perdue.

Leur argument est donc simple : Le numérique provoque un rythme de remplacement de l’homme par la machine auquel la société ne peut plus répondre en créant des emplois de substitution. Cela engendre un chômage de plus en plus grand, mais surtout celui-ci va s’accélérer dans les années qui viennent. Cette thèse a ensuite été reprise et élaborée par d’autres chercheurs. Ainsi Osborne et Frey ont utilisé un protocole à la fois statistique (fondé sur l’observation du passé) et heuristique (s’appuyant sur les opinions « d’experts » en robotique) pour évaluer dans les dix prochaines années la probabilité de substitution des emplois par des robots. Ils suggèrent ainsi que si un orthophoniste ou un gérant hôtelier a 3 à 4 chances sur mille de pouvoir être remplacé par un robot ou un automate dans les dix ans à venir, la probabilité passe à 98% pour un arbitre sportif ( !), un comptable ou un agent immobilier. Cette probabilité est de 40% pour un réparateur d’ascenseur, de 54% pour un embaumeur ( !), de 55% pour un réparateur de télévision. Bien entendu tous les emplois menacés ne le seront pas instantanément, tout dépendra des coûts respectifs du robot ou de l’automate, et du salarié. Ce qu’indique l’étude de Osborne et Frey, c’est la possibilité technique de substitution avec un niveau de performance équivalent. Le papier de Osborne et Frey donne le cadre de ce que pourrait être cette accentuation du rythme de substitution des emplois humains par celui des « machines ».

Cette thèse de Brynjolfsson et Mc Afee qui reste au final difficile à vérifier, bouleverse beaucoup d’idées reçues et rompt avec un débat qui agite les spécialistes du numérique depuis près de 30 ans : quel est l’impact véritable du  numérique sur la croissance ? Depuis le paradoxe de Solow, énoncé par son auteur en 1987 (« on voit les ordinateurs partout sauf dans les statistiques » – sous- entendu celles de la croissance et de la productivité -) deux thèses s’affrontent : pour la plupart des auteurs le numérique a un impact positif sur la productivité, donc sur la croissance ; c’est ce que reprennent la plupart des gouvernements qui font des TIC un vecteur de de dynamisme dans l’économie. Dans le récent plan annoncé en décembre 2014 par le Président de la Commission Européenne J.C Juncker, le numérique figure explicitement comme une des cinq priorités. La présidence lettone de l’UE qui prend effet au 1/1/2015, mentionne également le numérique comme un de ses trois objectifs politiques.

S’appuyant également sur cet axiome,  trois rapports sont récemment parus en France, celui de Philippe Lemoine, du cabinet Roland Berger et de Mc Kinsey, qui disent tous à peu près la même chose : Le numérique bouleverse l’économie, et les entreprises françaises ont pris du retard dans son adoption, ce qui les pénalise. Une consultation publique lancée par le Conseil National du Numérique en Octobre 2014 jusqu’à la mi-janvier, va également dans cette direction et propose notamment un ensemble de mesures pour combler ce retard.

Mais si la thèse des vertus du numérique quant à la croissance est  très largement répandue, certaines voix dissonantes affirment que cet impact est loin d’être évident. C’est notamment le cas de Robert Gordon ici qui depuis le milieu des années 90, tente de montrer que la « révolution du numérique » n’a pas du tout le même impact que les autres révolutions technologiques (machine à vapeur et chemin de fer, électricité et chimie). Un de ses récents papiers suggère par exemple que les progrès actuels du  numérique (smartphones, tablettes, vidéo à la demande…) sont principalement consacrés à la consommation de loisir et n’ont aucun impact sur la productivité des entreprises. Du coup les gains de productivité se concentrent dans le secteur de production du numérique uniquement, sans affecter le reste de l’économie. Pire, Gordon considère que les USA (économie qui est de loin la plus productive en matière de numérique), sont entrés dans une phase séculaire de faible croissance de la productivité, donc d’accumulation des richesses. C’est la thèse du « déclinisme » par rapport aux économies émergentes.

Ainsi par rapport à cette question clé qui est : qu’apporte le numérique aujourd’hui, il y a, avec la récente thèse de Brynjolfsson et Mc Afee, trois visions :

  • Le numérique n’a que très peu d’impact, surtout en comparaison avec les autres révolutions industrielles (Gordon)
  • Le numérique a un impact essentiel, et tout retard dans son adoption est une erreur économique et politique (OCDE, UE, presque tous les gouvernements)
  • Le numérique a un impact trop fort, qu’on risque rapidement de ne plus maîtriser ( Brynjolfsson et Mc Afee).

Ces thèses apparaissent irréconciliables. Pourtant les mettre en regard peut masquer l’essentiel : le numérique, comme tout vecteur du progrès technique, ne réalise pleinement ses effets que si la société s’en approprie les vertus et en limite les risques. Cela passe très souvent par de profondes mutations organisationnelles, tant chez les acteurs économiques que dans la société, voire dans l’ordre juridique. Ce sont ces mutations qu’il faut analyser et comprendre pour déterminer laquelle de ces trois thèses a le plus de chances d’être vraie. Gordon pense que les mutations organisationnelles n’ont que peu à voir avec le numérique, les gouvernements pensent qu’il est de leur responsabilité de susciter un cadre propice à ces mutations (certains gouvernements comme ceux de Corée ou du Japon considèrent même qu’il faut une forte aide publique à l’investissement dans le numérique), et Brynjolfsson et Mc Afee pensent que c’est dans les activités créatrices celles que la machine mettra le plus de temps à remplacer, que réside le salut des économies avancées : On voit que les recommandations en termes de politiques publiques sont très différentes.

La Grande transformation, les plateformes et les objets connectés

L’évolution du numérique pousse vers plus de connexion d’objets, et l’on parle d’ailleurs à ce propos « d’objets connectés ». Mais dans  la situation actuelle,  ces objets sont reliés, via Internet, à des « plateformes », qui intègrent leurs données envoyées et proposent en retour des services s’appuyant sur cette intégration. Comme le réseau de communication entre ces plateformes et ces objets est l’Internet, on évoque « l’Internet des objets ».

A l’origine les objets connectés étaient simplement des ordinateurs, dont les données étaient essentiellement « abstraites ». La mise en place de réseaux d’ordinateurs a ainsi été le grand défi de l’informatique et des télécommunications dans les années 1970-180. Avec le protocole TCP/IP créé en 1983, Internet a fini par s’imposer comme le réseau universel de connexion d’ordinateurs. Toute une série d’applications et de services a pu ainsi se mettre en place, dans la frénésie de la bulle Internet (1996-2001). Après son dégonflement l’innovation a malgré tout continué de suivre le progrès technique permanent dans les semi-conducteurs, d’autant que les réseaux de communications ont connu à leur tour une véritable mutation : déploiement des réseaux de mobiles et accès de ces réseaux à Internet (technologie dite « 3G », qui a décollé dans le milieu de la décennie des années 2000, diffusion de la technologie ADSL au sein des réseaux fixes qui a permis un accès confortable des ménages à Internet ). Le commerce électronique, les moteurs de recherche, les portails, la voix sur IP et maintenant la distribution de programmes audiovisuels sont quelques illustrations de ces évolutions.

Mais le développement des technologies sans fil, la miniaturisation des composants électroniques et la traduction de signaux de toute sorte en fichiers numériques (« numérisation ») a conduit les « objets connectés »  à se multiplier, pour transmettre aux « plateformes » la traduction numérique de quasiment tout phénomène physique, biologique ou abstrait, émanant de toute sorte d’objets, macroscopique ou microscopique, fixe ou mobile. La Grande transformation, c’est ce basculement de toutes les activités matérielles vers la numérisation, où celle-ci a pour vocation, en se greffant sur les objets, de coordonner  les activités matérielles pour en assurer une exécution améliorée, voire profondément bouleversée.

Ainsi sont en train de se mettre en place ce que Kim Clark (1985) appelle des innovations architecturales, où les prestations matérielles se trouvent profondément transformées par une articulation complètement nouvelle de leur fourniture. Donnons quelques exemples :

  • Dans le domaine du transport, un service de covoiturage comme celui de Blablacar est la transformation profonde d’une activité auparavant marginale, l’autostop. Il menace directement les entreprises de transport en commun (cars routiers ou trains, voire transport aérien) de la même façon qu’au moment de la bulle Internet, les sites de vente en ligne  de billets et séjours touristiques ont menacé les agences de voyages, et les sites de téléchargement de musique (légaux ou illégaux) ont menacé la distribution de CD.
  • Toujours dans le domaine du transport, l’opérateur Uber, qui propose lui aussi la formule de covoiturage mais en ville, s’appuie sur la possession de téléphones mobiles et la disponibilité  de places en voiture, pour organiser ce covoiturage urbain. Il menace directement un pan de l’activité des chauffeurs de taxi, voire les transports en commun.
  • Dans le bâtiment, les nécessités créées par la construction ou la rénovation de « bâtiments intelligents » c’est-à-dire économes en énergie et respectueux de l’environnement, imposent de concevoir l’architecture de ces bâtiments en fonction de réseaux « domotiques » qui fournissent des services de gestion des infrastructures pour mieux réguler la consommation d’énergie et d’eau, piloter les produits « blancs »(électroménager) et « bruns » (matériel audiovisuel, informatique) ainsi que toutes les infrastructures  (volets, sanitaires, salle de bain…) que contient le bâtiment en question.
  • Dans le domaine médical, les systèmes de prothèse ou de correction (lunettes), se voient dotés de capacités de communication qui en font des « objets intelligents ». L’apparition des lunettes Google et de la montre Apple, marques globales s’il en est, montre que ces évolutions ne sont plus de l’ordre de la Science-fiction, voire du développement de prototypes, mais ont atteint un niveau de diffusion désormais grand public.
  • Les vêtements à leur tour deviennent « intelligents », incorporant des capteurs entre leurs fibres, pour des usages thérapeutiques ou de confort.

Ainsi se mettent en place des systèmes articulés, des écosystèmes diraient certains, où des plateformes centrales ou périphériques (certains objets connectés, à l’instar du smartphone, sont de véritables plateformes) relient, coordonnent et opèrent des ensembles d’objets,  en une architecture de services disponibles pour toute catégorie d’utilisateurs : individus et organisations, voire d’autres plateformes.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sont les archétypes d’entreprises proposant des plateformes globales, conçues pour accumuler toutes les données afin de fournir tous les services que la numérisation peut proposer. Leur activité reste largement confinée, pour l’instant, dans le maniement des données « abstraites », peu ou pas reliées à des activités matérielles. Mais dans la dynamique d’expansion qui est la leur, ces plateformes globales ont vocation à pénétrer le champ de ces activités comme le démontrent les « Google glasses », la « Google car » et l’ « Apple Watch » évoquées plus haut.

Ces mutations sont donc les témoignages de l’apparition de grappes d’innovation s’appuyant sur les réseaux, l’information stockée dans les serveurs (le « cloud ») et les capteurs matériels de données. Ces innovations sont architecturales mais pas « de rupture » (Clark, 1985), au sens où elles transforment en profondeur les activités précédentes, même si elles n’utilisent pas forcément, pour ce faire, des composants nouveaux. Cela n’enlève rien à leur potentiel.  Après tout c’est comme cela que l’I-phone s’est imposé, en intégrant une série de fonctionnalités nouvelles qui existaient auparavant sur le marché  indépendamment les unes des autres. On appelle ce genre de percée, un « dominant design », un modèle dominant (Abernathy et Utterback, 1978).

Pour qu’une innovation, architecturale ou de rupture, puisse s’imposer, il faut combiner d’une part une compréhension des besoins (latents, donc pas exprimés) que le consommateur ressent, et c’est le propre du marketing. Il faut dans le même temps offrir une solution (technique, s’agissant de produits «high tech ») qui satisfasse ce besoin, donc résoudre pas à pas des difficultés techniques. En règle générale il est assez difficile de coupler la mise au point technique de la solution et la révélation du besoin (latent), malgré ce qu’en dit Clark (1985). Si ce couplage était si aisé, on ne comprendrait pas pourquoi celui qui arrive le premier sur le marché (l’innovateur) n’est pas toujours celui qui rafle la mise, le leader (Teece, 1987). Les cadavres d’innovateurs ayant raté leur marché jonchent en effet  le long parcours du progrès technique.

Dans le cas de la « grande transformation », les innovations et les  mutations sectorielles que vont induire les plateformes et les objets connectés ne seront pas forcément  produites par les GAFAM, malgré leurs avantages indéniables : savoir-faire en manipulation de données,  présence globale, capacité à entretenir des relations privilégiées avec les individus, à les connaître grâce à leurs « traces » numériques. En effet, beaucoup d’applications potentielles sont pour l’instant des marchés de niche qui n’intéressent pas forcément des opérateurs globaux (cas du covoiturage), ou bien sont des activités réglementées où l’entrée d’un opérateur intermédiaire n’est pas forcément facilement autorisée (cas des plateformes de consultation médicale à distance par exemple).  Cela laisse donc des marges de manœuvre à des actions plus locales, soit par des acteurs de la profession capables de se coordonner pour proposer des services en ligne innovants sans toutefois devenir des cartels, soit pour des startups ou PME qui « flairent » les opportunités en raison de leur connaissance du marché local, de leur capacité à réunir rapidement des compétences nécessaires à la mise au point de ces plateformes et services innovants.

Un autre point mérite d’être souligné. La mise en place de ces services « matériels » (ou plutôt facilitant les activités matérielles) en s’appuyant sur des capteurs et des plateformes, permet de surmonter l’obstacle majeur qu’Internet fait peser sur la structure industrielle du numérique : L’indépendance du monde des infrastructures, domaine des opérateurs, de celui des services (logiciels), en raison du protocole IP. Cette indépendance a consacré la domination de « l’infomédiation » (les logiciels et des GAFAM) sur les opérateurs de réseau, confinant ces derniers à un rôle de simple sous-traitant. Avec l’Internet des objets, ils ont au contraire la possibilité de reprendre la main à condition d’étendre leur activité au monde des capteurs. Cela passe par des alliances avec des constructeurs de solution, par la mise en place de plateformes et par un rôle de coordination entre tous les acteurs (industriels, sociétés de service, instances de régulation et métiers utilisateurs). Il n’est pas sûr qu’ils aient pris conscience de ces opportunités. Ils ont du mal à s’approprier des « contenus »,  surtout lorsque ceux-ci correspondent à du savoir-faire spécifique d’une profession. Ils ont également drastiquement réduit leur potentiel de recherche, affaiblissant ainsi leur capacité à résoudre des problèmes techniques.

Un atout sur lequel les opérateurs devraient s’appuyer, c’est leur capacité à mettre en œuvre des standards, sans forcément chercher à s’accaparer les fruits de la standardisation par des brevets.  Ces innovations architecturales en effet sont le siège d’importants effets de réseau locaux, puisqu’il s’agit de coordonner des métiers. Or le risque est d’enfermer la profession dans des standards propriétaires, ou même collectifs mais décidés par la profession, les rendant inaptes à l’interopération avec ceux d’une autre profession. Comme la contrainte technique sur les capteurs

Quoi qu’il en soit, l’Europe cherche une « renaissance industrielle ». Dans le monde du numérique, il existe une voie pour cette renaissance, pas forcément grande créatrice d’emplois directs, mais en tout cas potentiellement pourvoyeuse d’innovations, de brevets et d’activité. En outre les utilisateurs de ces nouveaux services verront à terme leur productivité s’améliorer, et donc leurs marges se restaurer. Ils pourront envisager d’investir et d’embaucher. Bref c’est la croissance économique que la diffusion du numérique dans les activités matérielles va permettre. Un formidable enjeu dont il n’est pas sûr que l’Europe ait pleinement conscience, malgré son agenda H2020 qui cible spécifiquement des actions dans le domaine applicatif.

 Bibliographie :

Clark, K. B. (1985). The interaction of design hierarchies and market concepts in technological evolution. Research policy14(5), 235-251.

Abernathy, W. J., & Utterback, J. M. (1978). Patterns of industrial innovation.Journal Title: Technology review. Ariel64, 254-228.

Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research policy, 15(6), 285-305.

Le strabisme des régulateurs du numérique

« Pendant le changement de titulaire, la vente continue ! ». La nouvelle Commission Juncker qui se met en place ces jours-ci doit reprendre à son compte les travaux lancés par la précédente. Dans le  domaine du numérique, un texte important a été présenté en Septembre 2013, visant à  réaliser un véritable marché pan-européen des télécommunications. Ceci est la seule garantie, selon l’ancienne Commission, que soient restaurés le dynamisme et la capacité d’innovation dont disposait l’Europe des télécommunications il y a plus de 20 ans. C’est en effet en 1992 qu’était lancé le GSM (ou système de communications mobile « 2G », comme on dit maintenant) qui fut le seul fleuron de la technologie européenne des télécommunications, et connut un véritable succès mondial.

Maintenant la Commission européenne explique que cette profonde langueur du marché européen, cette mauvaise santé financière et cette pusillanimité à l’investissement des opérateurs (sur la « 4G »,la nouvelle génération de téléphonie mobile ou sur la fibre), c’est la faute à la fragmentation des marchés nationaux, trop petits, trop contraints par des obligations administratives excessives (autorisation à opérer), trop soumis à la rapacité des Etats désespérément en manque de ressources financières, et qui profitent de la mise aux enchères des fréquences du spectre pour ponctionner les pauvres opérateurs. Tout ce que dit la Commission n’est pas faux, bien au contraire, mais c’est tout sauf l’essentiel.

Car le vrai problème est la régulation « ex ante », c’est-à-dire le contrôle a priori par une instance de régulation, des prix pratiqués par les opérateurs « dominants » notamment pour que leurs concurrents utilisent leurs réseaux, principe cardinal préconisé par la Commission et pratiqué par les agences nationales (l’Arcep en France). Ce contrôle a conduit, au moins en Europe,  à un effondrement des prix sans doute actuellement trop bas. Résultat, les marges des opérateurs sont laminées et ils n’ont plus aucun moyen ni incitation à investir. Ils sacrifient leur R&D, suppriment des emplois, retardent le renouvellement de leurs équipements, tout ceci pour serrer leurs coûts, et plus leurs coûts sont faibles, plus le régulateur sera tenté de leur imposer des « prix de gros » vis-à-vis de leurs concurrents, de plus en plus bas. Bref se met en place une spirale infernale baisse des coûts/ baisse des prix, qui certes bénéficie à court terme au consommateur, mais le prive à long terme d’une offre de qualité, sauf à ce que l’initiative publique (par exemple les collectivités locales) supplée cette carence des offres privées et fasse payer par l’impôt le déploiement des infrastructures avancées.

Pourtant le principe d’une régulation ex ante s’applique à des degrés divers partout dans le monde, et le contrôle des prix par une autorité semble frappé sous le coin du bon sens économique : qui ne voudrait pas de prix bas sur un marché où un opérateur dominant pourrait potentiellement faire la pluie et le beau temps? Mais en Europe ce principe de contrôle est mis en œuvre par 28 instances nationales, dont certaines rivalisent de zèle pour obtenir des opérateurs « dominants » les prix les plus bas possibles. Et la Commission encourage ces « bons élèves » et pointe du doigt les « mauvais » par la procédure de « benchmark », tant vantée dans l’Agenda de Lisbonne.

La vérité pourtant est que les opérateurs dominants ne sont plus dominants de grand-chose : L’essentiel de la valeur créée dans le numérique intervient « over the top », c’est-à-dire au-dessus de la couche IP, là où règnent les Google, Amazon, Facebook, Apple et Microsoft (GAFAM), maintenant rejoints par Twitter. Ceux-ci abusent-ils à leur tour de leur position dominante ? Beaucoup le soupçonnent et des procédures d’enquête  ont été diligentées tant aux USA qu’en Europe, notamment sur les pratiques de Google. D’autres les accusent d’évasion fiscale : Google/ Depardieu, même combat ! Mais de toute façon le contrôle des plateformes, lorsqu’il existe, est exercé a posteriori, et non a priori comme dans les télécommunications. L’impression actuelle est que ce contrôle est extrêmement « light ».

On avance, pour justifier cette mansuétude du régulateur à l’égard des grandes « plateformes » que sont les GAFAM, que celles-ci sont engagées dans une lutte globale sans merci où, pour survivre, ce ne sont pas les prix bas qui font le marché : bon nombre de leurs services sont en effet « gratuits » pour le consommateur, même quand ils ont un coût très élevé, comme la livraison de colis à domicile pour Amazon. Ce qui fait survivre les GAFAM, outre  la revente de données acquises « à l’insu du plein gré » des consommateurs, ce sont les revenus publicitaires, l’archétype étant Google avec son système d’enchère. Apple lui, se finance par la vente avec marge de terminaux beaux mais coûteux, qui placent la dépense en dehors de la consommation du service.

Mais la clef de la survie c’est selon les acteurs eux même, la capacité à innover et à se renouveler en permanence. Dès lors, il ne sert à rien de les surveiller car ils se surveillent mutuellement, à l’affût qu’ils sont des innovations des concurrents, ou de « jeunes pousses » qu’il faudra tenter de racheter quand elles commenceront à décolle, sinon elles finiront par vous écraser, comme l’a fait Google pour Yahoo! ou bien Facebook pour Myspace. Cette insécurité constante quant à leur propre futur rendrait ces plateformes « proactives », à l’écoute du consommateur, se retenant d’abuser de leur position dominante, mais cherchant au contraire à toujours améliorer leur offre de service.

Ce « storytelling » (en français cette fable !) est bien sûr largement inexacte. Beaucoup de concurrents se plaignent que ces plateformes au contraire verrouillent l’innovation en limitant la créativité des concepteurs, profitent indûment d’informations fournies gratuitement par leurs clients (par exemple les données personnelles), pratiquent la distorsion de concurrence en favorisant une application «faite maison » au détriment de celle d’un autre producteur. Ces plaintes ne sont pas faciles à étayer et les autorités de surveillance, qu’elles soient spécifiques (Arcep) ou génériques (tribunal, Conseil de la Concurrence) hésitent à les instruire, si elles ne sont pas officiellement saisies

Pourtant plusieurs éléments devraient les inciter à être moins pusillanimes : il n’y a par exemple aucune portabilité des données quand vous passez d’une plateforme à l’autre. Alors que ceci est imposé pour les numéros, rien de tel n’existe si par exemple vous changez de smartphone, passez de Samsung à Apple ou vice versa. Et pourtant cela rendrait bien des services au consommateur. De même ce que l’on fait de vos données personnelles devrait vous être connu. C’est une licence que vous octroyez, pas un transfert de propriété, sinon on pourrait s’arroger votre patronyme! Le contrat de session de droit serait alors plus équilibré.

Alors que dans les infrastructures le régulateur fait tout pour abolir toute situation de monopole quelle qu’elle soit, dans les industries « over the top », c’est-à-dire sur les plateformes, règne au contraire le monopole de contenu (dans le meilleur cas le brevet logiciel ou pire, le droit d’auteur), que l’on préserve « au nom d’une incitation à l’innovation ». A l’abri de ce monopole en béton, le détenteur du droit d’auteur fait ce qu’il veut. De même la juxtaposition entre un secteur, celui des infrastructures, où on impose la « neutralité du net » c’est-à-dire l’interdiction de discrimination, sauf motif considéré, après examen soigneux, comme « légitime », et où de l’autre côté, l’examen de la discrimination éventuelle n’est même pas envisagé car considéré comme trop complexe et susceptible de « brider l’innovation », on ne peut pas s’attendre à ce que les opérateurs soient aussi performants que les plateformes.

En résumé, les gouvernements européens (Parlement Européen compris) sont comme un conducteur de voiture atteint de strabisme et  lancé à vive allure sur une route sinueuse : Myope de son œil gauche braqué sur la route, et presbyte de son œil droit fixé sur ses pédales de frein et d’accélérateur, comment voulez-vous qu’il ne mène pas sa voiture droit dans le mur ?

Bitcoin ou le rêve libertarien d’un monde sans institution

Les « bitcoins »,  cette « monnaie électronique », officiellement interdite en Chine mais que Monoprix serait « prêt à accepter » avant la fin de l’année 2014,   a reçu récemment un beau coup de projecteur. On ne sait pas trop si c’est un gros « buzz » et si cette « monnaie sans banque » a un réel avenir. On peut penser que tout cela traduit surtout le profond ressentiment que beaucoup éprouvent  à l’égard du système financier et de ses instances de régulation, fauteurs de la plus grande crise économique que l’on ait connue depuis 50 ans, notamment en Europe : Si seulement on pouvait se passer d’un tel système!

Mais au-delà de ces incantations, l’avenir réel des «bitcoins » n’a peut être pas une grande importance, au moins à court terme. Car il s’agit surtout d’une très ingénieuse innovation à la fois technique et sociale, qui pourrait faire des émules dans bien d’autres domaines. Elle nous intéresse car elle met bien en évidence les multiples possibilités d’articulation entre l’économie du partage et l’économie des transactions. Pour le comprendre il faut malheureusement entrer dans le fonctionnement du système « bitcoin » lui-même, ce qui n’est si facile. Il y a de très bonnes références sur le net ici ou .

Comment ça marche ?

Le « protocole bitcoin » est un système « pair à pair », qui revient aux fondamentaux de l’internet, et qui tourne le dos au concept de « plateforme » devenu omniprésent dans l’Internet d’aujourd’hui. Concrètement quand, disons, SD veut transférer 10 de ses bitcoins à GDN il faut, pour que la transaction soit valide, que tous les ordinateurs connectés au système bitcoin soient au courant et qu’ils l’aient en quelque sorte validée. Bien entendu,  ils ne savent pas qui sont SD et GDN, dont les adresses ont été cryptées. Mais pourquoi tous les ordinateurs du système doivent-ils être informés ? L’absence de plateforme centrale (l’ordinateur de la banque) rend nécessaire la décentralisation complète de l’information auprès de tous les participants.

Mais peut-on faire confiance à SD ? il faut notamment que ce chenapan potentiel ne réutilise pas les mêmes bitcoins qu’il a transférés à GDN pour payer FM, durant le laps de temps pendant lequel la première transaction (avec GDN) se dénoue : si celui-ci doit, par exemple, faire livrer un colis par la poste en contrepartie, il peut s’écouler « un certain temps » comme disait Fernand Raynaud, pour que l’affaire soit soldée. Entretemps, avec la vitesse « de la lumière » à laquelle circule l’information sur le Net et la rapidité légendaire de SD qui tel Lucky Luke,  « transacte » plus vite que son ombre, la multiplication d’opérations frauduleuses pourrait submerger le Net.

Mr Nakamoto, le mystérieux créateur de Bitcoin, a imaginé un mécanisme « diabolique » pour déjouer les turpitudes de tous les SD de l’Internet. D’abord chaque bitcoin est individualisé par l’historique de toutes les transactions dans lesquelles il est intervenu : cela correspond au numéro de série d’un billet de banque, mais aussi à un extrait d’un livre de comptes chaque fois que ce bitcoin est apparu dans une transaction. Ensuite, tel le Sphinx égyptien, le système Bitcoin, pose une énigme mathématique nouvelle dès qu’il diffuse une transaction à valider à tous les ordinateurs du réseau, par exemple celle impliquant SD et GDN.  Tous les ordinateurs du Net qui le souhaitent (on les appelle des miners car littéralement ils fouillent dans leur mémoire et leur processeur pour trouver la solution) cherchent à résoudre ces énigmes, car cela leur rapporte des bitcoins nouveaux, créés par le système pour l’occasion. En moyenne la solution est trouvée en 10 minutes. L’heureux vainqueur devient le garant de la transaction par exemple entre SD et GDN, sans que cela l’engage en quoi que ce soit. Il inclut cette transaction qu’il a dûment validée dans une « chaine » de transactions valides, et la fait parvenir à tous les autres ordinateurs du réseau. Une chaine est donc un ensemble de transactions en cours de validation.

On trouve sur cette page une description précise du déroulement d’une transaction

Mais si SD dispose d’un ordinateur très puissant il pourrait, lui, résoudre l’énigme liée à sa transaction  avec FM, avant que les autres ne trouvent la solution à l’énigme liée à celle avec GDN : il bénéficierait de la livraison de GDN  tout en réclamant son dû à FM. Pour éviter cela, les ordinateurs du système contrôlés par un seul miner, ne doivent pas dépasser 50% de la capacité informatique totale. Ainsi la probabilité que SD soit plus rapide que les autres et puisse frauder, devient très faible.

Mr Nakamoto a même prévu le cas de situation d’ « ex aequo », par exemple si une partie du  Net tombe en panne  ou en cas de congestion trop importantes, ce qui pourrait permettre à certains de tricher. Les ordinateurs verraient arriver au moment de la remise en service, plusieurs chaines de validation où interviennent les mêmes bitcoins.  Par défaut le système prévoit que la chaine considérée comme prééminente est la plus longue, celle qui contient le plus de transactions en cours de validation. Car on peut supposer qu’elle provient de plusieurs sources non coordonnées, alors qu’une chaine plus courte proviendra plus vraisemblablement d’une même source (supposée frauduleuse).

 Une histoire de confiance

Le système bitcoin est intéressant car c’est un système créateur de confiance, puisque dans la monnaie c’est d’abord et avant tout de cela dont il s’agit. Or la confiance est provoquée non par une garantie donnée par un « puissant » (un Etat, ou au Moyen Age un banquier qui possède beaucoup d’or), ni par une empathie entre deux ou plusieurs êtres humains, mais bien par un « code » informatique au sens de Lessig, Rappelons que la confiance collective est un bien public, soumis au paradoxe d’Olson et de manière plus large à tous les procédés de trahison de confiance. Pour ceux intéressés par l’analyse de la confiance, nous ne saurions trop recommander deux livres qui figurent dans la bibliographie du « Numérique », celui de Tarik Tazdait et celui de Paul Seabright.

Le système bitcoin est parfaitement décentralisé et pourtant la subtilité du code permet d’éviter le paradoxe d’Olson. Grâce à la technologie, un sentiment (la confiance) peut naitre au sein d’une communauté très large d’êtres humains qui ne se connaissent pas et qui pourtant se coordonnent alors de façon efficace. Clairement le système Bitcoin est dans l’esprit « libertarien » de l’Internet vu comme « un monde à part », où les institutions sont censées ne pas entrer. En ce sens il maintient vivant l’esprit originel de l’Internet, et s’oppose à la prise de contrôle des GAFAM, de l’Etat Américain ou d’autres Etats plus autoritaires.

Cependant le système Bitcoin ne fonctionne de façon réellement décentralisée qu’en interne. Dès qu’il s’agit de transformer vos bitcoins en euros ou dollars ou tout autre monnaie, ou à l’inverse de rentrer dans le système Bitcoin en cherchant à en acquérir contre vos propres devises, il faut passer par des « plateformes », des agents de change électroniques en quelque sorte, où sont affichés les cours du bitcoin en diverses monnaies. Or ce cours est très volatile comme en témoigne ce second graphique extrait du site www.lafinancepourtous.com.

Prix-du-Bitcoin_large

De plus, la plus importante de ces plateformes, MT.Gox, sise au Japon, a fait l’objet d’une attaque de hackers qui l’a dévalisée et elle a dû déposer son bilan début 2014. Ainsi malgré tous ses avantages supposés (anonymat, transparence, élimination des frais bancaires…) le système Bitcoin a encore, pour paraphraser un de nos anciens premiers ministres, une pente raide à gravir, même si la route est droite. Il est bien possible que ce ne soit pas un bon grimpeur.

Protocole versus institution

Mais devenir, à l’instar du dollar une monnaie universelle « as good as gold », n’est peut être pas si important pour le système Bitcoin. Plus significatif est son caractère innovant du point de vue social. Le Bitcoin en effet a fait, comme beaucoup de commentateurs l’ont souligné, une « preuve de concept » montrant que l’on pouvait créer sur une base purement technique (un protocole) et non pas institutionnelle, un mécanisme de confiance entre des individus qui ne se connaissent pas. Seul jusqu’à présent le « marché » tel que l’a conceptualisé Adam Smith, avait réussi cette prouesse. Mais pour qu’il puisse fonctionner, le « marché » a besoin d’institutions qui garantissent l’exécution des contrats, qui arbitrent en cas de litiges, qui puissent recourir à la force pour contraindre une partie qui fait défaut, etc. Et pour que ces institutions puissent elles même fonctionner de façon efficace et correcte, il faut qu’elles soient contrôlées par la société, grâce à des procédures démocratiques. Car sinon elles peuvent engendrer de la corruption, de l’insécurité entrepreneuriale, une croissance moindre, des inégalités insupportables, sources de tensions sociales (c’est bien ce qui s’est passé en Europe à la fin du XIXème siècle).

Cette innovation sociale majeure que fut l’économie de marché a permis – grâce au progrès technique- l’essor de l’espèce humaine sur les 300 dernières années. Le système financier qui est au cœur de l’économie de marché, s’appuie lui-même sur des institutions fortement contrôlées, banques, banques centrales, FMI : si le contrôle s’exerce mal s’ensuit inévitablement une crise avec des conséquences dramatiques, comme celle de 2007-2008.

Or Bitcoin montre que l’on pourrait, en théorie, se passer des institutions tout en reproduisant l’efficacité même de l’économie de marché où les agents se font confiance sans se connaître (Seabright). Pour cela il « suffit » de développer la technologie et les protocoles adéquats. L’essence même de l’architecture du Net, le fonctionnement en  « pair à pair », ou si l’on veut le contrôle par les extrémités comme nous l’avons nommé dans le livre, autorise les interactions   décentralisées, sans intermédiaire et anonymes. Mais l’originalité du système Bitcoin est que par un simple artefact technique, il engendre la confiance, évite les comportements de passager clandestin, d’opportunisme au sens de Williamson, de fraude. Même s’il n’est pas parfait, la marge d’erreur n’est pas plus grande que celle que l’on trouve dans le monde réel où prédominent les institutions.

Bitcoin réalise ainsi le rêve libertarien d’une société sans institution, mais aussi sans lien social.  Il n’est pas sûr que ce soit un progrès. Mais le fait que ce soit techniquement réalisable invite quand même à réfléchir.

Les modèle de Barabasi et Albert (1999), et de Price (1975) en liaison avec les lois puissance

Dans le chapitre 2 du livre « Le numérique » nous avons fait allusion au point suivant : Le champ d’application de la loi puissance paraît si large, que l’on peut s’interroger sur l’origine de ce phénomène. La note suivante, dont le matériau est inspiré des livres de Jackson (2007) et Newman (2010), donne un fondement théorique à cette loi.

Barabasi et Albert ont proposé en 1999 un modèle de croissance d’un graphe complexe du type de celui d’Internet, en faisant l’hypothèse d’une apparition permanente de nouveaux nœuds qui sont connectés aux anciens sur la base d’un attachement préférentiel : les connexions de ces nouveaux nœuds se font préférentiellement avec ceux qui ont déjà beaucoup de liens. Cependant leur modèle est une variante d’un autre élaboré en 1975 par Price concernant le réseau des citations scientifiques, où les nœuds sont les articles et les liens sont les citations qu’un article fait des autres articles. Le graphe  ainsi constitué est orienté : un article i « pointe », en le citant, vers l’article k. Dans le modèle de Barabasi et Albert par contre, le graphe n’est pas orienté. Une autre différence entre les deux modèles est que dans celui de Price un article quelconque fait deux types de citations, vers des articles beaucoup cités (en probabilité, proportionnellement  aux citations dont il bénéficie déjà, suivant le principe d’attachement préférentiel) mais aussi de façon aléatoire. Ainsi un nouveau nœud fait  c citations en moyenne, dont une partie n est « préférentielle » et une autre partie a, aléatoire. Barabasi et Albert ne considèrent que l’attachement préférentiel. Nous présentons le modèle de Price et donnons à la fin les formules obtenues par Barabasi et Albert.

la suite de la démonstration dans le pdf ici

Demonstration Barabasi et Albert (1999) et Price (1975)

références :

Jackson Matthew O. : « Social nd Economic Networks » Princeton University Press, 2010.

Newman Mark.E.J. « Networks: an introduction »Oxford University Press, 2010.