Que se passe-t-il quand 13000 wikipediens jouent au jeu du dictateur ?

« Vous recevez une somme de 10 € que vous devez partager avec une autre personne » (qui se trouve dans le cas présent être un autre répondant au questionnaire), combien gardez-vous ?

Ce jeu, très simple, sans interaction stratégique, est facile à implémenter en ligne et est peu sujet aux biais de compréhension par les répondants. Il permet aussi, rapidement, de révéler des attitudes sociales chez les participants.

Nous avions deux objectifs en faisant jouer ce jeu aux répondants de notre enquête sur les usages de Wikipédia, réalisée par M@rsouin avec l’aide de Wikimédia France (et des wikipédiens).

Tout d’abord mettre en évidence des motivations prosociales chez les wikipediens, mais contrairement à ce que la littérature a déjà montré nous voulions nous intéresser à l’ensemble des wikipediens et pas uniquement aux contributeurs. Les utilisateurs non contributeurs jouent un rôle souvent sous-estimé dans ce type de communauté, l’article de Zhang et Zhu, est éclairant de ce point de vue, il a montré que quand les « lecteurs » disparaissent, les contributeurs arrêtent de contribuer. Et si les motivations prosociales n’étaient pas uniquement l’apanage des contributeurs ?

Deuxièmement, et contrairement à l’approche expérimentale traditionnelle qui neutralise le contexte pour isoler les comportements et préférences « intrinsèques » des agents, nous avons en quelque sorte immergé les répondants dans leur pratique avant de les soumettre au jeu du dictateur (ils ont répondu à un questionnaire sur leurs usages de Wiki et leur attachement à la plateforme avant de jouer au jeu du dictateur). En faisant émerger des motivations prosociales « en contexte » nous cherchions à voir si l’engagement et l’attachement à la communauté Wikipedia avait un impact sur ces motivations. Dit autrement est-ce que la communauté fabrique ces comportements ou est-ce que, dans une approche plus orthodoxe, les individus ont des préférences prosociales « ex ante » qui façonnent leur comportement sur Wikipedia.

le jeu du dictateur

Que nous dit la littérature sur les réponses à ce jeu ?  Ci-dessous les résultats de la meta-analyse d’Engel (2011) qui recense 328 traitements et plus de 20000 joueurs.

 

image001

35% ne donnent rien et sont en général assimilés à des individus rationnels et égoïstes, les réponses non nulles étant assimilées à des comportements prosociaux comme l’altruisme ou la préférence pour l’égalité.

Qu’avons nous trouvé ?

dgwiki

67% des 13000 répondants ont choisi le 50/50 (plus connu sous le nom de fifty/fifty ou moit/moit)

Évidemment en les faisant parler de leur pratique et de leur attachement à Wikipedia nous avons activé leur « prosocialité » ce qui explique cette déviation par rapport aux résultats habituels. Mais pour autant nous ne nous attendions pas à trouver un taux aussi élevé de 50/50, on ne trouve pas dans la littérature un taux de 50/50 supérieur à 40% ici c’est 67% !

photofunky

Qu’est ce que ça veut dire ?

Dans la littérature le 50/50 est assimilé à une norme sociale, celle qui fait que quand vous avez partagé un bon repas avec des amis au restaurant vous partagez la note indépendamment de ce que vous avez pris ou que lors de votre succession vous donnerez la moitié de votre patrimoine à vos deux enfants (sauf bien sur si il y en a un que vous n’aimez pas) ou encore lorsque le propriétaire terrien et le métayer partagent la récolte à parts égales. Des auteurs ont montré que cette réponse au jeu du DG était perçue comme « socialement appropriée ».  Notre résultat montre en quelque sorte que les wikipediens se coordonnent autour de cette norme sociale de partage.

En étant sur une plate-forme où les contributions ne se font pas sur la base d’échange monétaire et étant donné que notre questionnaire a probablement sélectionné les individus les plus « généreux », on pouvait s’attendre à ce qu’ils donnent facilement plus de la moitié de leur dotation voir même la totalité, mais non !!! C’est bien sur cette norme bien particulière du  50/50 que les wikipediens se sont arrêtés.

Qui a répondu 50/50 ?

C’est la partie la plus intéressante, (vous trouverez plus de détails dans l’article de recherche complet ici), et elle nous amène à 3 résultats :

1) pas de différence entre les contributeurs et non contributeurs, la plupart des études avaient jusqu’ici mis en évidence la plus forte « prosocialité » des contributeurs, nous montrons qu’elle existe chez tous les utilisateurs de la plate-forme.

Différents arguments peuvent expliquer ce premier résultat.

  • Contrairement aux idées reçues il n’est pas si facile de contribuer à Wikipedia, il faut des connaissances, suffisamment confiance en soi pour les exprimer, maîtriser les outils éditoriaux ainsi que les règles de contributions parfois complexes, il est donc possible que de nombreux non contributeurs aient les motivations suffisantes pour le faire mais pas les « compétences » requises.
  • L’existence de cette norme du 50/50 marque peut-être l’existence d’une norme de réciprocité implicite entre d’un coté ceux qui contribuent en produisant de la connaissance et ceux qui la valorisent, l’utilisent augmentant ainsi les bénéfices sociaux de ceux qui la produisent. Cette explication est compatible avec le fameux « warm glow » d’Andreoni et plus généralement la volonté d’apparaître aux yeux des autres comme quelqu’un d’altruiste et de généreux. Pour résumer, l’existence d’une norme commune de réciprocité peut ici se justifier par l’échange de contenu (par les contributeurs) contre de l’attention (par les utilisateurs non contributeurs).

2) Plus les utilisateurs utilisent Wikipedia (chercher de l’info, approfondir des connaissances, vérifier un point..) et/ou plus ils connaissent Wikipedia depuis longtemps et/ou plus ils manifestent leur attachement à la plate-forme,  plus ils sont enclins à avoir répondu 50/50. Un travail autour de la causalité de cette relation nous amène à penser que c’est bien dans ce sens qu’elle se manifeste. Ce résultat suggère que la norme se fabrique au fil des interactions dans la communauté qui produit donc les comportements qui font son succès. Ce n’est pas parce que vous êtes « prosociaux » que vous êtes wikipediens, c’est plutôt la communauté qui fait de vous des êtres prososiaux.

3) nous avons également distingué les usages personnels et professionnels sur la plate-forme, si les premiers sont associés au choix du partage égal, les seconds ne le sont pas. Ce résultat montre l’importance des motivations intrinsèques dans l’adhésion à la norme 50/50, si votre usage de wiki est motivé par des considérations professionnelles vous avez moins de chance de choisir le partage égal au jeu du dictateur. On retrouve ici une idée assez connue selon laquelle les motivations extrinsèques évincent les bonnes incitations, l’occasion de citer un prix de la banque de Suède en l’honneur d’Alfred Nobel (ça fait smart) : Benabou et Tirole …et le célèbre Titmuss dont les conclusions restent contestables)

En guise de conclusion, la « sharing economy »

L’expression « économie du partage » est devenue un concept valise… des réseaux P2P à Uber, tout  est bon pour invoquer les valeurs collaboratives et participatives des internautes qui interagissent à l’interieur de ces plateformes. Comprendre l’économie collaborative c’est comprendre que les incitations monétaires et les arbitrages coût/bénéfices ne guident pas toutes les actions, que des individus puissent retirer des bénéfices sociaux de leurs interactions avec les autres au point de rendre possible la constitution du plus grand corpus de connaissance jamais rassemblé. La mise en évidence dans notre recherche d’un point focal autour du partage égal dans le jeu du dictateur montre la force de ces motivations prosociales, a fortiori lorsqu’elle prend la forme d’une norme sociale partagée entre les protagonistes de ces plateformes.

Godefroy DangNguyen, Sylvain Dejean, Nicolas Jullien

La Grande transformation, les plateformes et les objets connectés

L’évolution du numérique pousse vers plus de connexion d’objets, et l’on parle d’ailleurs à ce propos « d’objets connectés ». Mais dans  la situation actuelle,  ces objets sont reliés, via Internet, à des « plateformes », qui intègrent leurs données envoyées et proposent en retour des services s’appuyant sur cette intégration. Comme le réseau de communication entre ces plateformes et ces objets est l’Internet, on évoque « l’Internet des objets ».

A l’origine les objets connectés étaient simplement des ordinateurs, dont les données étaient essentiellement « abstraites ». La mise en place de réseaux d’ordinateurs a ainsi été le grand défi de l’informatique et des télécommunications dans les années 1970-180. Avec le protocole TCP/IP créé en 1983, Internet a fini par s’imposer comme le réseau universel de connexion d’ordinateurs. Toute une série d’applications et de services a pu ainsi se mettre en place, dans la frénésie de la bulle Internet (1996-2001). Après son dégonflement l’innovation a malgré tout continué de suivre le progrès technique permanent dans les semi-conducteurs, d’autant que les réseaux de communications ont connu à leur tour une véritable mutation : déploiement des réseaux de mobiles et accès de ces réseaux à Internet (technologie dite « 3G », qui a décollé dans le milieu de la décennie des années 2000, diffusion de la technologie ADSL au sein des réseaux fixes qui a permis un accès confortable des ménages à Internet ). Le commerce électronique, les moteurs de recherche, les portails, la voix sur IP et maintenant la distribution de programmes audiovisuels sont quelques illustrations de ces évolutions.

Mais le développement des technologies sans fil, la miniaturisation des composants électroniques et la traduction de signaux de toute sorte en fichiers numériques (« numérisation ») a conduit les « objets connectés »  à se multiplier, pour transmettre aux « plateformes » la traduction numérique de quasiment tout phénomène physique, biologique ou abstrait, émanant de toute sorte d’objets, macroscopique ou microscopique, fixe ou mobile. La Grande transformation, c’est ce basculement de toutes les activités matérielles vers la numérisation, où celle-ci a pour vocation, en se greffant sur les objets, de coordonner  les activités matérielles pour en assurer une exécution améliorée, voire profondément bouleversée.

Ainsi sont en train de se mettre en place ce que Kim Clark (1985) appelle des innovations architecturales, où les prestations matérielles se trouvent profondément transformées par une articulation complètement nouvelle de leur fourniture. Donnons quelques exemples :

  • Dans le domaine du transport, un service de covoiturage comme celui de Blablacar est la transformation profonde d’une activité auparavant marginale, l’autostop. Il menace directement les entreprises de transport en commun (cars routiers ou trains, voire transport aérien) de la même façon qu’au moment de la bulle Internet, les sites de vente en ligne  de billets et séjours touristiques ont menacé les agences de voyages, et les sites de téléchargement de musique (légaux ou illégaux) ont menacé la distribution de CD.
  • Toujours dans le domaine du transport, l’opérateur Uber, qui propose lui aussi la formule de covoiturage mais en ville, s’appuie sur la possession de téléphones mobiles et la disponibilité  de places en voiture, pour organiser ce covoiturage urbain. Il menace directement un pan de l’activité des chauffeurs de taxi, voire les transports en commun.
  • Dans le bâtiment, les nécessités créées par la construction ou la rénovation de « bâtiments intelligents » c’est-à-dire économes en énergie et respectueux de l’environnement, imposent de concevoir l’architecture de ces bâtiments en fonction de réseaux « domotiques » qui fournissent des services de gestion des infrastructures pour mieux réguler la consommation d’énergie et d’eau, piloter les produits « blancs »(électroménager) et « bruns » (matériel audiovisuel, informatique) ainsi que toutes les infrastructures  (volets, sanitaires, salle de bain…) que contient le bâtiment en question.
  • Dans le domaine médical, les systèmes de prothèse ou de correction (lunettes), se voient dotés de capacités de communication qui en font des « objets intelligents ». L’apparition des lunettes Google et de la montre Apple, marques globales s’il en est, montre que ces évolutions ne sont plus de l’ordre de la Science-fiction, voire du développement de prototypes, mais ont atteint un niveau de diffusion désormais grand public.
  • Les vêtements à leur tour deviennent « intelligents », incorporant des capteurs entre leurs fibres, pour des usages thérapeutiques ou de confort.

Ainsi se mettent en place des systèmes articulés, des écosystèmes diraient certains, où des plateformes centrales ou périphériques (certains objets connectés, à l’instar du smartphone, sont de véritables plateformes) relient, coordonnent et opèrent des ensembles d’objets,  en une architecture de services disponibles pour toute catégorie d’utilisateurs : individus et organisations, voire d’autres plateformes.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sont les archétypes d’entreprises proposant des plateformes globales, conçues pour accumuler toutes les données afin de fournir tous les services que la numérisation peut proposer. Leur activité reste largement confinée, pour l’instant, dans le maniement des données « abstraites », peu ou pas reliées à des activités matérielles. Mais dans la dynamique d’expansion qui est la leur, ces plateformes globales ont vocation à pénétrer le champ de ces activités comme le démontrent les « Google glasses », la « Google car » et l’ « Apple Watch » évoquées plus haut.

Ces mutations sont donc les témoignages de l’apparition de grappes d’innovation s’appuyant sur les réseaux, l’information stockée dans les serveurs (le « cloud ») et les capteurs matériels de données. Ces innovations sont architecturales mais pas « de rupture » (Clark, 1985), au sens où elles transforment en profondeur les activités précédentes, même si elles n’utilisent pas forcément, pour ce faire, des composants nouveaux. Cela n’enlève rien à leur potentiel.  Après tout c’est comme cela que l’I-phone s’est imposé, en intégrant une série de fonctionnalités nouvelles qui existaient auparavant sur le marché  indépendamment les unes des autres. On appelle ce genre de percée, un « dominant design », un modèle dominant (Abernathy et Utterback, 1978).

Pour qu’une innovation, architecturale ou de rupture, puisse s’imposer, il faut combiner d’une part une compréhension des besoins (latents, donc pas exprimés) que le consommateur ressent, et c’est le propre du marketing. Il faut dans le même temps offrir une solution (technique, s’agissant de produits «high tech ») qui satisfasse ce besoin, donc résoudre pas à pas des difficultés techniques. En règle générale il est assez difficile de coupler la mise au point technique de la solution et la révélation du besoin (latent), malgré ce qu’en dit Clark (1985). Si ce couplage était si aisé, on ne comprendrait pas pourquoi celui qui arrive le premier sur le marché (l’innovateur) n’est pas toujours celui qui rafle la mise, le leader (Teece, 1987). Les cadavres d’innovateurs ayant raté leur marché jonchent en effet  le long parcours du progrès technique.

Dans le cas de la « grande transformation », les innovations et les  mutations sectorielles que vont induire les plateformes et les objets connectés ne seront pas forcément  produites par les GAFAM, malgré leurs avantages indéniables : savoir-faire en manipulation de données,  présence globale, capacité à entretenir des relations privilégiées avec les individus, à les connaître grâce à leurs « traces » numériques. En effet, beaucoup d’applications potentielles sont pour l’instant des marchés de niche qui n’intéressent pas forcément des opérateurs globaux (cas du covoiturage), ou bien sont des activités réglementées où l’entrée d’un opérateur intermédiaire n’est pas forcément facilement autorisée (cas des plateformes de consultation médicale à distance par exemple).  Cela laisse donc des marges de manœuvre à des actions plus locales, soit par des acteurs de la profession capables de se coordonner pour proposer des services en ligne innovants sans toutefois devenir des cartels, soit pour des startups ou PME qui « flairent » les opportunités en raison de leur connaissance du marché local, de leur capacité à réunir rapidement des compétences nécessaires à la mise au point de ces plateformes et services innovants.

Un autre point mérite d’être souligné. La mise en place de ces services « matériels » (ou plutôt facilitant les activités matérielles) en s’appuyant sur des capteurs et des plateformes, permet de surmonter l’obstacle majeur qu’Internet fait peser sur la structure industrielle du numérique : L’indépendance du monde des infrastructures, domaine des opérateurs, de celui des services (logiciels), en raison du protocole IP. Cette indépendance a consacré la domination de « l’infomédiation » (les logiciels et des GAFAM) sur les opérateurs de réseau, confinant ces derniers à un rôle de simple sous-traitant. Avec l’Internet des objets, ils ont au contraire la possibilité de reprendre la main à condition d’étendre leur activité au monde des capteurs. Cela passe par des alliances avec des constructeurs de solution, par la mise en place de plateformes et par un rôle de coordination entre tous les acteurs (industriels, sociétés de service, instances de régulation et métiers utilisateurs). Il n’est pas sûr qu’ils aient pris conscience de ces opportunités. Ils ont du mal à s’approprier des « contenus »,  surtout lorsque ceux-ci correspondent à du savoir-faire spécifique d’une profession. Ils ont également drastiquement réduit leur potentiel de recherche, affaiblissant ainsi leur capacité à résoudre des problèmes techniques.

Un atout sur lequel les opérateurs devraient s’appuyer, c’est leur capacité à mettre en œuvre des standards, sans forcément chercher à s’accaparer les fruits de la standardisation par des brevets.  Ces innovations architecturales en effet sont le siège d’importants effets de réseau locaux, puisqu’il s’agit de coordonner des métiers. Or le risque est d’enfermer la profession dans des standards propriétaires, ou même collectifs mais décidés par la profession, les rendant inaptes à l’interopération avec ceux d’une autre profession. Comme la contrainte technique sur les capteurs

Quoi qu’il en soit, l’Europe cherche une « renaissance industrielle ». Dans le monde du numérique, il existe une voie pour cette renaissance, pas forcément grande créatrice d’emplois directs, mais en tout cas potentiellement pourvoyeuse d’innovations, de brevets et d’activité. En outre les utilisateurs de ces nouveaux services verront à terme leur productivité s’améliorer, et donc leurs marges se restaurer. Ils pourront envisager d’investir et d’embaucher. Bref c’est la croissance économique que la diffusion du numérique dans les activités matérielles va permettre. Un formidable enjeu dont il n’est pas sûr que l’Europe ait pleinement conscience, malgré son agenda H2020 qui cible spécifiquement des actions dans le domaine applicatif.

 Bibliographie :

Clark, K. B. (1985). The interaction of design hierarchies and market concepts in technological evolution. Research policy14(5), 235-251.

Abernathy, W. J., & Utterback, J. M. (1978). Patterns of industrial innovation.Journal Title: Technology review. Ariel64, 254-228.

Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research policy, 15(6), 285-305.

Le strabisme des régulateurs du numérique

« Pendant le changement de titulaire, la vente continue ! ». La nouvelle Commission Juncker qui se met en place ces jours-ci doit reprendre à son compte les travaux lancés par la précédente. Dans le  domaine du numérique, un texte important a été présenté en Septembre 2013, visant à  réaliser un véritable marché pan-européen des télécommunications. Ceci est la seule garantie, selon l’ancienne Commission, que soient restaurés le dynamisme et la capacité d’innovation dont disposait l’Europe des télécommunications il y a plus de 20 ans. C’est en effet en 1992 qu’était lancé le GSM (ou système de communications mobile « 2G », comme on dit maintenant) qui fut le seul fleuron de la technologie européenne des télécommunications, et connut un véritable succès mondial.

Maintenant la Commission européenne explique que cette profonde langueur du marché européen, cette mauvaise santé financière et cette pusillanimité à l’investissement des opérateurs (sur la « 4G »,la nouvelle génération de téléphonie mobile ou sur la fibre), c’est la faute à la fragmentation des marchés nationaux, trop petits, trop contraints par des obligations administratives excessives (autorisation à opérer), trop soumis à la rapacité des Etats désespérément en manque de ressources financières, et qui profitent de la mise aux enchères des fréquences du spectre pour ponctionner les pauvres opérateurs. Tout ce que dit la Commission n’est pas faux, bien au contraire, mais c’est tout sauf l’essentiel.

Car le vrai problème est la régulation « ex ante », c’est-à-dire le contrôle a priori par une instance de régulation, des prix pratiqués par les opérateurs « dominants » notamment pour que leurs concurrents utilisent leurs réseaux, principe cardinal préconisé par la Commission et pratiqué par les agences nationales (l’Arcep en France). Ce contrôle a conduit, au moins en Europe,  à un effondrement des prix sans doute actuellement trop bas. Résultat, les marges des opérateurs sont laminées et ils n’ont plus aucun moyen ni incitation à investir. Ils sacrifient leur R&D, suppriment des emplois, retardent le renouvellement de leurs équipements, tout ceci pour serrer leurs coûts, et plus leurs coûts sont faibles, plus le régulateur sera tenté de leur imposer des « prix de gros » vis-à-vis de leurs concurrents, de plus en plus bas. Bref se met en place une spirale infernale baisse des coûts/ baisse des prix, qui certes bénéficie à court terme au consommateur, mais le prive à long terme d’une offre de qualité, sauf à ce que l’initiative publique (par exemple les collectivités locales) supplée cette carence des offres privées et fasse payer par l’impôt le déploiement des infrastructures avancées.

Pourtant le principe d’une régulation ex ante s’applique à des degrés divers partout dans le monde, et le contrôle des prix par une autorité semble frappé sous le coin du bon sens économique : qui ne voudrait pas de prix bas sur un marché où un opérateur dominant pourrait potentiellement faire la pluie et le beau temps? Mais en Europe ce principe de contrôle est mis en œuvre par 28 instances nationales, dont certaines rivalisent de zèle pour obtenir des opérateurs « dominants » les prix les plus bas possibles. Et la Commission encourage ces « bons élèves » et pointe du doigt les « mauvais » par la procédure de « benchmark », tant vantée dans l’Agenda de Lisbonne.

La vérité pourtant est que les opérateurs dominants ne sont plus dominants de grand-chose : L’essentiel de la valeur créée dans le numérique intervient « over the top », c’est-à-dire au-dessus de la couche IP, là où règnent les Google, Amazon, Facebook, Apple et Microsoft (GAFAM), maintenant rejoints par Twitter. Ceux-ci abusent-ils à leur tour de leur position dominante ? Beaucoup le soupçonnent et des procédures d’enquête  ont été diligentées tant aux USA qu’en Europe, notamment sur les pratiques de Google. D’autres les accusent d’évasion fiscale : Google/ Depardieu, même combat ! Mais de toute façon le contrôle des plateformes, lorsqu’il existe, est exercé a posteriori, et non a priori comme dans les télécommunications. L’impression actuelle est que ce contrôle est extrêmement « light ».

On avance, pour justifier cette mansuétude du régulateur à l’égard des grandes « plateformes » que sont les GAFAM, que celles-ci sont engagées dans une lutte globale sans merci où, pour survivre, ce ne sont pas les prix bas qui font le marché : bon nombre de leurs services sont en effet « gratuits » pour le consommateur, même quand ils ont un coût très élevé, comme la livraison de colis à domicile pour Amazon. Ce qui fait survivre les GAFAM, outre  la revente de données acquises « à l’insu du plein gré » des consommateurs, ce sont les revenus publicitaires, l’archétype étant Google avec son système d’enchère. Apple lui, se finance par la vente avec marge de terminaux beaux mais coûteux, qui placent la dépense en dehors de la consommation du service.

Mais la clef de la survie c’est selon les acteurs eux même, la capacité à innover et à se renouveler en permanence. Dès lors, il ne sert à rien de les surveiller car ils se surveillent mutuellement, à l’affût qu’ils sont des innovations des concurrents, ou de « jeunes pousses » qu’il faudra tenter de racheter quand elles commenceront à décolle, sinon elles finiront par vous écraser, comme l’a fait Google pour Yahoo! ou bien Facebook pour Myspace. Cette insécurité constante quant à leur propre futur rendrait ces plateformes « proactives », à l’écoute du consommateur, se retenant d’abuser de leur position dominante, mais cherchant au contraire à toujours améliorer leur offre de service.

Ce « storytelling » (en français cette fable !) est bien sûr largement inexacte. Beaucoup de concurrents se plaignent que ces plateformes au contraire verrouillent l’innovation en limitant la créativité des concepteurs, profitent indûment d’informations fournies gratuitement par leurs clients (par exemple les données personnelles), pratiquent la distorsion de concurrence en favorisant une application «faite maison » au détriment de celle d’un autre producteur. Ces plaintes ne sont pas faciles à étayer et les autorités de surveillance, qu’elles soient spécifiques (Arcep) ou génériques (tribunal, Conseil de la Concurrence) hésitent à les instruire, si elles ne sont pas officiellement saisies

Pourtant plusieurs éléments devraient les inciter à être moins pusillanimes : il n’y a par exemple aucune portabilité des données quand vous passez d’une plateforme à l’autre. Alors que ceci est imposé pour les numéros, rien de tel n’existe si par exemple vous changez de smartphone, passez de Samsung à Apple ou vice versa. Et pourtant cela rendrait bien des services au consommateur. De même ce que l’on fait de vos données personnelles devrait vous être connu. C’est une licence que vous octroyez, pas un transfert de propriété, sinon on pourrait s’arroger votre patronyme! Le contrat de session de droit serait alors plus équilibré.

Alors que dans les infrastructures le régulateur fait tout pour abolir toute situation de monopole quelle qu’elle soit, dans les industries « over the top », c’est-à-dire sur les plateformes, règne au contraire le monopole de contenu (dans le meilleur cas le brevet logiciel ou pire, le droit d’auteur), que l’on préserve « au nom d’une incitation à l’innovation ». A l’abri de ce monopole en béton, le détenteur du droit d’auteur fait ce qu’il veut. De même la juxtaposition entre un secteur, celui des infrastructures, où on impose la « neutralité du net » c’est-à-dire l’interdiction de discrimination, sauf motif considéré, après examen soigneux, comme « légitime », et où de l’autre côté, l’examen de la discrimination éventuelle n’est même pas envisagé car considéré comme trop complexe et susceptible de « brider l’innovation », on ne peut pas s’attendre à ce que les opérateurs soient aussi performants que les plateformes.

En résumé, les gouvernements européens (Parlement Européen compris) sont comme un conducteur de voiture atteint de strabisme et  lancé à vive allure sur une route sinueuse : Myope de son œil gauche braqué sur la route, et presbyte de son œil droit fixé sur ses pédales de frein et d’accélérateur, comment voulez-vous qu’il ne mène pas sa voiture droit dans le mur ?

Bitcoin ou le rêve libertarien d’un monde sans institution

Les « bitcoins »,  cette « monnaie électronique », officiellement interdite en Chine mais que Monoprix serait « prêt à accepter » avant la fin de l’année 2014,   a reçu récemment un beau coup de projecteur. On ne sait pas trop si c’est un gros « buzz » et si cette « monnaie sans banque » a un réel avenir. On peut penser que tout cela traduit surtout le profond ressentiment que beaucoup éprouvent  à l’égard du système financier et de ses instances de régulation, fauteurs de la plus grande crise économique que l’on ait connue depuis 50 ans, notamment en Europe : Si seulement on pouvait se passer d’un tel système!

Mais au-delà de ces incantations, l’avenir réel des «bitcoins » n’a peut être pas une grande importance, au moins à court terme. Car il s’agit surtout d’une très ingénieuse innovation à la fois technique et sociale, qui pourrait faire des émules dans bien d’autres domaines. Elle nous intéresse car elle met bien en évidence les multiples possibilités d’articulation entre l’économie du partage et l’économie des transactions. Pour le comprendre il faut malheureusement entrer dans le fonctionnement du système « bitcoin » lui-même, ce qui n’est si facile. Il y a de très bonnes références sur le net ici ou .

Comment ça marche ?

Le « protocole bitcoin » est un système « pair à pair », qui revient aux fondamentaux de l’internet, et qui tourne le dos au concept de « plateforme » devenu omniprésent dans l’Internet d’aujourd’hui. Concrètement quand, disons, SD veut transférer 10 de ses bitcoins à GDN il faut, pour que la transaction soit valide, que tous les ordinateurs connectés au système bitcoin soient au courant et qu’ils l’aient en quelque sorte validée. Bien entendu,  ils ne savent pas qui sont SD et GDN, dont les adresses ont été cryptées. Mais pourquoi tous les ordinateurs du système doivent-ils être informés ? L’absence de plateforme centrale (l’ordinateur de la banque) rend nécessaire la décentralisation complète de l’information auprès de tous les participants.

Mais peut-on faire confiance à SD ? il faut notamment que ce chenapan potentiel ne réutilise pas les mêmes bitcoins qu’il a transférés à GDN pour payer FM, durant le laps de temps pendant lequel la première transaction (avec GDN) se dénoue : si celui-ci doit, par exemple, faire livrer un colis par la poste en contrepartie, il peut s’écouler « un certain temps » comme disait Fernand Raynaud, pour que l’affaire soit soldée. Entretemps, avec la vitesse « de la lumière » à laquelle circule l’information sur le Net et la rapidité légendaire de SD qui tel Lucky Luke,  « transacte » plus vite que son ombre, la multiplication d’opérations frauduleuses pourrait submerger le Net.

Mr Nakamoto, le mystérieux créateur de Bitcoin, a imaginé un mécanisme « diabolique » pour déjouer les turpitudes de tous les SD de l’Internet. D’abord chaque bitcoin est individualisé par l’historique de toutes les transactions dans lesquelles il est intervenu : cela correspond au numéro de série d’un billet de banque, mais aussi à un extrait d’un livre de comptes chaque fois que ce bitcoin est apparu dans une transaction. Ensuite, tel le Sphinx égyptien, le système Bitcoin, pose une énigme mathématique nouvelle dès qu’il diffuse une transaction à valider à tous les ordinateurs du réseau, par exemple celle impliquant SD et GDN.  Tous les ordinateurs du Net qui le souhaitent (on les appelle des miners car littéralement ils fouillent dans leur mémoire et leur processeur pour trouver la solution) cherchent à résoudre ces énigmes, car cela leur rapporte des bitcoins nouveaux, créés par le système pour l’occasion. En moyenne la solution est trouvée en 10 minutes. L’heureux vainqueur devient le garant de la transaction par exemple entre SD et GDN, sans que cela l’engage en quoi que ce soit. Il inclut cette transaction qu’il a dûment validée dans une « chaine » de transactions valides, et la fait parvenir à tous les autres ordinateurs du réseau. Une chaine est donc un ensemble de transactions en cours de validation.

On trouve sur cette page une description précise du déroulement d’une transaction

Mais si SD dispose d’un ordinateur très puissant il pourrait, lui, résoudre l’énigme liée à sa transaction  avec FM, avant que les autres ne trouvent la solution à l’énigme liée à celle avec GDN : il bénéficierait de la livraison de GDN  tout en réclamant son dû à FM. Pour éviter cela, les ordinateurs du système contrôlés par un seul miner, ne doivent pas dépasser 50% de la capacité informatique totale. Ainsi la probabilité que SD soit plus rapide que les autres et puisse frauder, devient très faible.

Mr Nakamoto a même prévu le cas de situation d’ « ex aequo », par exemple si une partie du  Net tombe en panne  ou en cas de congestion trop importantes, ce qui pourrait permettre à certains de tricher. Les ordinateurs verraient arriver au moment de la remise en service, plusieurs chaines de validation où interviennent les mêmes bitcoins.  Par défaut le système prévoit que la chaine considérée comme prééminente est la plus longue, celle qui contient le plus de transactions en cours de validation. Car on peut supposer qu’elle provient de plusieurs sources non coordonnées, alors qu’une chaine plus courte proviendra plus vraisemblablement d’une même source (supposée frauduleuse).

 Une histoire de confiance

Le système bitcoin est intéressant car c’est un système créateur de confiance, puisque dans la monnaie c’est d’abord et avant tout de cela dont il s’agit. Or la confiance est provoquée non par une garantie donnée par un « puissant » (un Etat, ou au Moyen Age un banquier qui possède beaucoup d’or), ni par une empathie entre deux ou plusieurs êtres humains, mais bien par un « code » informatique au sens de Lessig, Rappelons que la confiance collective est un bien public, soumis au paradoxe d’Olson et de manière plus large à tous les procédés de trahison de confiance. Pour ceux intéressés par l’analyse de la confiance, nous ne saurions trop recommander deux livres qui figurent dans la bibliographie du « Numérique », celui de Tarik Tazdait et celui de Paul Seabright.

Le système bitcoin est parfaitement décentralisé et pourtant la subtilité du code permet d’éviter le paradoxe d’Olson. Grâce à la technologie, un sentiment (la confiance) peut naitre au sein d’une communauté très large d’êtres humains qui ne se connaissent pas et qui pourtant se coordonnent alors de façon efficace. Clairement le système Bitcoin est dans l’esprit « libertarien » de l’Internet vu comme « un monde à part », où les institutions sont censées ne pas entrer. En ce sens il maintient vivant l’esprit originel de l’Internet, et s’oppose à la prise de contrôle des GAFAM, de l’Etat Américain ou d’autres Etats plus autoritaires.

Cependant le système Bitcoin ne fonctionne de façon réellement décentralisée qu’en interne. Dès qu’il s’agit de transformer vos bitcoins en euros ou dollars ou tout autre monnaie, ou à l’inverse de rentrer dans le système Bitcoin en cherchant à en acquérir contre vos propres devises, il faut passer par des « plateformes », des agents de change électroniques en quelque sorte, où sont affichés les cours du bitcoin en diverses monnaies. Or ce cours est très volatile comme en témoigne ce second graphique extrait du site www.lafinancepourtous.com.

Prix-du-Bitcoin_large

De plus, la plus importante de ces plateformes, MT.Gox, sise au Japon, a fait l’objet d’une attaque de hackers qui l’a dévalisée et elle a dû déposer son bilan début 2014. Ainsi malgré tous ses avantages supposés (anonymat, transparence, élimination des frais bancaires…) le système Bitcoin a encore, pour paraphraser un de nos anciens premiers ministres, une pente raide à gravir, même si la route est droite. Il est bien possible que ce ne soit pas un bon grimpeur.

Protocole versus institution

Mais devenir, à l’instar du dollar une monnaie universelle « as good as gold », n’est peut être pas si important pour le système Bitcoin. Plus significatif est son caractère innovant du point de vue social. Le Bitcoin en effet a fait, comme beaucoup de commentateurs l’ont souligné, une « preuve de concept » montrant que l’on pouvait créer sur une base purement technique (un protocole) et non pas institutionnelle, un mécanisme de confiance entre des individus qui ne se connaissent pas. Seul jusqu’à présent le « marché » tel que l’a conceptualisé Adam Smith, avait réussi cette prouesse. Mais pour qu’il puisse fonctionner, le « marché » a besoin d’institutions qui garantissent l’exécution des contrats, qui arbitrent en cas de litiges, qui puissent recourir à la force pour contraindre une partie qui fait défaut, etc. Et pour que ces institutions puissent elles même fonctionner de façon efficace et correcte, il faut qu’elles soient contrôlées par la société, grâce à des procédures démocratiques. Car sinon elles peuvent engendrer de la corruption, de l’insécurité entrepreneuriale, une croissance moindre, des inégalités insupportables, sources de tensions sociales (c’est bien ce qui s’est passé en Europe à la fin du XIXème siècle).

Cette innovation sociale majeure que fut l’économie de marché a permis – grâce au progrès technique- l’essor de l’espèce humaine sur les 300 dernières années. Le système financier qui est au cœur de l’économie de marché, s’appuie lui-même sur des institutions fortement contrôlées, banques, banques centrales, FMI : si le contrôle s’exerce mal s’ensuit inévitablement une crise avec des conséquences dramatiques, comme celle de 2007-2008.

Or Bitcoin montre que l’on pourrait, en théorie, se passer des institutions tout en reproduisant l’efficacité même de l’économie de marché où les agents se font confiance sans se connaître (Seabright). Pour cela il « suffit » de développer la technologie et les protocoles adéquats. L’essence même de l’architecture du Net, le fonctionnement en  « pair à pair », ou si l’on veut le contrôle par les extrémités comme nous l’avons nommé dans le livre, autorise les interactions   décentralisées, sans intermédiaire et anonymes. Mais l’originalité du système Bitcoin est que par un simple artefact technique, il engendre la confiance, évite les comportements de passager clandestin, d’opportunisme au sens de Williamson, de fraude. Même s’il n’est pas parfait, la marge d’erreur n’est pas plus grande que celle que l’on trouve dans le monde réel où prédominent les institutions.

Bitcoin réalise ainsi le rêve libertarien d’une société sans institution, mais aussi sans lien social.  Il n’est pas sûr que ce soit un progrès. Mais le fait que ce soit techniquement réalisable invite quand même à réfléchir.

La presse en ligne ne sait pas chasser le cerf

Quand on parle de business model sur internet on oppose en général les modèles payants et les modèles gratuits. Ce dernier l’étant rarement on désigne par gratuit les valorisations différées du type freemium  ou les financements par la publicité (voir Anderson 2008). La presse fait partie des secteurs les plus tiraillés entre ces deux formes de valorisation. Elle a historiquement misé sur la publicité pour financer les « news » librement accessibles sur leur site web alors qu’elle continuait, dans le même temps, à faire payer le journal papier pour un contenu équivalent. D’autres se rendant compte qu’ils ne pourraient pas financer leur rédaction de journalistes avec des bannières clignotantes ont essayé le modèle payant, mais comment convaincre les internautes habitués à consommer gratuitement tout ce qui est composé de 0 et de 1 ? (voir Charon et Le Floch pour un historique et une présentation des acteurs du secteur de la presse en ligne).

Difficile d’avoir aujourd’hui une vision claire du secteur entre les dépôts de bilan, les plans sociaux,  les titres en vente, les pure players aux fortunes diverses, le New York Times qui revendique le succès du Paywall et la presse quotidienne française nationale et régionale qui…. hésite (voir cette étude de Benghozi et Lyubareva).

Après tout si le NYT y arrive pourquoi pas Le Monde et Libération. Nous voudrions illustrer ici un aspect bien précis du débat gratuit/payant dans la presse en ligne, à savoir la concurrence induite par le premier sur le second et illustrer le fait que le problème du modèle payant n’est pas tant sa rentabilité que le fait qu’il coexiste avec le modèle gratuit et qu’à choisir je préfère lire des articles gratuits plutôt que payants (ou alors il faut vraiment une grosse valeur ajoutée journalistique). Le secteur de la presse en ligne connait un problème de coordination, et pour l’illustrer invoquons….

La chasse au cerf de Rousseau

La parabole de la chasse au cerf de Rousseau est assez simple (les blogueurs économistes en ont déjà parlé par exemple Mafeco ici et @Cyril_Hedouin ici). Pour faire simple deux chasseurs ont le choix entre chasser le cerf et le lapin, le premier permet de nourrir tout le village mais nécessite que les deux chasseurs coopèrent pour l’attraper (un le rabat l’autre le tire). Le lapin ne permettra à chaque chasseur que de nourrir sa famille mais peut être chassé seul. Les deux chasseurs ont donc intérêt à s’entendre pour chasser le cerf (1er équilibre de Nash) , sauf que le cerf peut mettre un peu de temps à arriver d’où la tentation pour chaque protagoniste de partir chasser « égoïstement » le lapin, l’autre ne pouvant rabattre et tirer le cerf tout seul se voit contraint de chasser à son tour le lapin, résultat les deux chasseurs tirent des lapins (2eme équilibre de Nash) alors qu’ils pourraient s’entendre pour ramener un gibier beaucoup plus nutritif. La question est donc comment faire en sorte que les deux chasseurs s’entendent pour chasser le cerf ?

cerf

Le tableau ci-dessus reprend cette parabole, les deux chasseurs deviennent disons Le Monde et Liberation (bon ce n’est évidemment pas parfaitement substituable mais faisons comme si), le cerf est remplacé par le modèle payant et le lapin par le modèle gratuit.  Le choix en haut à gauche payant/payant devient le modèle gagnant pour la presse, puisque si tous les titres de presse deviennent payant en ligne (dans l’exemple Le Monde et Liberation représentent l’ensemble de la presse) l’internaute sera bien obligé de payer pour accéder à la presse. Si par contre, l’un des deux ne voyant pas la rentabilité du modèle payant arriver décide de basculer vers le modèle gratuit, il perçoit des revenus publicitaires (plus faibles mais non nuls) mais désormais l’internaute sera d’autant moins enclin à payer pour disons Le Monde si il peut consulter gratuitement les articles de Liberation. La conséquence est que le modèle payant risque de ne jamais dégager de profit, Le Monde est contraint de chasser le lapin…enfin d’adopter le modèle gratuit et nous voilà coincés en bas à droite dans la figure du dessus.

C’est ce que Edwy Plenel a appelé « l’erreur historique » de la presse. La croyance que la pub en ligne financerait le journalisme  ou l’incroyance que le modèle payant permettrait de la financer. Pour converger vers le bon équilibre de Nash (celui en haut à gauche), il faut que tout le monde décide plus ou moins simultanément d’adopter le modèle payant, la disparition du contenu gratuit ne laissant pas d’autres alternatives aux internautes que de payer pour du journalisme de qualité en ligne.

Pourquoi on y arrive…doucement.

Pour résoudre ce type de dilemme on invoque traditionnellement la nécessité de voir émerger la confiance entre les protagonistes, mais dans le cas de titres de presse en concurrence ça n’a pas beaucoup de sens. Une autre manière de converger vers le « bon » équilibre de Nash est de faire en sorte que les acteurs aient la même croyance, celle que le cerf va arriver, qu’il est donc préférable de ne pas céder à la tentation de chasser le lapin. La croyance que le modèle payant peut être rentable est donc primordiale et pour la favoriser il faut des « signaux ». Le New York Times est certainement l’acteur le plus observé du secteur, en clamant haut et fort le succès de son modèle payant il incite le reste de la presse quotidienne à basculer vers de nouveaux modes de tarification. Il suffit pour s’en convaincre d’observer l’épidémie de « paywall » qui a contaminé la presse en ligne ces derniers mois. A l’échelle hexagonale, Mediapart pourrait jouer ce rôle tant Edwy Plennel ne ménage pas ses efforts pour promouvoir sa stratégie du « tout payant » (le succès de Mediapart est en partie lié à l’auto-imposition d’une TVA réduite mais c’est une autre histoire) . Chaque succès du modèle payant qu’il soit réel ou romancé est une incitation à abandonner le modèle gratuit et permet de converger vers l’équilibre payant/payant qui nous l’avons vu évite la fuite vers la consommation gratuite. Paradoxalement le problème des moteurs de recherche (donc Google) qui cannibalisent la majeure partie des recettes publicitaires en ligne au détriment de la presse (qui fournit pourtant le contenu) pourrait involontairement aider à coordonner les acteurs autour de l’équilibre payant/payant.

Pourquoi on risque de ne pas y arriver.

« Vous savez comment on fait pour devenir millionnaire ? non ? et bien il faut commencer par être milliardaire et ensuite racheter un titre de presse » source : blague issue du monde des médias.

Après tout la presse a-t-elle vraiment vocation à être rentable ? Elle a toujours été un instrument de pouvoir (Stern, 2012) et il n’est pas exclu que l’audience ait plus de valeur que le résultat du compte d’exploitation. Quand Jeff Bezos rachète le Washington Post, que cherche-t-il ? ça conjecture pas mal sur le sujet (ici et ici). On peut sans trop de cynisme avancer deux hypothèses, la première est qu’il compte utiliser le contenu (le journal) pour vendre autre chose disons à tout hasard des kindle pour ensuite vous vendre des livres, du cloud, de la musique etc… seconde hypothèse : il peut être utile d’avoir un journal sous la main le jour ou le sénat discutera sérieusement de la neutralité du net (bon ça c’est cynique). De la même manière est-ce que Xavier Niel cherche vraiment la rentabilité lorsqu’il rachète Le Monde et presque rachète le Nouvel Observateur ? Et puis regardez Propublica ou encore WhoWhatWhy qui sont financés par le mécénat assumant ainsi le caractère non rival et non appropriable de l’information, dans ce cas c’est le cerf qui vous donne gentiment à manger CQFD.

Les modèle de Barabasi et Albert (1999), et de Price (1975) en liaison avec les lois puissance

Dans le chapitre 2 du livre « Le numérique » nous avons fait allusion au point suivant : Le champ d’application de la loi puissance paraît si large, que l’on peut s’interroger sur l’origine de ce phénomène. La note suivante, dont le matériau est inspiré des livres de Jackson (2007) et Newman (2010), donne un fondement théorique à cette loi.

Barabasi et Albert ont proposé en 1999 un modèle de croissance d’un graphe complexe du type de celui d’Internet, en faisant l’hypothèse d’une apparition permanente de nouveaux nœuds qui sont connectés aux anciens sur la base d’un attachement préférentiel : les connexions de ces nouveaux nœuds se font préférentiellement avec ceux qui ont déjà beaucoup de liens. Cependant leur modèle est une variante d’un autre élaboré en 1975 par Price concernant le réseau des citations scientifiques, où les nœuds sont les articles et les liens sont les citations qu’un article fait des autres articles. Le graphe  ainsi constitué est orienté : un article i « pointe », en le citant, vers l’article k. Dans le modèle de Barabasi et Albert par contre, le graphe n’est pas orienté. Une autre différence entre les deux modèles est que dans celui de Price un article quelconque fait deux types de citations, vers des articles beaucoup cités (en probabilité, proportionnellement  aux citations dont il bénéficie déjà, suivant le principe d’attachement préférentiel) mais aussi de façon aléatoire. Ainsi un nouveau nœud fait  c citations en moyenne, dont une partie n est « préférentielle » et une autre partie a, aléatoire. Barabasi et Albert ne considèrent que l’attachement préférentiel. Nous présentons le modèle de Price et donnons à la fin les formules obtenues par Barabasi et Albert.

la suite de la démonstration dans le pdf ici

Demonstration Barabasi et Albert (1999) et Price (1975)

références :

Jackson Matthew O. : « Social nd Economic Networks » Princeton University Press, 2010.

Newman Mark.E.J. « Networks: an introduction »Oxford University Press, 2010.

 

Le P2P ne meurt jamais: petite histoire d’économie expérimentale.

Pour ceux qui ont connu Napster et les premiers échanges massifs de biens dématérialisés sur Internet à la fin des années 90, l’histoire et l’évolution des réseaux P2P à quelque chose de fascinant. Ce qui est remarquable c’est la manière dont ces réseaux ont évolué pour organiser leur survie et s’adapter aux problèmes que rencontrent toute action collective qui se construit autour d’un bien présentant des aspects de « non-exclusivité » (je ne peux pas ou difficilement empêcher quelqu’un de le consommer), ce problème c’est le « passager clandestin », le « free rider » ou plus simplement le comportement opportuniste.

Ce n’est pas la seule difficulté que ces réseaux ont rencontré tout au long de leur évolution. Bien évidemment ces réseaux doivent en permanence s’adapter aux contraintes judiciaires et réglementaires. Chacun peut penser ce qu’il veut mais on doit globalement reconnaître que la quasi totalité des contenus qui circulent enfreignent les droits d’auteur et de copies. Les ayants droit ont globalement tout essayé pour limiter l’impact du P2P, attaquer en justice les concepteurs de plateformes et de logiciels (Napster, Kazaa, thepiratebay) faire saisir des serveurs ou des trackers (Razorback, Oink..) ou encore poursuivre les internautes (Hadopi, affaire Jamie Thomas aux US). L’architecture décentralisée et l’existence d’un grand nombre de petites communautés rendent les deux premières mesures peu efficaces, quand à la troisième celle qui vise à punir les internautes, en plus d’être d’une grande impopularité et peu efficace, elle se heurte aux nombreuses alternatives mises à disposition des « pirates » pour se procurer illégalement du contenu (streaming, cyberlocker, newsgroup, attendre patiemment que ses amis ou collègues viennent à la maison avec leur disque dur).

Finalement le plus gros problème des réseaux P2P était de faire face aux comportements opportunistes de ces membres. Comme chaque fois qu’un bien est non exclusif la tentation est grande d’en profiter sans y contribuer. Et sur Internet l’information est très souvent non exclusive, c’est même cette « ouverture » qui a permis l’immense effet de réseau à l’origine du développement de l’Internet (cf chapitre 3 du livre en haut à droite de cette page si vous voulez en savoir plus).
Ces comportements opportunistes ne sont pas très grave si le bien est non-rival (plusieurs personnes peuvent le consommer en même temps) mais devient un problème quand il vient amputer les bénéfices de ceux qui contribuent. Le problème des réseaux P2P est que si tout le monde télécharge sans mettre à disposition des autres le produit de leur téléchargement, le système marche beaucoup moins bien. Pour résumer, un individu rationnel s’empresse de télécharger le dernier Walt Disney et le retire rapidement de son dossier de partage, il évite ainsi de mobiliser sa bande passante et par la même occasion ne prend pas le risque de se faire prendre en train d’enfreindre le droit d’auteur. Notez qu’à quelques nuances près cet arbitrage vaut également pour une contribution sur Wikipedia (je peux en profiter sans jamais contribuer sur la plateforme), sur un forum ou d’autres types de communautés contributives non exclusives. Mais le réseau P2P présente des aspects de « rivalité » qui font que le comportement opportuniste empêche le réseau de bien fonctionner pour ceux qui coopèrent (ceux qui ne contribuent pas encombrent d’une certaine manière le réseau avec leur téléchargement et empêchent les fichiers de circuler rapidement).

Le jeu du bien public

Avec Godefroy on a pris l’habitude d’utiliser l’économie expérimentale pour expliquer la « survie de la coopération » dans le contexte des communautés en ligne (en général les étudiants aiment bien jouer à ces jeux et l’enseignant aussi d’ailleurs). Les résultats synthétisent l’histoire des réseaux P2P en quelques sessions du jeu du bien public.

Pour plus de détails sur le jeu du bien public voir ici, mais pour résumer chaque joueur reçoit X jetons et choisit la part qu’il garde et la part qu’il met au pot commun, pour chaque jeton mis au pot commun TOUS les joueurs reçoivent une somme positive, ainsi chaque fois que quelqu’un abonde au pot commun il génère un effet positif pour tous les membres du jeu (si je possède 10 jetons et que j’en mets 1 au pot tous les autres joueurs recevront 1 €). La stratégie rationnelle consiste à ne jamais donner au pot et à profiter de la générosité des autres alors que pour maximiser le bien être collectif il faudrait que tous le monde mette tout ses jetons au pot. L’analogie avec le réseau P2P est assez facile chaque fois que quelqu’un met un fichier à disposition, tout les autres peuvent le télécharger et en profiter (techniquement ils peuvent même tous le télécharger en même temps dans le mesure ou les fichiers sont partagés en de nombreux petits morceaux) mais individuellement tout le monde a intérêt à le télécharger sans le partager. J’ai fait jouer 18 étudiants de la License Masertic 8 fois consécutivement en utilisant la merveilleuse plateforme veconlab et les résultats (qui sont assez classiques) sont résumés dans le graphique ci-dessous. Sur le graphique de gauche avec les points bleus (en abscisse les sessions et en ordonnée le montant du pot et donc le niveau de coopération). Sur le graphique de droite avec les points roses, le même jeu sauf que l’on donne au joueur la possibilité de punir ceux qui ne coopèrent pas (en les privant d’une partie de leur gain).

pg_graph 1

En quoi ce jeu donne une bonne illustration de l’évolution des réseaux P2P ? Une fois passé l’engouement initial pour ces nouveaux réseaux (Napster, Fasttrack, Gnutella) le niveau de coopération a rapidement chuté, les « leechers » (c’est à dire ceux qui téléchargent sans laisser leur fichier à disposition pour les autres) ont pris de plus en plus d’importance au point de menacer la survie des réseaux P2P. Le plus gros problème concernait  la disponibilité des fonds de catalogue,  les fichiers les moins « populaires » ceux qui étaient mis en partage par peu d’individus, et qui disparaissaient si les quelques individus qui les proposaient ne jouaient pas le jeu.

Bittorrent: le coopérateur masqué

Alors le réseau  a organisé sa propre survie et c’est là qu’on passe au graphique de droite (celui avec les points roses) avec dans le rôle de Zorro, Bram Cohen, qui inventa le protocole Bittorrent. Sans rentrer dans les détails, ce nouveau protocole de communication oblige les téléchargeurs à partager les fichiers au moins le temps du téléchargement (pour la petit histoire Bram Cohen affirme que le protocole Bittorrent est une application du principe de tit-for-tat bien connu des spécialistes du jeu du dilemme du prisonnier itéré, voir les tournois d’Axelrod,). Bittorent s’est révélé très efficace pour partager des fichiers de grandes tailles (les films et les séries ;-)) mais ce n’était pas suffisant ce qui a vraiment fait la différence c’est l’apparition des communautés privées (private tracker). Les « pirates » se sont regroupés en plus petit comité dans des groupes plus ou moins fermés (il faut parfois être recommandé par quelqu’un pour y entrer mais la plupart du temps il suffit de s’inscrire) et ont surtout établi des règles de partage. La plus connue est celle dite du « ratio », la communauté enregistre votre activité et plus précisément le ratio des données que vous téléchargez rapporté aux données que vous avez transférées aux autres et en dessous d’un certain seuil (défini au sein de chaque communauté) vous êtes puni, la punition peut aller d’une impossibilité de télécharger pendant quelques temps au bannissement de la communauté. Regardez l’effet sur les niveaux de coopération  de l’introduction de la possibilité de punir sur le jeu du bien public (graphique de droite avec les points roses) et bien il s’est passé à peu prés la même chose sur les réseaux P2P, les utilisateurs ont massivement coopéré. Dans ce papier on avait  suivi quelques temps ces communautés pour constater qu’effectivement les taux de partage y sont impressionnants et que la mise en place de règles comme le « ratio » joue un rôle positif sur la coopération.

L’histoire des réseaux P2P est une bonne illustration de la puissance du jeu du bien public, à la fois s’agissant d’expliquer la généralisation des comportements opportunistes mais aussi pour montrer qu’un minimum de « règle » permet de « renverser la vapeur » pour permettre à l’action collective de « survivre ». Avec un peu d’imagination on peut également tirer de ce jeu un certain nombre d’enseignements pour expliquer l’évolution des contributions dans Wikipedia ou au sein de certaines communautés d’expérience ou de pratique à la différence notable que ces dernières, parce qu’elles produisent un bien réellement non rival (des 0 et des 1 qui engorgent peu les tuyaux), rendent « les passagers clandestins » moins gênants. Notons qu’Elinor Ostrom a reçu le prix Nobel d’économie pour avoir identifié ce mécanisme de constitutions de règles. Pour plus de détails allez voir le chapitre 4 de notre ouvrage, paragraphe 1.3.2 😉

 

 

Le numérique, économie du partage et des transactions

 

couverture livre

Table des matières

Extrait de la conclusion:

L’internet que nous connaissons a tous les aspects d’un accident de l’histoire. Fondé par des utilisateurs universitaires ou proches de l’Université qui cherchaient à répondre à leurs propres besoins, il était destiné à être une architecture « universelle », qui permettrait de raccorder n’importe quelle machine, en réduisant la fonction des opérateurs de réseau à la portion congrue. La transmission par paquet, l’architecture en couches, le protocole TCP/IP font d’Internet un réseau « distribué » (un ensemble de réseaux interconnectés), très efficace dans la gestion et l’acheminement des flux de données. Sa conception et son évolution demeurent une œuvre collaborative et collective pour laquelle les acteurs n’avaient initialement aucune ambition marchande. « History matters » ! Cet esprit de partage et de contribution perdure aujourd’hui dans les réseaux P2P, les forums, les blogs et autres communautés en ligne.

Mais à mesure que l’Internet et le web gagnaient les foyers, cette économie du partage a laissé place à une économie basée sur les transactions de marché. Les startups qui ont su le plus habilement activer les effets de réseau sont devenues des géants du web, les désormais célèbres GAFAM. Mus par des stratégies d’expansion propres aux économies des plateformes, ces géants sont devenus omniprésents, moteurs de recherche, médias, e-commerce, petits objets électroniques communicants, partout l’internaute est confronté à la volonté d’acquisition de valeur de ces entreprises.

Face au déploiement des applications marchandes du numérique, à l’enfermement progressif des utilisateurs dans les « écosystèmes » propres à chacun des GAFAM, l’économie du partage paraît « entrer en résistance » ! Les communautés P2P survivent ou se renforcent, Wikipedia continue son expansion mais avec moins d’allant, les forums d’entraide offrent une alternative aux services d’assistance en ligne et Openstreetmap existe et se développe malgré Googlemaps. Cette opposition, entre une économie des transactions dominante et une économie du partage un peu confinée, n’est pas propre au système technique numérique, mais se retrouve dans beaucoup de questions politiques et économiques relevant d’enjeux sociétaux majeurs. Que l’on pense aux questions liées à l’environnement, à la distribution de médicaments, aux ressources énergétiques, partout l’on voit des groupements de citoyens tenter de résister et de proposer des solutions alternatives à la déferlante des marchés. Ces groupements constituent la « sous-politique » identifiée par Beck (1988), celle qui prend acte que toute innovation humaine majeure porte désormais en son sein autant de nuisances potentielles que de progrès : c’est la « société du risque ».

Mais l’originalité du numérique par rapport à ces tendances de la société est que ces rapports entre partage et transactions ne sont pas nécessairement conflictuels. C’est la force de ce système technique de pouvoir offrir des arrangements et des formes inédites de coopération entre les différentes parties prenantes. Ces rapports peuvent être de trois types :

  • Le conflit, nous venons d’en parler. Il se cristallise beaucoup au niveau institutionnel, comme on l’a vu au chapitre 6. Il se manifeste également dans les grands débats qui orientent l’avenir de l’Internet, la neutralité du Net en tête, il est moins apparent, et de fait nous en avons peu parlé, sur les questions de sécurité des données, de protection contre la malveillance, car l’économie du partage semble étrangement peu impliquée dans les questions de « cyber-sécurité », ce qu’a déjà noté Zittrain (2009). La plupart du temps le conflit est initié par le déploiement de l’économie des transactions et les partisans de l’économie du partage s’opposent.
  • La coopération : où l’économie du partage est à l’initiative souvent, et les transactions suivent. Le mouvement OpenData, les cantines, les FabLabs, ces lieux de fertilisation croisée sont des projets qui naissent de rencontres, de partage d’idées avant de devenir des applications ou des services qui s’épanouiront dans l’économie des transactions. Par ailleurs, dans les instances de normalisation du Net (l’IETF, et même l’ICANN), les citoyens « experts » côtoient les représentants des plus grands intérêts commerciaux pour élaborer ensemble les futures normes de fonctionnement du Net, avec une devise directement inspirée de l’économie du partage : « un consensus et des programmes qui marchent ». De même dans les logiciels libres la logique est bien celle du partage, mais les entreprises qui y participent sont mues par des objectifs de transactions, et les deux ne sont pas contradictoires. Dans un autre ordre d’idées, les startups « pure players » sont bien souvent un exemple de cette coopération, les plus célèbres d’entre elles (Yahoo!, Google, Facebook) sont nées sur des campus universitaires dans un esprit coopératif, avant de devenir les protégés des marchés financiers.
  • La prédation mutuelle : cette troisième forme de rapport entre économie du partage et des transactions est plus originale, elle se distingue du conflit en ce sens qu’elle permet à chaque camp de se développer en préemptant d’une certaine manière les prérogatives de l’autre, mais sans que cela conduise directement à une opposition. Les pirates des réseaux P2P, en s’arrogeant le droit de partager librement des contenus régis par un droit d’auteur, utilisent, pour leur propre bénéfice et en partie au détriment de l’économie des transactions, les spécificités techniques de l’Internet. A l’inverse, lorsqu’Amazon utilise les commentaires des internautes pour donner de la valeur à sa plateforme ou lorsque Google mobilise insidieusement les internautes (via le logiciel CAPTCHA (voir chapitre 5) pour aider à la numérisation des livres, l’économie des transactions devient le chasseur et les proies sont les contributions basées sur le partage et la coopération. Un autre exemple est celui d’Apple et de son « App-Stores » ou plusieurs centaines de milliers d’applications sont disponibles, représentant selon Colin et Verdier (2012, p. 95) plusieurs centaines de milliers « d’hommes-années » qui ne coûtent rien à Apple, qui aident à conforter un effet de réseau indirect autour de son terminal, et même des revenus puisque sur les applications payantes l’entreprise à la pomme prend 30 % des recettes !

On peut penser que la coopération prendra plus de place dans les rapports entre partage et transactions, ce que révèlent des signes avant-coureurs. Lorsque Youtube commence à rémunérer les internautes qui déposent des vidéos sur la plateforme (en fonction bien évidemment de l’audience qu’ils parviendront à générer), il fait un pas vers l’économie du partage en intégrant le « prosumer » dans son modèle économique. Le développement des plateformes de crowdfunding comme kickstarter est un autre exemple intéressant. Les internautes présentent des projets, d’autres qui ne les connaissent pas les évaluent, les commentent, participent à leur financement, à leur promotion, le cas échéant parviennent même à orienter leur évolution. Ces formes de coopération sont caractéristiques de l’économie du partage et pourtant ces plateformes ont bien comme objectif de financer des projets qui seront ensuite lancés sur le marché, créeront de l’emploi et peut-être même, n’en déplaise à Solow, des points de croissance.

Deux axes de coopération sont possibles. Selon Mueller (2012), l’économie du partage se construit sur les « biens communs » et ceux-ci sont nécessaires dans beaucoup de cas pour permettre aux biens privés d’exister. Ainsi le protocole TCP/IP, bien commun, a permis à des centaines de réseaux hétérogènes privés de s’interconnecter, et de se développer dans une économie de transactions. La leçon à en tirer est qu’il faut donc préserver le bien commun pour que les biens privés s’épanouissent. Ces situations de complémentarité sont assez nombreuses et donnent un critère de validation desdits biens communs.

L’autre axe de coopération déjà évoqué à la fin du chapitre 5, est ce que recommandent Colin et Verdier (2012) aux entreprises : capter la valeur créée par la multitude, stimuler celle-ci, échanger avec elle sur une base donnant-donnant, tracer ses comportements. Ces pratiques sont déjà mises en œuvre, notamment par les GAFAM, mais il est difficile de croire que c’est de la coopération. Cela a plutôt à voir avec l’opportunisme et la prédation, une forme de coopération dégradée, en quelque sorte.

Dans ces conditions, on peut penser que la coopération entre économie du partage et économie des transactions sera toujours quelque chose d’un peu bancal, mais qui fait partie de l’essence du numérique : c’est parce qu’il y a en permanence des innovations sociales que naissent des innovations économiquement valorisées, c’est aussi parce que l’économie des transactions a tendance à se déployer partout que certains, utilisant les caractéristiques propres du numérique (connaissance, bien public et effets de réseau), veulent pouvoir imaginer des innovations sociales fondées sur des biens communs et en rupture avec l’économie des transactions. Cette relation dialectique devrait continuer à marquer les développements du numérique.