Tous les articles par sylvain dejean

Maître de conférences en économie à l’université de La Rochelle. Economie numérique et de l'Internet

La formidable histoire du Hush-A-Phone : ou comment Internet est devenu possible.

Tout commence avec l’invention ci-dessus, cet objet est un Hush-a-phone, on le doit à un dénommé Harry Tuttle qui le commercialisa au début des années 20. C’est un morceau de plastique que l’on emboîte sur le micro du téléphone. Sa fonction est simple permettre à celui qui parle dans le combiné de ne pas être entendu par les personnes autour (pour les plus jeunes il fut un temps où un cordon nous reliait au réseau téléphonique). On devine l’utilité de ce dispositif lorsqu’une conversation nécessitait un peu d’intimité et que plusieurs personnes se trouvaient dans la même pièce.

Le hush-A-Phone serait resté un gadget sans importance et au succès commercial très modéré si AT&T, l’entreprise détenant le monopole du téléphone aux Etats-Unis depuis 1860, n’avait décidé d’en faire un exemple. Au début des années 40, AT&T a commencé à interdire son utilisation en invoquant une règle de l’accord le liant au gouvernement fédéral qui stipule en substance qu’aucun équipement ne peut être attaché ou connecté au réseau téléphonique s’il n’a pas été fourni par AT&T. Du téléphone aux lignes en passant par la fourniture du service de communication, aucune innovation n’était possible d’un bout à l’autre du réseau, sauf si vous étiez AT&T.

Evidemment Tuttle ne renonça pas à son commerce et demanda en 1950 l’arbitrage de la FCC ( le régulateur des télécommunications aux Etats-Unis). Durant les 15 jours d’audition AT&T a fait preuve d’une grande assurance et d’une encore plus grande mauvaise foi. Le Hush-A-Phone endommagerait les lignes téléphoniques, il présenterait même un danger de mort pour les réparateurs du téléphone, sans parler des risques sanitaires (imaginez ce qu’on pouvait récupérer sur le combiné). Mais l’argument qui fit réellement débat était celui de la dégradation du signal qui était réelle et estimé entre 13 et 20 décibels.

L’issue ne faisait guère de doute dans une Amérique convaincue que la seule manière de fournir un service de communication efficace est de n’autoriser qu’« un système, une politique, un service universel » pour reprendre le célèbre slogan de Theodore Vail, l’emblématique patron d’AT&T. 5 ans après avoir entendu les deux parties (la commission a pris son temps n’est-ce pas) le régulateur décida de donner raison à AT&T.  L’inventeur du Hush-A-Phone porta l’affaire devant la cour d’appel des Etats-Unis et obtint le 4 octobre 1956 un renversement de la décision qui fit date.

Une copie de cette décision est disponible ici et c’est un peu comme si un enfant de 10 ans s’était penché rationnellement sur le problème faisant vaciller d’un seul coup presque un siècle de monopole et de collusion entre les législateurs/régulateurs et la compagnie américaine du téléphone, extrait : (traduction maison)

« Admettre qu’un utilisateur puisse produire le résultat en question en mettant ses mains autour du microphone et en parlant dedans mais ne puisse pas le faire en utilisant un dispositif qui lui laisse les mains libres pour écrire ou faire ce qu’il veut, n’est ni juste ni raisonnable »

Et voilà comment une décision de justice a ouvert la voie à la fin de l’emprise d’AT&T sur l’ensemble du réseau téléphonique. Compléter par la décision d’une autre affaire  dite du Carterfone, il sera désormais possible d’innover aux extrémités du réseau à condition, évidemment, de ne pas l’endommager. Le marché des modems peut exploser, ces boîtiers qui transforment le signal numérique (les 0 et les 1) de votre ordinateur en signal analogique (celui de la ligne téléphonique). Des réseaux privés professionnels, au Bulletin Board system et bien évidemment plus tard avec Internet, toutes ces innovations ne furent possibles que parce qu’AT&T avait été déchu de son droit d’être l’unique innovateur du réseau téléphonique.

Comme le suggère Tim Wu dans son livre, c’est d’une certaine manière la possibilité d’Internet comme plateforme qui est née avec cette décision. L’idée que parce que l’innovation est permise aux extrémités du réseau, elle va générer de formidables effets d’entrainement entre les fournisseurs de service et les internautes.

Le dernier clin d’œil à l’histoire d’Internet se trouve dans les détails du procès qui de fait n’en sont plus vraiment. Pour se défendre et améliorer les performances acoustiques de son Hush-A-Phone Tuttle avait embauché un certain Léo Beranek, jeune chercheur du MIT et l’un de ses amis professeur à Harvard, J.C.R Licklider. Ces deux experts ont joué un rôle déterminant dans la décision de la cours d’appel en prouvant que si le Hush-A-Phone dégradait la qualité de la transmission, la conversation restait parfaitement intelligible. Ceux qui ont suivi mon cours d’histoire du numérique cette année connaissent bien ces deux personnages, le premier est le fondateur de l’entreprise BBN qui a joué un rôle prépondérant pour établir la « preuve de concept » de l’ARPANET (l’ancêtre d’Internet) en fabriquant les fameux IMP. Grace à eux, la gestion du réseau ne reposait pas sur les ordinateurs dont les ressources étaient à l’époque très limitées, ce qui permis de convaincre les informaticiens de l’intérêt et de la soutenabilité du réseau ARPANET.  Quand à J.C.R Lickider il sera l’un des pères fondateurs de l’Internet et de l’informatique moderne, contribuant successivement au développement et financement de l’ordinateur à temps partagé, de l’interaction homme-machine et bien évidemment des premiers réseaux d’ordinateurs.

La force d’Internet est son architecture décentralisée en opposition avec la manière dont l’industrie des télécommunications s’est construite. L’histoire du Hush-A-Phone est aussi celle du basculement d’un modèle à l’autre.  On peut alors imaginer que dans l’esprit de Beranek et Licklider ce procès et le débat qui les a opposé aux experts d’AT&T  a contribué à façonner leur croyance en la supériorité d’un système ouvert et distribué dont ils seront, très peu de temps après, les grands artisans.

L’histoire retiendra que le 4 octobre 1956 Internet est devenu possible.

BIBLIOGRAPHIE :

Ce billet reprend en grande partie l’histoire du Hush-A-Phone racontée par Tim Wu dans son livre the Master Switch

A History of the Internet and The Digital Future, Jonny Ryan, Reaktion Books 2013

Les sorciers du Net: les origines de l’Internet, Katie Afner et Matthew Lyon, Calmann-Levy 1999

quelques  pages Wikipedia 😉

2018, l’année du piratage IPTV

Regardez le boitier ci-dessous, ça ne vous dit rien, réfléchissez ! Vous l’avez probablement déjà vu, lui ou un de ces clones, dans le salon d’un ami ou d’un membre de votre famille, il était posé à coté ou en dessous du poste de télévision. Ça y est vous le remettez !

C’est un boitier IPTV qui permet, pour faire simple, de faire passer la télévision par le réseau IP (Internet), cela regroupe principalement la télévision en direct, les services de VOD et de CatchUp TV. Votre fournisseur d’accès vous en fournit en général un dans votre offre triple play, mais ceux-là sont d’un genre nouveau. Ils vous permettent d’accéder directement sur votre téléviseur à une infinité de chaines payantes à travers le monde pour quelques dizaines d’euros tout au plus. Des films quelques semaines après leur sortie en salle, une quantité de séries inimaginable et toutes les rencontres de tous les grands championnats sportifs de la planète.

C’est du piratage, une nouvelle forme que l’on pourrait appeler piratage IPTV et dont le présent billet souhaite discuter.

Un phénomène qui prend de l’ampleur.

Selon un récent rapport du cabinet Sandvine, le trafic généré par les flux IPTV piratés représenterait 6.5% de la bande passante aux heures de pointe, soit plus que le trafic issu du protocole Bittorent…tout un symbole. Il vient même concurrencer le streaming sur ordinateur puisqu’il fournit peu ou prou le même service avec l’expérience de la TV en plus.

Un calcul un peu idiot (qui considère que les pirates auraient sinon payé pour le contenu) estime le manque à gagner à presque 1 milliard de dollars pour les chaines et services TV payants aux US. En France un autre rapport évalue à 25% le volume de contenu audio-visuel consommé illégalement via le réseau IPTV avec là encore quelques centaines de millions de revenu en moins pour les acteurs hexagonaux.

Un réseau « underground » et structuré

L’organisation de ce(s) réseau(x) n’a rien de nouveau, sa structuration et la manière dont sa clandestinité « numérique » est assurée rappelle les précédents à l’origine du piratage massif de musique et de vidéo. Pour faire simple il y a en tête de réseau un individu (ou groupe d’individus), qui capte le contenu payant d’un fournisseur de contenu. Il peut s’agir d’un individu isolé qui paye son abonnement à Canal+, Netflix ou SFR sports, capte le flux et le redistribue via Internet ou il s’agît plus probablement d’un internaute pas vraiment isolé avec de réelles compétences informatiques qui utilise des serveurs dédiés pour rediffuser massivement les flux captés, appelons-le « grossiste », lui vous ne le rencontrerez jamais, il se cache. Mais comme tout bon grossiste il a besoin d’un revendeur, directement au contact du client afin de lui fournir le « hardware » (la box de la photo ci-dessus qui permet la lecture sur la TV) et d’assurer la mise en relation pour valider l’abonnement de quelques dizaines d’euros par an. Le revendeur semble être un « super utilisateur » rompu à la vente directe à domicile et prospectant grâce aux recommandations des réseaux de proximité (famille, amis).

Ceci étant avec un minimum de compétences vous pouvez vous passer du revendeur et taper directement « piratage IPTV » sur Google et « box IPTV » sur Amazon et/ou AliExpress. Vous pouvez même vous passer de grossiste en utilisant des logiciels comme Kodi (logiciel libre détourné de son usage initial) ou Roku et en allant chercher des liens sur Internet mais le résultat est plus incertain.

A ce stade s’il semble possible d’évaluer l’ampleur du phénomène, difficile d’avoir une vision claire du niveau d’atomicité de l’offre. A première vue il semble qu’il existe de très nombreux grossistes qui se disputent le marché mais on ne peut exclure l’existence de « super grossistes» à l’origine de la « captation » initiale des flux payants. C’était le cas des réseaux de piratage à l’ère du MP3 où une poignée d’individus organisait les fuites de CD avant leur sortie, alimentant ensuite des milliers de trackers torrent (voir la formidable enquête de Stephen Witt)

Les raisons du succès 

Les détenteurs des droits des contenus piratés ne manqueront pas de nous expliquer que la raison de l’expansion de ce phénomène est qu’à contenu égal l’offre piratée étant moins chère et la probabilité d’être pris faible (voir nulle), le choix du plus grand nombre est évident.

Mais l’histoire du piratage en ligne nous oblige à considérer d’autres paramètres pour expliquer le succès des contenus illégaux. Comme nous l’avions par exemple expliqué avec d’autres collègues dans ce papier, les motivations des pirates ne peuvent se résumer à la gratuité des contenus mais doivent également considérer la volonté des consommateurs de ne plus subir la chronologie des médias, d’avoir un choix de contenu élargi ou encore de pouvoir partager ou disposer des biens numériques sur plusieurs supports. La concomitance du succès des plateformes comme Netflix ou Spotify et la diminution apparente de certaines formes de piratage tend à montrer l’importance de la prise en compte des besoins des consommateurs dans le design et le modèle d’affaire de l’offre légale.

De quoi le piratage IPTV est-il le nom ?

Si Spotify peut revendiquer une croissance à 2 chiffres et plus de 70 millions d’abonnés, si Canal+ a prospéré à l’ère pré-internet au même titre que les grands acteurs du câble et du satellite, ils le doivent en partie à une forme de tarification que les économistes appellent bundling. Plutôt que de vendre différents biens séparément (des albums de musique ou des chaines de télévision) l’offreur propose un panier de biens et de services à prix unique. Cette tarification a quelque chose d’un peu magique elle peut profiter à la fois à l’offreur et au consommateur et ce d’autant que les consommateurs ont des préférences variées. Mais les choses ont changé avec le numérique, puisque l’image passe par Internet, les bundle(s) explosent, les séries à succès sont produites par des pure players comme Netflix, les fournisseurs d’accès et même les réseaux sociaux enchérissent pour s’arracher l’exclusivité de certaines retransmissions sportives et même Mickey casse sa tirelire pour acheter des studios, des chaines et des plateformes de SVod. La concurrence bat son plein, chaque acteur cherche à constituer la masse critique de contenu qui lui permettra d’évincer les concurrents du marché. Mais pour le consommateur cette période peut être très inconfortable, alors que l’on pouvait disposer avec un seul bouquet d’une très grande quantité et diversité de contenu il faut désormais s’abonner à plusieurs services dont les prix reflètent la nécessité pour ces plateformes d’amortir les contenus acquis à prix d’or.

Les amateurs de sport connaissent bien le problème, il y a quelques années pour regarder l’intégralité de la ligue des champions il suffisait d’être abonné à Canal+, pour certains matchs il a ensuite fallu être également abonné à BeinSport. Lorsque ce dernier a obtenu les meilleurs matchs la souscription à son service est devenue un complément indispensable. L’année prochaine par contre il vous faudra vous abonner à SFR sports quelque soit le match. Si la diversité de vos préférences vous conduit à regarder en plus du rugby il vous faudra alors conserver canal+ pour le championnat et si votre club préféré joue la coupe d’Europe vous devrez également ne pas résilier BeinSport, si par contre il descend en pro D2 là vous devrez souscrire à Eurosport…et si en plus vous aimez le tennis alors là j’espère que vous êtes éligible à l’exonération de taxe d’habitation.

Il est probable que le marché se consolidera à moyen terme (certains semblent déjà regretter leur achat) mais pour l’heure le piratage IPTV est pour le consommateur la seule manière de constituer à prix raisonnable un bundle de contenu permettant de satisfaire les préférences différenciées des différents membres d’un foyer (sports, films séries, dessins animés). En regardant de plus près le type de contenu consommé sur les réseaux pirate IPTV, l’effet longue traine est impressionnant et semble attester  du besoin chez les utilisateurs d’un accès centralisé à une grande diversité de contenu.

 « les gens ne savent pas ce qu’ils veulent jusqu’à ce que vous leur montriez »

Cette phrase que l’on attribue souvent à Steve Jobs donne une vision erronée de ce que sont les usages dans le monde numérique et l’expérience du piratage de contenu en ligne l’illustre, les gens savent très bien ce qu’ils veulent et ils vous le montrent !

Comment les réseaux sociaux influencent la géographie du financement participatif

Cet article décrit les principaux résultats du document de travail intitulé « Do Social Networks Shape the Geography of Crowdfunding »

Le crowdfunding ou financement participatif fait désormais l’objet d’une importante littérature en sciences sociales, on trouve de nombreux travaux qui se sont tour à tour intéressés aux facteurs de succès d’une campagne, aux dynamiques collectives de contribution ou encore aux problèmes informationnels que le financement participatif promet de résoudre (voir par exemple Belleflamme et al., 2015, 2014; Schwienbacher and Larralde, 2012; Mollick, 2014)

Moins nombreux sont les travaux à s’être intéressés aux aspects géographiques du crowdfunding qui promet pourtant, en démocratisant l’accès au financement, de redessiner les territoires de la finance. Sur ces marchés l’asymétrie d’information domine, qu’il s’agisse d’une start’up prometteuse, d’une  bande dessinée, d’un festival de musique country, le financeur doit évaluer avant que le projet ne prenne forme à la fois le sérieux du ou des porteurs, son expérience, sa compétence pour mener le projet à terme, mais également la satisfaction ou le bénéfice qu’il retirera de son investissement.

Dans un monde ou le crowdfunding n’existe pas vous avez deux solutions, le banquier ou tata Simone. Le premier a des fonds mais sera difficile à convaincre, la seconde ne devrait pas trop résister à votre argumentaire mais a sans doute moins de fonds que le banquier.  Dans les deux cas la distance géographique entre celui qui demande les fonds et celui qui les offre est réduite afin de diminuer l’asymétrie d’information entre celui qui sait et celui qui aimerait savoir avant de financer.  Le crowdfunding a en partie changé la donne, en proposant votre projet en ligne vous pouvez toucher de très nombreuses personnes où qu’elles soient et demander à chacun une petite part du financement nécessaire, il est donc possible de mobiliser l’ensemble des amateurs de musique country en France ou l’ensemble des fans de star wars prêt à acheter un sabre laser. Dans un célèbre article (Agrawal et al., 2015) ont montré qu’en moyenne sur Sellaband (pionnier du financement participatif) un artiste et son financeur étaient distant de 5000km, plus intéressant encore les premiers contributeurs d’une campagne sont géographiquement proches du porteur, ceux qui sont éloignés contribuent plus tardivement en s’appuyant sur le signal informationnel envoyé par les contributeurs proches (supposément en possession d’une meilleure information sur la qualité du projet).

Notons que la capacité des technologies numériques à réduire la distance physique n’est pas propre au financement participatif, dans le e-commerce plusieurs résultats montrent qu’Internet a effectivement permis de réduire certains couts liés à la distance (Lendle et al., 2012; Gomez-Herrera et al., 2014) même si subsistent des coûts « culturels » corrélés à la distance physique (la langue, les modes de paiement, les habitudes de consommation..).

En évaluant les coûts de la distance dans le financement participatif en France nous nous attendions à ce que ces derniers soient faibles voir très faibles. A la fois parce que les distances en France métropolitaines sont faibles (en comparaison avec les distances internationales ou celles qui prévalent à l’intérieur des Etats-unis) et ensuite parce qu’il existe relativement peu de différences culturelles (même langue, même monnaie, tradition et normes communes). A titre de comparaison chez (Hortaçsu et al., 2009) à l’intérieur des Etats-Unis, lorsque la distance double entre vendeurs et acheteurs sur E-bay, les échanges baissent de 10%….seulement.

Notre étude

Dans le cadre d’un projet nommé Reloc[1], nous avons eu accès à une base de données d’un des leaders français et européen du Crowdfunding. Nous avons pu mesurer en utilisant un modèle dit « gravitaire » le poids de la distance dans les flux de financement participatif entre départements métropolitains français. Tous les détails sont dans cet article mais nous avons travaillé sur 12OOO projets entre 2012 et 2015, plus de 450000 financements pour une valeur de 20 millions d’euros.

L’élasticité de la distance ainsi estimée est de 0.5, ce qui signifie qu’en doublant la distance les flux de financement entre deux régions sont divisés par 2. Dans un contexte où Internet doit justement permettre de réduire cette distance cette élasticité semble plutôt forte. Qu’est-ce qui peut alors réduire ces couts informationnels ?

Le rôle des réseaux sociaux ou le retour de tata Simone

Ceux qui ont déjà participé à une campagne de crowdfunding le savent bien, de nombreux projets et probablement même une majorité sont financés par des proches les « friends and family ». Ce n’est pas nouveaux c’est déjà le cas dans la finance traditionnelle (Kotha and George, 2012), mais ce qui est nouveau c’est qu’il est possible et moins couteux (en terme de couts de transaction) de mobiliser un large éventail de connaissances plus ou moins proches (amis d’amis etc…) pour aider au financement.

Pour prendre en compte l’effet de ces réseaux dans notre modèle gravitaire, nous avons mobilisé les flux de population entre départements (base de données INSEE sur les lieux de naissance et de résidence). Même s’ils ne constituent aucunement une photo exhaustive des liens sociaux entre territoires nous pouvons supposer qu’une personne née dans le département X et résidant dans le département Y en 2013 établit un lien entre ces deux territoires. Notre méthodologie est très proche de celle de (Combes et al., 2005) qui avaient utilisé les flux migratoires des travailleurs pour expliquer les échanges de biens entre départements.

Les cartes ci-dessous montrent la distribution géographique de l’origine des flux de financement participatif à destination des départements de l’Ile-de-France, Rhones-Alpes et Finistère ainsi que l’origine des flux migratoires entrants (immigrants) et sortants (émigrants).

Figure 1: l’Ile de France pour destination des flux

Figure 2: Rhône-Alpes pour destination des flux

Figure 3: Le Finistère pour destination des flux

La corrélation entre l’origine des flux de financement participatif et les migrations de population est évidente même si différentes trajectoires spatiales semblent coexister. Pour Paris par exemple la proximité géographique semble moins importante que le poids économique des départements.  Les réseaux de migration entrants et sortants sont plus ou moins différents (particulièrement saillant pour Rhône-Alpes) et promettent ainsi d’expliquer différemment les flux de financement.

La fin de la distance ?

Une fois les flux migratoires introduits dans notre modèle le poids de la distance dans nos estimations diminue très fortement et disparait même sous certaines conditions. L’existence de liens sociaux entre deux zones géographiques apparaît comme un déterminant puissant des flux de financement par la foule au point de faire disparaître le poids de la distance. Dis autrement ce n’est pas parce que le financeur est loin du projet qu’il ne le finance pas c’est parce qu’ils ne se connaissent pas. On peut également noter que les immigrants ont un impact plus important sur les flux entrants dans un département que les émigrants. Pour un département donné, celui qui arrive mobilise plus facilement ces réseaux d’origine que celui qui part ne contribue à un projet de son département d’origine, les flux de financement participatif suivent les migrations.

D’autres résultats plus attendus viennent alimenter la discussion autour des déterminants des flux de financement participatif, plus les départements sont riches et peuplés plus ils échangent entre eux.

Il existe également une prime au financement « hyper » local, lorsque le projet et le financeur sont dans le même département le nombre de financement augmente de 300% à 400%. Cette non linéarité dans les effets de la distance (effet fort dans les interactions locales et diminuant drastiquement lorsqu’on franchit la frontière du département) sont caractéristiques des biens qui incorporent des informations « tacites » et non codifiables.

Nous sommes encore loin de l’économie en « apesanteur » prophétisée par certains. Dans le cadre du financement participatif seuls les réseaux sociaux semblent en mesure de réduire les fortes asymétries d’information auxquelles sont soumis les projets. Se dessine alors une géographie du financement participatif façonnée par les mouvements de population et l’histoire des relations entre les territoires.

Pour en savoir plus sur le projet Reloc :

Mariannig Le Béchec, Sylvain Dejean, Camille Alloing, Jérôme Meric. Le financement participatif des projets culturels et ses petits mondes . 2017. halshs-01508423

Camille Alloing, Mariannig Le Béchec. Le design du public invisible dans le financement participatif. Le cas du territoire numérique de marques de Noob Le film !. H2PTM’17. Le numérique à l’ère des designs, de l’hypertexte à l’hyper-expérience, 2017. hal-01620048

Bibliographie

Agrawal, A., C. Catalini, and A. Goldfarb (2015), “Crowdfunding: Geography, Social Networks, and the Timing of Investment Decisions,” Journal of Economics & Management Strategy, 24(2), 253–274.

Belleflamme, P., T. Lambert, and A. Schwienbacher (2014), “Crowdfunding: Tapping the right crowd,” Journal of Business Venturing, 29(5), 585–609.

Belleflamme, P., N. Omrani, and M. Peitz (2015), “The economics of crowdfunding platforms,” Information Economics and Policy, 33, 11–28.

Combes, P.-P., M. Lafourcade, and T. Mayer (2005), “The trade-creating effects of business and social networks: evidence from France,” Journal of International Economics, 66(1), 1–29.

Gomez-Herrera, E., B. Martens, and G. Turlea (2014), “The drivers and impediments for cross-border e-commerce in the EU,” Information Economics and Policy, 28, 83–96.

Hortaçsu, A., F.A. Martínez-Jerez, and J. Douglas (2009), “The Geography of Trade in Online Transactions: Evidence from eBay and MercadoLibre,” American Economic Journal: Microeconomics, 1(1), 53–74.

Kotha, R., and G. George (2012), “Friends, family, or fools: Entrepreneur experience and its implications for equity distribution and resource mobilization,” Journal of Business Venturing, 27(5), 525–543.

Lendle, A., M. Olarreaga, S. Schropp, and P.-L. Vézina (2012), “There Goes Gravity: How Ebay Reduces Trade Costs,” SSRN Scholarly Paper No. ID 2153544, Social Science Research Network, Rochester, NY.

Mollick, E. (2014), “The dynamics of crowdfunding: An exploratory study,” Journal of Business Venturing, 29(1), 1–16.

Schwienbacher, A., and B. Larralde (2012), “Alternative Types Of Entrepreneurial Finance,” in: The Oxford Handbook of Entrepreneurial Finance, Oxford, Douglas Cumming.

 

[1] Reloc (Réseaux sociaux et localisation du financement participatif culturel) est un projet financé par le DEPS et le labex ICCA avec la participation de plusieurs plateformes francaises de financement participatif. Ce projet a été mené avec Mariannig Lebechec, Camille Alloing et Jerome Meric. Yann Nicolas, Francois Moreau, les membres du workshop organisé par le DEPS à la fin du projet ainsi que les plateformes du projet sont a remercié pour avoir permis et facilité ces travaux.

 

Pédagogie et numérique: ma petite désillusion

Le contexte

Avant d’attaquer ce billet et le désenchantement technologique qui l’accompagne, je situe le contexte. Je suis, depuis 3 ans, MCF en économie à l’IUT de La Rochelle, j’y enseigne donc l’économie en 1er et 2eme année de DUT technique de commercialisation. L’économie n’est pas le cœur de cette  formation, c’est une matière qui doit alimenter la « culture générale », elle est considérée comme plutôt « théorique ».

Comme le savent ceux qui enseignent à l’IUT il n’y a pas de coefficient sur les matières, en conséquence les étudiants « rationnels » ont globalement compris que 5/20 en éco peut se compenser par un 15 en PPP (projet personnel professionnel est une matière où l’on doit montrer que l’on construit son projet pro, à moins de frapper l’enseignant il y est difficile d’obtenir moins de 10 ) ou d’autres matières où prévaut par exemple le travail en groupe. L’économie n’est pas un enjeu énorme pour l’étudiant désireux d’obtenir son DUT.

Le défi est donc, peut-être un peu plus qu’ailleurs (et encore), de retenir l’attention des étudiants en parlant de la politique monétaire de la banque centrale ou du mouvement peut intuitif d’une courbe d’offre.

Comme beaucoup probablement, et ce d’autant que j’ai une appétence particulière pour la chose numérique, j’ai pensé que la technologie pouvait m’aider à renouveler l’exercice pédagogique, terminé le cours d’amphi assis derrière sa table à s’écouter parler avec des étudiants recopiant bêtement …ceci fut mon erreur.

Ce qui suit ne reflète que mon expérience et comme je le répèterai en conclusion ce ne sont pas les outils ou la technologie qui sont critiquables mais plus probablement la façon de les utiliser, ce qui fait de moi l’unique responsable de mes échecs….mais si mon expérience peut aider alors allons y…. le désenchantement technologique a pris 3 formes.

Année 1 : moodle vs Facebook

La première année j’ai décidé d’investir Moodle une plateforme pédagogique objectivement très bien faite dont l’usage est largement prescrit par nos universités (Moodle ou autres d’ailleurs). On y dépose le cours et les TD mais, et c’est son intérêt, des ressources complémentaires comme des articles, des vidéos, des commentaires on peut y ouvrir un blog, donner la parole aux étudiants, organiser des QCM. Il y a également un onglet très pratique qui permet de savoir qui se connecte sur la page et quand, et là il faut bien avouer que mise à part une poignée d’assidus (sur 170 étudiants) rien mais alors rien, jamais, même pas après avoir signalé en cours l’ajout d’une vidéo hilarante sur les externalités ! Ah si tout de même l’audience a frémi…la veille de l’exam ! Un pic de fréquentation d’au moins 30 étudiants. J’ai donc eu des doutes sur le rapport entre mon investissement et le bénéfice pour mes étudiants.

En réalité mon cours et d’autres contenus avaient circulé plus que je ne l’imaginais, sur Facebook ! Un étudiant télécharge le fichier et le met à disposition sur le groupe FB. La scénarisation du contenu sur moodle avait laissé place à une notification sur le mur d’un étudiant entre probablement une vidéo de chat et un best of des buts de Zidane …au moins mon cours avait circulé, mais pas comme je l’avais imaginé et j’avais surtout perdu mon pouvoir éditorial. Pour moi la leçon est limpide, on ne peut forcer l’usage d’aucune plateforme avec les étudiants, soit on adopte les leurs, soit on passe son temps à en perdre.

Année 2 : les zapettes ou l’illusion interactive

Tout le monde en a entendu parler et même probablement croisé, elles envahissent nos amphis et avec elles la double promesse d’un Feedback immédiat des étudiants et d’une rupture dans la monotonie du cours magistral.

Pour le feedback pourquoi pas, et encore, la seule chose que vous avez est l’avis moyen d’un groupe d’étudiants, ça ne bouleverse franchement pas l’enseignement et au bout d’une dizaine de fois, passé l’attrait de la nouveauté, les étudiants répondent rapidement sans réfléchir comprenant que de toute façon ils n’avaient pas besoin de ça pour savoir s’ils avaient compris.

J’en ai fait un deuxième usage, des quizz notés pour commencer chaque TD. Mon idée était de générer une évaluation systématique et peu couteuse (pas de correction, la note est générée automatiquement). Je me suis lancé dans la production en série de questions pour 5 groupes de TD et 6 séances, j’ai accumulé presque 300 questions en tout genre sur chaque partie du cours, un petit investissement tout de même. Le bilan est décevant, on a perdu 30mn à chaque TD, certes les étudiants ont globalement appris les contenus et obtenu de bonnes notes au quizz mais lors de l’examen final, le juge de paix, la déception fut grande. Faible capacité de synthèse, difficulté à argumenter, des notes faibles et je n’ai rien vu venir. Je prends pour moi je les ai mal préparé j’ai abusé de la zapette, perdu du temps et en pensant les motiver avec de bonnes notes j’ai probablement envoyé un mauvais signal.

Année 3 : maintenant c’est toi, moi et un stylo

La séquence « standard » dans un amphi pendant mes deux premières années se déroulait ainsi.

  • Je diffuse un slide
  • Pendant 1mn les étudiants plongent dans leur ordinateur et recopient le texte ou le schéma diffusé sur l’ecran
  • une fois terminé, leur attention se disperse au moment où justement je donne des informations non inscrite à l’écran…les slides eux seront diffusés sur Moodle ultérieurement.

Mon cours se résume pour eux à des puces et des tirés qu’ils auront en double puisqu’ils ont recopié une information que je donne à la fin du cours…et impossible de leur faire entendre raison, quelque chose s’affiche devant eux, ils le recopient, le réflexe et conditionné et moi de cautionner cette pratique en ne changeant pas le slide tant que tous n’ont pas noté…en un mot INUTILE.

Trop de PowerPoint trop d’ordinateurs, la révolution est en marche. L’équipe pédagogique prend une décision radicale, interdiction des ordinateurs, tablettes et autres supports technologiques en amphi ! J’en rajoute une couche en me privant également du PowerPoint, désormais c’est les yeux dans les yeux, un cours d’amphi à l’ancienne ! Je parle et ils notent.

A la surprise générale ça marche plutôt bien, les retours sont bons des deux côtés. J’ai pris soin de leur expliquer pourquoi cette décision, il existe un nombre grandissant de travaux qui documentent assez bien les méfaits des ordinateurs/tablettes en situation d’apprentissage (ici ou ici), dilution de l’attention (effet FB), prise de note en verbatim et surtout vous ne voyez plus les yeux de vos étudiants derrière leur écran d’ordinateur. Leur regard est un signal, il vous dit si vous devez  ralentir, si ils ont compris quelque chose, si ça vaut le coup de chercher un autre exemple, si vous les avez perdu…les pommes croquées et les stickers ne vous disent rien.

Evidemment il faut un peu adapter le contenu, pas question de reprendre les sections du manuel d’introduction à l’économie et les débiter froidement. Il faut faire un effort supplémentaire pour garder leur attention. Les conférences TEDX sont un bon exemple, ça marche parce que les intervenants racontent une histoire, parfaitement mise en scène, certains sont littéralement habités par leur propos,  ils captent l’attention par un bon mot, une anecdote, une intonation. En tant qu’enseignant on peut probablement travailler ça sans tomber dans la caricature, être en quelque sorte un peu plus comédien. Le guide pour moi c’est de raconter une histoire avec un début et une fin, un fil rouge et des histoires dans l’histoire. J’essaye de penser mon cours comme une série, évidemment ils n’attendent pas le prochain cours avec autant d’impatience que le prochain épisode de GOT… mais vous voyez l’idée.

Je dis d’ailleurs aux étudiants que ce n’est pas un cours mais une conférence à laquelle ils sont conviés. A titre d’exemple voici mon cours de 2eme année, le fil rouge c’est la crise qui est le prétexte pour aborder des thèmes standards (politique économique, fonctionnement des marchés financiers, l’Europe etc…)

La conférence s’intitule :

La crise financière de 2007 : déréglementation et comportements irrationnels

  1. Qu’est-ce qu’une crise ? -> un peu d’histoire sur les crises et les déterminants communs (1H)
  2. A quoi sert la finance ? -> les acteurs, les intermédiaires, qu’est-ce que la finance comportementale ? (1H)
  3. La crise des subprimes-> le contexte avant crise, la déréglementation des 80’, les CDO, les SWAP, la bulle qui éclate, l’illusion collective et les mauvaises incitations (2h30) (j’utilise ici quelques extraits de films comme Inside job ou the big short)
  4. Les plans de relance de 2008-> les politiques économiques, les stabilisateurs automatiques (2H)
  5. La crise des dettes souveraines-> la dette, l’effet d’éviction, l’austérité et ses conséquences (1h30)
  6. L’Europe -> rappel historique et les options post crise (1h)

Le format doit donc également évoluer, pour des non spécialistes 2h de suite c’est trop, un cours de 20h  également. Après ma longue expérience de 1 an sur ce contenu je dirai que 8/10h de cours sur des créneaux de 2x45mn permettent de maintenir une attention suffisante.

Conclusion : si je devais résumer je dirais qu’évidement ce n’est pas la technologie qui est en cause mais la manière de l’utiliser, mais m’en être affranchi a semble-t-il été une bonne décision et les premiers retours d’étudiants me confortent dans cette idée. Plus de discussions avant, à la pause et après le cours, plus de questions par mail et comble du comble lorsqu’ils doivent choisir un sujet d’exposé dans une autre matière (en l’occurrence l’Anglais) certains choisissent « l’augmentation des taux d’intérêt aux US » Awesome !

Bonne nouvelle ! Le chômage c’est bon pour la connaissance

c’est la conclusion de cet article de Kummer Slivko et Zhang. Les auteurs ont étudié la relation entre les contributions dans Wikipedia et le chômage. A première vue il semble assez culotté d’imaginer que le second puisse influencer le premier et pourtant le résultat semble plutôt robuste. La bonne idée est d’avoir utilisé la crise de 2008 comme source exogène de variation. A partir de là, et c’est probablement l’hypothèse la plus contestable, les auteurs différencient deux groupes de pays, ceux qui ont subi les affres de la crise et ceux qui ne l’ont pas (ou plutôt peu subi), leur choix est dicté par la variation du taux de chômage, ceux qui ont eu la plus forte sont dans le groupe « traitement ».

Sans détailler la machinerie statistique qui valide le résultat le graphique ci-dessous permet de visualiser l’effet de la crise sur les contributions. En bleu les pays ayant subi la crise ont vu leur nombre de contribution sur Wikipedia augmenter. Ce que n’est pas le cas des pays ayant moins subi la crise. L’effet subsiste 24 mois après le début de la crise à la fois sur le nombre de lecteurs et la production d’articles.

chomage et wiki

Mais qu’est-ce que les chômeurs font de leur journée finalement ?

Evidemment il est difficile de recueillir des données fiables et complètes pour répondre sérieusement à cette question, l’une des bases de données les plus complètes est issue des American Time Use Survey où les répondants remplissent scrupuleusement des carnets de bord de leur activité quotidienne. Cette base a notamment été exploitée par Aguiar, Hurst et Karabarbounis qui ont assez précisément quantifié ce que les néo-chômeurs font chez eux avec les heures qu’ils auraient du passer au travail.

12% des heures non travaillées sont utilisées pour le travail domestique au sens strict (ménage, cuisine, jardinage), 5% pour s’occuper des enfants, 5% pour aider les autres adultes, 6% pour le bricolage et autres activités de maintenance domestique et 7% pour faire des courses et du shopping…mais la plupart des heures non travaillées sont utilisées pour le loisir ; regarder la télé, socialiser, dormir, prendre soin de soi représentent plus de 50% des heures non travaillées.

La tendance depuis les années 60 est à une augmentation régulière du temps consacré aux loisirs et une baisse du travail domestique, la grande récession n’a pas modifié cette tendance, elle l’a au contraire accentué.

Encore plus intéressant on trouve dans l’article d’Aguiar et ses coauteurs une petite sous-catégorie responsable d’une part significative de l’augmentation du temps consacré aux loisirs, appelée « autres loisirs ». Elle regroupe “entertainment other than TV (listening to music and playing with the computer), exercising, sports, and recreation,” and “hobbies” (arts, collecting, writing)”….Bon comme je doute que les américains se soient mis à faire du sport ou collectionner les timbres, on peut raisonnablement penser que l’ordinateur est en grande partie responsable de l’augmentation du temps de loisir pendant la période de la grande récession.

L’avenir c’est le bien public !

La conjonction de ces deux résultats nous dit quelque chose d’intéressant, la baisse du temps travaillé causé par la grande récession mais pourquoi pas également par la substitution croissante du travail qualifié par les algorithmes et les robots sera en partie transférée dans des heures passées devant l’ordinateur. Et même si nous y faisons beaucoup d’autres choses qu’écrire sur wikipedia du temps y sera mécaniquement consacré, ce qui peut signifier également plus de blogs, plus d’article sur wikipedia, plus de carte sur openstreetmap plus de logiciel libre, plus de réponses dans les forums etc.

C’est un transfert du marché vers le bien public, évidemment l’élasticité de substitution entre une heure travaillée et une heure passée à alimenter les biens publics numériques est probablement faible mais si elle était seulement non nulle comme le suggère ces articles nous aurions beaucoup à y gagner…

kanye West pourrait bien être le prochain prix Nobel d’économie.

Kanny west est particulièrement connu pour ses tweets, ses petites amies, sa musique évidemment et d’autres choses dont nous ne parlerons pas ici par manque d’expertise..

Mais ce que l’on sait moins c’est à quel point cet artiste maîtrise la littérature en économie industrielle et particulièrement les concepts développés par notre prix Nobel national (Jean tirole en 2014), c’est dire !

Kanye West a récemment surpris tout le monde en décidant de distribuer son nouvel album The life of Pablo exclusivement sur la plateforme de streaming Tidal et donc de renoncer à le vendre sur Itunes, Deezer, Spotify et même de le distribuer au format CD (sisi ça se vend encore le CD).

Sa décision a été vivement critiquée par les fans et les observateurs au titre qu’elle contraint la diffusion de son album et prend en quelque sorte le fan en « otage » l’obligeant à s’abonner à Tidal pour pouvoir écouter le dernier opus du rappeur…et pourtant

Les marchés bifaces

Les plateformes de streaming comme toutes les plateformes sont des marchés bi-faces (nous en avons déjà parlé ici), en résumé elles sont des lieux de rencontre entre vendeurs et acheteurs, ici les vendeurs sont les artistes (ou les maisons de disques) et les acheteurs sont les consommateurs de musique. Ces plateformes génèrent une dynamique particulière appelée « effet de réseaux », plus il y a d’artistes plus les consommateurs voudront s’abonner à la plateforme et plus il y aura d’abonnés plus les artistes auront intérêt à être présents sur la plateforme. Se pose ensuite le problème classique de l’oeuf et la poule si il n’y a pas beaucoup d’artistes il n’y a peu d’abonnés et inversement d’où la difficulté de faire venir l’une des deux faces du marché en premier pour attirer l’autre…c’est LE problème des plateformes.

L’autre question qui intéresse les économistes est de savoir si plusieurs plateformes peuvent coexister ou si l’une d’entre elles va rafler toutes les parts de marché.

Le multi-homing

En observant le marché du streaming musical vous constatez que de nombreux acteurs coexistent (deezer, spotify, Apple music, Tidal, Amazon prime music, Google play music, Raphsody, Pandora…), c’est en partie parce que le « multi-homing » est une pratique courante du coté des artistes. Cela signifie qu’un artiste peut être présent sur plusieurs plateformes à la fois, voire toutes ! Du coté des internautes le « single-homing » est plutôt de mise, en règle générale on ne s’abonne pas à plusieurs plateformes on en choisit une ! L’une des conséquences est que les plateformes se battent plutôt pour avoir des internautes d’où la politique de prix attractive, les mois offerts et les écoutes gratuites, à l’inverse les artistes étant présents partout ils sont moins rares et donc moins chouchoutés par les plateformes (ce qui peut en passant expliquer les tensions entre eux et les plateformes sur la rémunération des écoutes). Retenons qu’en général le single-homing favorise la concentration du marché.

Kanye West et Tidal ont tout compris…en théorie

d’une certaine manière Kanye West inaugure le « single-homing » coté artiste et Tidal le « contrat d’exclusivité » coté plateforme….le consommateur qui souhaite écouter Kany West doit donc s’abonner sur Tidal et nulle par ailleurs ,c’est le meilleur moyen de prendre des parts de marché aux concurrents et ça semble marcher puisque la plateforme enregistre une forte croissance de ses abonnements (même si elle reste loin derrière les acteurs dominants de ce marché). Notons que Rihanna et Beyoncé avait préparé le terrain en donnant une exclusivité temporaire à la plateforme sur un album et un single …

Si les artistes font ce choix sur Tidal c’est aussi parce qu’ils sont actionnaires…

et cette stratégie prend le secteur à contre-pied, plutôt que de séduire les consommateurs pour faire payer les artistes, Tidal choisit de séduire les artistes (en leur offrant une autre forme de rémunération que les écoutes) et de faire payer les utilisateurs sur la base de l’accès à des contenus exclusifs…

C’est la bonne stratégie dans un marché naissant à fortiori lorsque vous êtes « petit ». Si vous proposez la même chose que les gros vous avez peu de chance de les rattraper il vous faut donc une stratégie qui favorise le « single-homing » … Regardons l’industrie du jeux vidéo qui est un exemple souvent donné lorsqu’on parle de marché bi-faces. Ce graphique est extrait de Landsman, et Stremersch (2011) et montre la manière dont l’industrie du jeu vidéo est passée du single au multi-homing au cours du temps (en ordonnée un indicateur de multi-homing)

multihoming

Au début il faut faire sa place, attirer les utilisateurs qui eux « single-home » (à l’exception de quelques serial gamers qui achètent toutes les consoles). Les consoles font en sorte d’avoir des jeux en exclusivité (rappelez-vous au tout début Mario_nintendo vs Sonic_sega). Puis au fil du temps lorsque le marché est mature et les consommateurs équipés il vaut mieux multiplier les contenus pour profiter des effets de réseau, d’où le passage « au multi-homing » du coté des éditeurs de jeux.

Le streaming a jusqu’à maintenant suivi le chemin inverse (multi-homing coté éditeur) d’où les très nombreuses plateformes au contenu faiblement différencié. Kany West a donc ouvert une brèche plus cohérente avec la stratégie d’un nouvel entrant faisant face à des acteurs ayant déjà une forte base installée de consommateurs et qui pourrait, si la tendance au single-homing coté artiste se généralise, lancer un grand mouvement de concentration du marché, et peut-être même « une guerre de standard » à l’issue incertaine et où avoir le bon contenu au bon moment peut s’avérer déterminant !

en tout cas il n’est pas rare en physique de voir un prix Nobel récompenser des chercheurs qui valident empiriquement des prédictions théoriques anciennes alors pourquoi Kany West ne pourrait-il pas prétendre à la récompense suprême pour ses travaux empiriques sur les marchés bifaces (prix à partager avec Jay-Z pour la stratégie générale de Tidal) ?

 

 

nb: il est important de noter qu’il y a des raisons qui peuvent expliquer le multi-homing des artistes et qui marquent une différence avec l’industrie du jeu vidéo. La principale est que sur les plateformes de streaming l’artiste n’est rémunéré pour la consommation de son oeuvre que via la plateforme alors que le « gamer » achète directement le jeu auprès de l’éditeur. On peut donc supposer que l’effet de réseau indirect coté artiste est plus faible et que son revenu n’augmente pas nécessairement avec le nombre de consommateurs (comme dit dans l’article c’est un sujet sensible dans le secteur)…cela peut expliquer la présence multiple des artistes sur les plateformes qui par ce biais essayent de maximiser leur revenu.

marchés bifaces, discrimination et concurrence : chronique des neutralités sur Internet

La neutralité du net est un beau principe, certains diraient même « romantique ».

On le doit aux universitaires américains qui, aux temps héroïques de l’Arpanet (ancêtre de l’Internet), ont eu la bonne idée d’inscrire dans les protocoles et standards de communication le principe selon lequel, pour faire court, tous les paquets de 0 et de 1 se valent :les fournisseurs d’accès ne peuvent imposer aucune discrimination en fonction de la source ou du destinataire des données.

Ce principe est l’une des raisons principales de la croissance exponentielle du réseau depuis la fin des années 80. En donnant un ticket d’entrée gratuit à tous ceux qui voulaient innover, il a déclenché l’immense effet de réseau qui aboutit à l’Internet que l’on connait aujourd’hui.

Si Marc Zuckerberg avait dû, de sa chambre à Harvard, négocier avec chaque FAI pour accéder aux internautes, mes étudiants s’ennuieraient terriblement pendant mes cours et Skype n’aurait pu se développer au nez et à la barbe de ceux qui fournissent le téléphone en même temps que l’accès au réseau. Il est d’usage de représenter ce principe à l’aide d’un marché biface (ce sera notre hommage tardif au prix Nobel de Tirole).

nn

La neutralité du net impose la gratuité aux FAI sur la face « contenus et services » les obligeant à se rémunérer uniquement par la vente d’accès aux internautes. Comme le rappellent Curien et Maxwell  pour justifier cette gratuité imposée : « la neutralité de l’Internet peut être vue comme une politique d’aide à la création et à la fourniture de contenu sur internet ».

Tout le monde à sa chance et sera traité avec les mêmes égards que Google et Facebook, les portes de l’Internet sont grandes ouvertes, entrepreneurs du monde entier levez-vous et faites fortune  !!!

Le foisonnement d’innovations sur la face subventionnée attire les internautes qui attisent dans le même temps le désir d’innovation des « startupeurs » en herbe. C’est la force de cet effet de réseau indirect qui a permis le succès fulgurant de l’Internet. Pour s’en rendre compte il faut imaginer ce qu’il serait advenu sans neutralité du net : les fournisseurs de services auraient du payer les FAI, il y aurait eu moins d’innovation et les FAI auraient pu empêcher le développement de certains services qui leur faisaient concurrence (bref AOL serait encore là). Nul doute qu’Internet serait moins attractif et donc moins d’internautes, moins de blog, moins de réponses dans les forums, moins d’articles dans Wikipedia, moins de films sur torrent411, et moins de mails de millionnaires désireux de partager leur fortune avec vous…

Malheureusement, contrairement au train, une neutralité n’en cache pas forcément une autre et ceux qui ont profité de la neutralité du net pour constituer des empires pratiquent désormais une nouvelle forme de discrimination.  Cette pratique inquiète parce qu’elle ouvre la voie  à de nombreux abus et menace, d’une certaine manière, la création et la diversité des contenus en ligne.

…..faites entrer les Géants du Web et leur principe de non neutralité des plateformes.

Pour l’essentiel, les géants du web sont des plateformes qui mettent en relation différentes faces de marché. Les utilisateurs sont toujours à droite et les fournisseurs de services et de contenus à gauche mais désormais pour rencontrer les consommateurs ils doivent faire en sorte d’être présents sur la première page d’un moteur de recherche, parmi les applications les plus téléchargées sur un store ou mis en avant dans les recommandations d’une marketplace.

nn3

Jusque là tout va bien, après tout c’est le jeu du marché : les plus offrants, les plus malins ou les plus innovants auront les meilleures places sur les plateformes et pourront rencontrer les utilisateurs…. Marc Levy, Candy Crush ou expedia.fr s’en sortent bien et c’est terriblement mérité. 😉

Mais les plateformes ont bien compris qu’en intégrant la chaîne de valeur elles pouvaient tirer pleinement partie des effets de réseaux indirects (apparition de la flèche rouge) et c’est à ce moment là que les plateformes cessent d’être neutres. 

Une discrimination insidieuse se met petit à petit en place et ses formes sont variables  mais ne manquent jamais de fausser la concurrence en favorisant les services et contenus proposés par la plateforme, menaçant d’une certaine manière la création et la diversité des contenus.

Google a ainsi pris l’habitude de manipuler les résultats de son moteur de recherche pour favoriser ses services ou tout bonnement  supprimer le compte adwords des contenus gênants. Baidu, le « Google Chinois », probablement animé par des motivations différentes, utilise également l’opacité de son algorithme pour filtrer le contenu de son moteur de recherche.

Amazon, quant à lui ne se cache pas de sanctionner les éditeurs qui refusent de baisser leurs prix et nul doute qu’à l’avenir les recommandations de leurs algorithmes feront la part belle aux contenus édités par Amazon lui même. Apple lui aussi profite de l’hégémonie de son « Store » pour évincer les empêcheurs de « vendre » ou s’arroger le droit de distinguer le vice de la vertu.

Tout ceci est-il bien légal ? Récemment le CNNUM a émis un avis sur le sujet avec des recommandations intéressantes, et la Commission européenne s’interroge sur ces pratiques.  En attendant, beaucoup d’entreprises se disent étranglées par ces comportements qui rappellent ce que faisait Microsoft à la fin des années 90 avec Netscape ou les autres développeurs innovants. La lenteur de la réaction des pouvoirs publics avait finalement permis à Microsoft de passer entre les gouttes.

Nous ne sommes probablement qu’au début de cette nouvelle forme de discrimination et il est difficile d’estimer quel sera son impact sur la diversité des contenus et l’innovation. La principale difficulté sera certainement de prouver l’existence de pratiques anticoncurrentielles (ou l’« abus de position dominante » puisque c’est comme ça que l’article L.420-2 du code de commerce considère les pratiques commerciales discriminatoires). Les « GAFAM » sauront se cacher derrière leurs algorithmes ou ouvrir le code dans de justes proportions.

Je termine par une devinette : qui a déclaré  devant la court suprême argentine Search engines are neutral platforms that do not create nor control content on the web ?

Hadopi, comment la science économique contribue au débat.

On dit et écrit beaucoup de choses sur Hadopi, probablement beaucoup trop. Il est un peu frustrant de voir que l’on accorde beaucoup d’importance à des « études »  aux méthodologies parfois un peu douteuses et dont les interprétations nous font monter parfois très haut dans la stratosphère. Alors quand des décideurs publics en font en plus la promotion ce sont les larmes qui montent.

La recherche en sciences économiques s’intéresse de près à ces questions et les résultats sont plutôt robustes, en voici une synthèse à l’usage par exemple de ceux qui n’ont pas le temps d’aller chercher l’information là où elle se trouve.

Préambule

Tous les articles sélectionnés essayent d’aller au delà de la simple mise en évidence d’une corrélation en proposant d’évaluer l’existence de causalité entre les comportements de partages et/ou d’achats et la mise en place de mesures pour lutter contre le piratage (méthode des variables instrumentales, quasi expérimentation et modèle en dif-dif). Dans la littérature récente j’en sélectionne 6.

[1] Danaher, B., Smith, M. D., Telang, R., & Chen, S. (2012). The effect of graduated response anti-piracy laws on music sales: evidence from an event study in France. 

[2] Adermon, A., & Liang, C. Y. (2014). Piracy, music, and movies: A natural experiment (No. 2010: 18). Working Paper, Department of Economics, Uppsala University.

[3] Danaher, B., & Smith, M. D. (2014). Gone in 60s: The impact of the Megaupload shutdown on movie sales. International Journal of Industrial Organization33, 1-8.

[4] Arnold, M., Darmon, E., Dejean, S., & Pénard, T. (2014). Graduated Response Policy and the Behavior of Digital Pirates: Evidence from the French Three-Strike (Hadopi) Law (No. 201401). Center for Research in Economics and Management (CREM),

[5] Dejean, S., & Suire, R. (2014). Digital files dealers and prohibition in the context of the French 3 strikes (HADOPI) law (No. 201406).

[6] Peukert, C., Claussen, J., & Kretschmer, T. (2013). Piracy and movie revenues: evidence from megaupload.

alors que nous apprennent ces articles ?

Les dispositifs qui visent à sanctionner les internautes n’ont pas réduit le nombre de pirates (ou alors de manière très transitoire).

Aucun résultat ne permet d’affirmer que les mesures du type HADOPI en France ou IPRED en Suède ont significativement permis de réduire le nombre de « pirates ». Dans l’article [4] nous avons tenté d’évaluer l’effet de la probabilité perçue d’être sanctionné par la Hadopi sur les pratiques illégales. Notre analyse  empirique repose sur un modèle d’économie du crime à la Becker. Nous avons un échantillon de 2000 internautes représentatifs de la population des internautes français et une enquête par questionnaire avec les biais déclaratifs habituels mais également pas mal d’information micro sur les individus, leurs préférences, leurs caractéristiques et leurs perceptions de la loi Hadopi. Nos résultats qui utilisent la méthode des variables instrumentales pour répondre aux différents problèmes d’endogénéité (le sens de la causalité et les variables inobservées notamment) ne mettent pas en évidence d’effet dissuasif. Les individus qui pensent que la probabilité de se faire prendre par Hadopi est élevée ne fréquentent pas moins les réseaux P2P que les autres. Le point faible de cette étude est le manque de données notamment sur l’intensité d’usage des réseaux P2P ce qui implique que les écarts type de nos estimateurs sont un peu élevés…mais le résultat est suffisamment robuste. Ou pour le dire autrement si un effet dissuasif important existait nous ne serions pas passés à coté.

Dans l’article [2] les auteurs évaluent les conséquences de la mise en application de la directive européenne IPRED en Suède (mesure assez comparable à notre Hadopi). Ils utilisent un modèle en diff-diff qui consiste à mesurer un comportement (le trafic internet en Suède)   avant et après qu’un événement survienne (la mise place de la loi IPRED), ils regardent ensuite ce qu’il se passe dans un groupe contrôle (Norvège et Finlande) qui lui n’a pas été impacté par le dit événement, la différence de variation de trafic entre les deux groupes constitue en quelque sorte le résultat. Si le trafic Internet a fortement diminué dans les premiers mois qui suivirent IPRED (ce qui est tout de même le signe que les Internautes ont arrêté de faire quelque chose qui consommait beaucoup de bande passante ;-)) 6 mois après le trafic était redevenu  normal. Les auteurs justifient ce résultat par le manque de sanction prise par les juridictions compétentes, on peut d’ailleurs faire la même observation pour HADOPI puisque très  peu d’internautes ont été sanctionnés. Sans véritable sanction le rappel à la loi semble avoir des effets limités sur les pratiques illégales et c’est probablement ce qui explique qu’Hadopi n’ait pas endigué les pratiques illicites.

Un autre argument plus difficile à mettre en évidence est celui de la transformation des pratiques. Si le P2P est surveillé alors il possible que les internautes se réfugient sur des sites de streaming, utilisent des VPN et des Newsgroup ou attendent patiemment que le collègue de bureau partage son disque dur (big up à mes anciens collègues bretons). Dans [4] nous avons montré que les internautes ayant dans leur entourage des pirates ont une probabilité plus grande d’utiliser des plateformes de piratage alternatives (non P2P) en substitution des réseaux P2P.

L’article [5] va plus loin en s’intéressant au « piratage de proximité » qui consiste à acquérir du contenu en échangeant des données par l’intermédiaire de disques durs, de clés USB ou d’appareils mobiles. Cet usage est déclaré par la moitié des internautes et nous avons montré que dans ce réseau d’échange « hors ligne » les usagers se positionnaient en fonction du sentiment d’insécurité produit par HADOPI (plus j’ai peur d’HADOPI plus je prends et moins je donne et inversement pour ceux qui ne la craignent pas). Ce résultat renforce l’idée qu’il existe des interactions entre les différentes pratiques pirates et que la loi dite HADOPI a pu les influencer.

Les dispositifs qui visent à sanctionner les internautes contribuent au développement de l’offre légale « en ligne ».

C’était la conclusion du célèbre papier [1] qui avait fait polémique. Les auteurs ont habilement mis en évidence un effet positif de la Hadopi sur les ventes Itunes. Leur méthode est la même que celle décrite précédemment (pour le [2]), ils observent les ventes sur Itunes avant et après le vote de la loi Hadopi et le compare avec un groupe contrôle qui est un panier de différents pays européens dont les ventes n’ont bien évidemment pas pu être impactées par Hadopi.  Le résultat est spectaculaire +25% de ventes d’albums sur la plateforme à la pomme !! Le papier a été pas mal critiqué et pas toujours à bon escient (voir ici). Le principal problème est le groupe contrôle que l’on pourrait accuser d’être de convenance, pour que le résultat soit robuste il faut qu’en l’absence d’Hadopi les ventes sur itunes aient évolué de la même manière en France et dans ce fameux groupe contrôle. J’aurai bien regardé ce qu’il se passe si on enlève un ou deux pays ou si on en rajoute mais bon…

Là où ça devient intéressant c’est que l’on retrouve ce résultat dans [2], où en plus d’avoir momentanément réduit le trafic Internet, la mise en place de la loi Ipred en Suède a fait croître les ventes de musique de 37% . L’augmentation des ventes « numériques » compte pour une part importante de cette augmentation. Ce résultat semble assez solide, le groupe témoin est composé de pays très comparables (Danemark et Norvège) qui n’ont donc pas connu la même augmentation, l’effet informationnel des sanctions promises par la loi Ipred est donc un bon candidat pour expliquer ce résultat….le seul autre candidat pour lequel les auteurs n’ont pas de contrôle est un éventuel effet d’offre qui aurait touché la Suède et non ces voisins (Spotify par exemple mais je ne suis même pas certain que le streaming soit comptabilisé dans les ventes onlines du papier).

La fermeture de Megaupload

Que se passet-il si on coupe les circuits d’approvisionnement ?  La fermeture soudaine de Megaupload en Janvier 2012 offre un contrefactuel propice à faire de la bonne économétrie.

Les papiers [3] et [6] s’y sont essayés, leurs résultats sont moins contradictoires qu’il n’y parait. Le papier [3] regarde l’impact de la fermeture de Megaupload sur les ventes en ligne. Observer simplement la variation de ces ventes avant et après la fermeture ne suffirait pas à isoler l’impact de cette mesure puisque d’autres facteurs pourraient expliquer la variation des consommations (développement de l’offre , reprise économique #lol, saisonnalité…). Comme la fermeture de Megaupload touche tout le monde on ne peut pas non plus distinguer aisément un groupe qui subit le traitement et un autre de contrôle qui ne le subit pas. Les auteurs  construisent alors une sorte d’indice de pénétration de Megaupload par pays (j’y reviens après) et regardent si cette variable a un effet différent sur les ventes avant et après la fermeture. Les variations de consommation avant la fermeture ne sont pas influencées par des différences dans les taux de pénétration de Megaupload par contre après la fermeture les pays où Megaupload était le plus populaire sont ceux qui connaissent les plus importantes variations positives de consommation, ça semble imparable….à une chose près. L’indice censé représenter le taux de pénétration de megaupload est une boite noire, ils auraient utilisé les recherches de mots-clés de google adwords et là ça me semble un peu léger (et pas franchement reproductible en tout cas j’y suis pas arrivé) comme proxy du succès de Megaupload (on remarque au passage que la France à un taux de pénétration très élevé…un lien avec Hadopi ?), comme le résultat repose sur la validité de cette variable on peut tout de même s’interroger, mais au final ces conclusions rejoignent les résultats de la section précédente où les mesures d’interdiction/régulation favorisent les ventes légales online.

Le papier [6] affronte le problème différemment  et se concentre sur les conséquences du blocage de Megaupload sur les entrées au box office. Contrairement à [3]  il tente de s’accommoder de tous les facteurs qui pourraient venir expliquer les variations des revenus du box office (avec des variables ou des méthodes qui permettent de capter chacun de ces effets), la méthode est un peu moins robuste mais ça reste intéressant . Leurs conclusions sont que pour la plupart des films ça n’a rien changé mais pour certains (au milieu de la distribution) les revenus ont  baissé (on retrouve un argument bien connu qui fait du piratage un élément permettant d’essayer avant de consommer afin de réduire l’asymétrie d’information entre producteurs et acheteurs)  alors que quelques blockbusters semblent avoir bénéficié de cette fermeture.

Alors vous allez me dire mais comment le piratage peut ne pas diminuer et les ventes légales augmenter ? D’abord ce sont les ventes légales « online » que l’ont voit augmenter et elles peuvent simplement venir se substituer aux anciens modes de consommations payants  (avec support), mais surtout alors que je termine ce billet dans un train,  je vois des écrans partout ! Des ordinateurs, des tablettes, des smartphones et tout le monde regarde des films, des séries, et que dirait Walt Disney en parcourant les files d’attente des péages d’autoroute en observant tous ces enfants regarder avec autant d’attention l’appui-tête de papa et maman ?

Et si le « temps de cerveau disponible » pour regarder des films ou des séries n’avait cessé de croître ces dernières années au rythme de la miniaturisation des composants et de l’augmentation des débits Internet ? Chacun peut en tirer les conclusions qu’il veut 😉

 

 

 

 

 

 

La presse en ligne ne sait pas chasser le cerf

Quand on parle de business model sur internet on oppose en général les modèles payants et les modèles gratuits. Ce dernier l’étant rarement on désigne par gratuit les valorisations différées du type freemium  ou les financements par la publicité (voir Anderson 2008). La presse fait partie des secteurs les plus tiraillés entre ces deux formes de valorisation. Elle a historiquement misé sur la publicité pour financer les « news » librement accessibles sur leur site web alors qu’elle continuait, dans le même temps, à faire payer le journal papier pour un contenu équivalent. D’autres se rendant compte qu’ils ne pourraient pas financer leur rédaction de journalistes avec des bannières clignotantes ont essayé le modèle payant, mais comment convaincre les internautes habitués à consommer gratuitement tout ce qui est composé de 0 et de 1 ? (voir Charon et Le Floch pour un historique et une présentation des acteurs du secteur de la presse en ligne).

Difficile d’avoir aujourd’hui une vision claire du secteur entre les dépôts de bilan, les plans sociaux,  les titres en vente, les pure players aux fortunes diverses, le New York Times qui revendique le succès du Paywall et la presse quotidienne française nationale et régionale qui…. hésite (voir cette étude de Benghozi et Lyubareva).

Après tout si le NYT y arrive pourquoi pas Le Monde et Libération. Nous voudrions illustrer ici un aspect bien précis du débat gratuit/payant dans la presse en ligne, à savoir la concurrence induite par le premier sur le second et illustrer le fait que le problème du modèle payant n’est pas tant sa rentabilité que le fait qu’il coexiste avec le modèle gratuit et qu’à choisir je préfère lire des articles gratuits plutôt que payants (ou alors il faut vraiment une grosse valeur ajoutée journalistique). Le secteur de la presse en ligne connait un problème de coordination, et pour l’illustrer invoquons….

La chasse au cerf de Rousseau

La parabole de la chasse au cerf de Rousseau est assez simple (les blogueurs économistes en ont déjà parlé par exemple Mafeco ici et @Cyril_Hedouin ici). Pour faire simple deux chasseurs ont le choix entre chasser le cerf et le lapin, le premier permet de nourrir tout le village mais nécessite que les deux chasseurs coopèrent pour l’attraper (un le rabat l’autre le tire). Le lapin ne permettra à chaque chasseur que de nourrir sa famille mais peut être chassé seul. Les deux chasseurs ont donc intérêt à s’entendre pour chasser le cerf (1er équilibre de Nash) , sauf que le cerf peut mettre un peu de temps à arriver d’où la tentation pour chaque protagoniste de partir chasser « égoïstement » le lapin, l’autre ne pouvant rabattre et tirer le cerf tout seul se voit contraint de chasser à son tour le lapin, résultat les deux chasseurs tirent des lapins (2eme équilibre de Nash) alors qu’ils pourraient s’entendre pour ramener un gibier beaucoup plus nutritif. La question est donc comment faire en sorte que les deux chasseurs s’entendent pour chasser le cerf ?

cerf

Le tableau ci-dessus reprend cette parabole, les deux chasseurs deviennent disons Le Monde et Liberation (bon ce n’est évidemment pas parfaitement substituable mais faisons comme si), le cerf est remplacé par le modèle payant et le lapin par le modèle gratuit.  Le choix en haut à gauche payant/payant devient le modèle gagnant pour la presse, puisque si tous les titres de presse deviennent payant en ligne (dans l’exemple Le Monde et Liberation représentent l’ensemble de la presse) l’internaute sera bien obligé de payer pour accéder à la presse. Si par contre, l’un des deux ne voyant pas la rentabilité du modèle payant arriver décide de basculer vers le modèle gratuit, il perçoit des revenus publicitaires (plus faibles mais non nuls) mais désormais l’internaute sera d’autant moins enclin à payer pour disons Le Monde si il peut consulter gratuitement les articles de Liberation. La conséquence est que le modèle payant risque de ne jamais dégager de profit, Le Monde est contraint de chasser le lapin…enfin d’adopter le modèle gratuit et nous voilà coincés en bas à droite dans la figure du dessus.

C’est ce que Edwy Plenel a appelé « l’erreur historique » de la presse. La croyance que la pub en ligne financerait le journalisme  ou l’incroyance que le modèle payant permettrait de la financer. Pour converger vers le bon équilibre de Nash (celui en haut à gauche), il faut que tout le monde décide plus ou moins simultanément d’adopter le modèle payant, la disparition du contenu gratuit ne laissant pas d’autres alternatives aux internautes que de payer pour du journalisme de qualité en ligne.

Pourquoi on y arrive…doucement.

Pour résoudre ce type de dilemme on invoque traditionnellement la nécessité de voir émerger la confiance entre les protagonistes, mais dans le cas de titres de presse en concurrence ça n’a pas beaucoup de sens. Une autre manière de converger vers le « bon » équilibre de Nash est de faire en sorte que les acteurs aient la même croyance, celle que le cerf va arriver, qu’il est donc préférable de ne pas céder à la tentation de chasser le lapin. La croyance que le modèle payant peut être rentable est donc primordiale et pour la favoriser il faut des « signaux ». Le New York Times est certainement l’acteur le plus observé du secteur, en clamant haut et fort le succès de son modèle payant il incite le reste de la presse quotidienne à basculer vers de nouveaux modes de tarification. Il suffit pour s’en convaincre d’observer l’épidémie de « paywall » qui a contaminé la presse en ligne ces derniers mois. A l’échelle hexagonale, Mediapart pourrait jouer ce rôle tant Edwy Plennel ne ménage pas ses efforts pour promouvoir sa stratégie du « tout payant » (le succès de Mediapart est en partie lié à l’auto-imposition d’une TVA réduite mais c’est une autre histoire) . Chaque succès du modèle payant qu’il soit réel ou romancé est une incitation à abandonner le modèle gratuit et permet de converger vers l’équilibre payant/payant qui nous l’avons vu évite la fuite vers la consommation gratuite. Paradoxalement le problème des moteurs de recherche (donc Google) qui cannibalisent la majeure partie des recettes publicitaires en ligne au détriment de la presse (qui fournit pourtant le contenu) pourrait involontairement aider à coordonner les acteurs autour de l’équilibre payant/payant.

Pourquoi on risque de ne pas y arriver.

« Vous savez comment on fait pour devenir millionnaire ? non ? et bien il faut commencer par être milliardaire et ensuite racheter un titre de presse » source : blague issue du monde des médias.

Après tout la presse a-t-elle vraiment vocation à être rentable ? Elle a toujours été un instrument de pouvoir (Stern, 2012) et il n’est pas exclu que l’audience ait plus de valeur que le résultat du compte d’exploitation. Quand Jeff Bezos rachète le Washington Post, que cherche-t-il ? ça conjecture pas mal sur le sujet (ici et ici). On peut sans trop de cynisme avancer deux hypothèses, la première est qu’il compte utiliser le contenu (le journal) pour vendre autre chose disons à tout hasard des kindle pour ensuite vous vendre des livres, du cloud, de la musique etc… seconde hypothèse : il peut être utile d’avoir un journal sous la main le jour ou le sénat discutera sérieusement de la neutralité du net (bon ça c’est cynique). De la même manière est-ce que Xavier Niel cherche vraiment la rentabilité lorsqu’il rachète Le Monde et presque rachète le Nouvel Observateur ? Et puis regardez Propublica ou encore WhoWhatWhy qui sont financés par le mécénat assumant ainsi le caractère non rival et non appropriable de l’information, dans ce cas c’est le cerf qui vous donne gentiment à manger CQFD.

Le P2P ne meurt jamais: petite histoire d’économie expérimentale.

Pour ceux qui ont connu Napster et les premiers échanges massifs de biens dématérialisés sur Internet à la fin des années 90, l’histoire et l’évolution des réseaux P2P à quelque chose de fascinant. Ce qui est remarquable c’est la manière dont ces réseaux ont évolué pour organiser leur survie et s’adapter aux problèmes que rencontrent toute action collective qui se construit autour d’un bien présentant des aspects de « non-exclusivité » (je ne peux pas ou difficilement empêcher quelqu’un de le consommer), ce problème c’est le « passager clandestin », le « free rider » ou plus simplement le comportement opportuniste.

Ce n’est pas la seule difficulté que ces réseaux ont rencontré tout au long de leur évolution. Bien évidemment ces réseaux doivent en permanence s’adapter aux contraintes judiciaires et réglementaires. Chacun peut penser ce qu’il veut mais on doit globalement reconnaître que la quasi totalité des contenus qui circulent enfreignent les droits d’auteur et de copies. Les ayants droit ont globalement tout essayé pour limiter l’impact du P2P, attaquer en justice les concepteurs de plateformes et de logiciels (Napster, Kazaa, thepiratebay) faire saisir des serveurs ou des trackers (Razorback, Oink..) ou encore poursuivre les internautes (Hadopi, affaire Jamie Thomas aux US). L’architecture décentralisée et l’existence d’un grand nombre de petites communautés rendent les deux premières mesures peu efficaces, quand à la troisième celle qui vise à punir les internautes, en plus d’être d’une grande impopularité et peu efficace, elle se heurte aux nombreuses alternatives mises à disposition des « pirates » pour se procurer illégalement du contenu (streaming, cyberlocker, newsgroup, attendre patiemment que ses amis ou collègues viennent à la maison avec leur disque dur).

Finalement le plus gros problème des réseaux P2P était de faire face aux comportements opportunistes de ces membres. Comme chaque fois qu’un bien est non exclusif la tentation est grande d’en profiter sans y contribuer. Et sur Internet l’information est très souvent non exclusive, c’est même cette « ouverture » qui a permis l’immense effet de réseau à l’origine du développement de l’Internet (cf chapitre 3 du livre en haut à droite de cette page si vous voulez en savoir plus).
Ces comportements opportunistes ne sont pas très grave si le bien est non-rival (plusieurs personnes peuvent le consommer en même temps) mais devient un problème quand il vient amputer les bénéfices de ceux qui contribuent. Le problème des réseaux P2P est que si tout le monde télécharge sans mettre à disposition des autres le produit de leur téléchargement, le système marche beaucoup moins bien. Pour résumer, un individu rationnel s’empresse de télécharger le dernier Walt Disney et le retire rapidement de son dossier de partage, il évite ainsi de mobiliser sa bande passante et par la même occasion ne prend pas le risque de se faire prendre en train d’enfreindre le droit d’auteur. Notez qu’à quelques nuances près cet arbitrage vaut également pour une contribution sur Wikipedia (je peux en profiter sans jamais contribuer sur la plateforme), sur un forum ou d’autres types de communautés contributives non exclusives. Mais le réseau P2P présente des aspects de « rivalité » qui font que le comportement opportuniste empêche le réseau de bien fonctionner pour ceux qui coopèrent (ceux qui ne contribuent pas encombrent d’une certaine manière le réseau avec leur téléchargement et empêchent les fichiers de circuler rapidement).

Le jeu du bien public

Avec Godefroy on a pris l’habitude d’utiliser l’économie expérimentale pour expliquer la « survie de la coopération » dans le contexte des communautés en ligne (en général les étudiants aiment bien jouer à ces jeux et l’enseignant aussi d’ailleurs). Les résultats synthétisent l’histoire des réseaux P2P en quelques sessions du jeu du bien public.

Pour plus de détails sur le jeu du bien public voir ici, mais pour résumer chaque joueur reçoit X jetons et choisit la part qu’il garde et la part qu’il met au pot commun, pour chaque jeton mis au pot commun TOUS les joueurs reçoivent une somme positive, ainsi chaque fois que quelqu’un abonde au pot commun il génère un effet positif pour tous les membres du jeu (si je possède 10 jetons et que j’en mets 1 au pot tous les autres joueurs recevront 1 €). La stratégie rationnelle consiste à ne jamais donner au pot et à profiter de la générosité des autres alors que pour maximiser le bien être collectif il faudrait que tous le monde mette tout ses jetons au pot. L’analogie avec le réseau P2P est assez facile chaque fois que quelqu’un met un fichier à disposition, tout les autres peuvent le télécharger et en profiter (techniquement ils peuvent même tous le télécharger en même temps dans le mesure ou les fichiers sont partagés en de nombreux petits morceaux) mais individuellement tout le monde a intérêt à le télécharger sans le partager. J’ai fait jouer 18 étudiants de la License Masertic 8 fois consécutivement en utilisant la merveilleuse plateforme veconlab et les résultats (qui sont assez classiques) sont résumés dans le graphique ci-dessous. Sur le graphique de gauche avec les points bleus (en abscisse les sessions et en ordonnée le montant du pot et donc le niveau de coopération). Sur le graphique de droite avec les points roses, le même jeu sauf que l’on donne au joueur la possibilité de punir ceux qui ne coopèrent pas (en les privant d’une partie de leur gain).

pg_graph 1

En quoi ce jeu donne une bonne illustration de l’évolution des réseaux P2P ? Une fois passé l’engouement initial pour ces nouveaux réseaux (Napster, Fasttrack, Gnutella) le niveau de coopération a rapidement chuté, les « leechers » (c’est à dire ceux qui téléchargent sans laisser leur fichier à disposition pour les autres) ont pris de plus en plus d’importance au point de menacer la survie des réseaux P2P. Le plus gros problème concernait  la disponibilité des fonds de catalogue,  les fichiers les moins « populaires » ceux qui étaient mis en partage par peu d’individus, et qui disparaissaient si les quelques individus qui les proposaient ne jouaient pas le jeu.

Bittorrent: le coopérateur masqué

Alors le réseau  a organisé sa propre survie et c’est là qu’on passe au graphique de droite (celui avec les points roses) avec dans le rôle de Zorro, Bram Cohen, qui inventa le protocole Bittorrent. Sans rentrer dans les détails, ce nouveau protocole de communication oblige les téléchargeurs à partager les fichiers au moins le temps du téléchargement (pour la petit histoire Bram Cohen affirme que le protocole Bittorrent est une application du principe de tit-for-tat bien connu des spécialistes du jeu du dilemme du prisonnier itéré, voir les tournois d’Axelrod,). Bittorent s’est révélé très efficace pour partager des fichiers de grandes tailles (les films et les séries ;-)) mais ce n’était pas suffisant ce qui a vraiment fait la différence c’est l’apparition des communautés privées (private tracker). Les « pirates » se sont regroupés en plus petit comité dans des groupes plus ou moins fermés (il faut parfois être recommandé par quelqu’un pour y entrer mais la plupart du temps il suffit de s’inscrire) et ont surtout établi des règles de partage. La plus connue est celle dite du « ratio », la communauté enregistre votre activité et plus précisément le ratio des données que vous téléchargez rapporté aux données que vous avez transférées aux autres et en dessous d’un certain seuil (défini au sein de chaque communauté) vous êtes puni, la punition peut aller d’une impossibilité de télécharger pendant quelques temps au bannissement de la communauté. Regardez l’effet sur les niveaux de coopération  de l’introduction de la possibilité de punir sur le jeu du bien public (graphique de droite avec les points roses) et bien il s’est passé à peu prés la même chose sur les réseaux P2P, les utilisateurs ont massivement coopéré. Dans ce papier on avait  suivi quelques temps ces communautés pour constater qu’effectivement les taux de partage y sont impressionnants et que la mise en place de règles comme le « ratio » joue un rôle positif sur la coopération.

L’histoire des réseaux P2P est une bonne illustration de la puissance du jeu du bien public, à la fois s’agissant d’expliquer la généralisation des comportements opportunistes mais aussi pour montrer qu’un minimum de « règle » permet de « renverser la vapeur » pour permettre à l’action collective de « survivre ». Avec un peu d’imagination on peut également tirer de ce jeu un certain nombre d’enseignements pour expliquer l’évolution des contributions dans Wikipedia ou au sein de certaines communautés d’expérience ou de pratique à la différence notable que ces dernières, parce qu’elles produisent un bien réellement non rival (des 0 et des 1 qui engorgent peu les tuyaux), rendent « les passagers clandestins » moins gênants. Notons qu’Elinor Ostrom a reçu le prix Nobel d’économie pour avoir identifié ce mécanisme de constitutions de règles. Pour plus de détails allez voir le chapitre 4 de notre ouvrage, paragraphe 1.3.2 😉