Il fait encore nuit, je dors d’un sommeil profond et sans soucis, mais cela ne durera pas. Il ne reste que quelques minutes avant que mon smartphone ne déclenche l’alarme matinale. Mon torse s’élève et s’abaisse doucement, imitant de près les variations de la diode de veille de mon ordinateur.

Il ne reste que quelques secondes… 3, 2, 1…

Le téléphone hurle, le torse sursaute, mais l’ordinateur, lui, n’a pas compris et continue à simuler son sommeil de bébé repus. D’un geste automatique, j’attrape la machine beuglante pour la faire taire, et me voici avec dans les mains et devant les yeux une liste d’informations cruciales, à ne pas manquer, en tout cas une partie. Ce sont mes informations, préparées pour moi par un algorithme qui sait ce que je veux et ce que je dois voir. À quelques exceptions près, tout ce qui me parvient a été filtré par un algorithme: Google décide si un mail mérite d’être lu ou s’il fait partie de la catégorie des spams, Facebook sélectionne ce qu’il faut me montrer, et dans quel ordre… même mes SMS (technologie ancienne) sont triés automatiquement.

Sur le web, je retrouve une autre sélection, préparée par les algorithmes de Adwords, la régie publicitaire de google. D’un portrait de mes activités numériques, celui ci tire une liste de publicités éligibles, qu’il organise sur la page de manière à maximiser les clics, donc la satisfaction des annonceurs.

Nous vivons aujourd’hui à l’ère de l’information. Les informations qui nous parviennent déterminent qui nous sommes, ce que nous faisons, ce pourquoi nous nous battons… Elles sont absolument cruciales et nous devons nous assurer que nous les obtenons de manière fiable, sans compromis ni conflit d'intérêts.

C'est l'objet de ce mémoire: Comment les nouvelles technologies ont elles modifié notre façon d'obtenir nos informations, et ce changement doit il être considéré comme une amélioration, une régression, ou comme souvent, un doux mélange de points positifs et négatifs ?


Ne pas choisir

La très grande majorité des services présents sur internet implémentent des fonctionnalités d’automatisation supposées simplifier la vie des utilisateurs, en leur évitant d’avoir à faire des choix. Voici quelques exemples de services qui vous proposent de ne pas choisir.

lire »

Algorithme surhumain

Il m’arrive d’espérer que l'être humain soit imprévisibles et mytérieux, que chacun aie son individualité... mais la réalité est opposée. La prédictibilité des internautes, en tout cas, est impressionnante, et c’est ce qui rend possible la création d’algorithmes qui pourront satisfaire des humains mieux que des humain. Nous allons étudier ici le processus de création de l'un d'entre eux

lire »

Dérive sérendipitaire

Internet est le temple de la sérendipité, et l’ hyperlien son autel. Une grande partie de ce que l’on découvre sur internet, on le découvre au gré d’une dérive que l’on pourrait penser aléatoire, similaire à celle que propose Guy Debord, à la différence près que nous ne suivons pas des règles arbitraires pour nous écarter du chemin habituel. Peut être devrions nous y penser et nous créer des outils pour nous y aider

lire »

Amélioration problématique

Les algorithmes que nous utilisons aujourd’hui n’en sont qu’à leurs débuts, mais l’évolution est rapide: Comparés à ceux d’ aujourd’hui, les algorithmes de 2010 sont rudimentaires, tout comme ceux d’aujourd’hui sembleront rudimentaires dans 5 ans. Il y a fort à parier que dans 10 ans, un algorithme sera capable de s’adapter parfaitement à un utilisateur, afin de lui présenter uniquement ce qui l’intéresse… Et c'est bien le problème.

lire »

Quelques solutions

Depuis que les algorithmes curateurs existent, une partie des utilisateurs a tenté de rester en dehors des normes, d'échapper à l'analyse pour prouver leur inefficacité, conserver un certain anonymat ou ses libertés. Voici quelques solutions 'underground' qui on pu être utilisées pendant ces 15 dernières années, ainsi que quelques proposition depuis le point de vue des créateurs de services en ligne et développeurs d'algorithmes

lire »


Moyens de ne pas choisir

Tous les sites à forte affluence (Facebook, youtube, yahoo, amazon…) présentent à leurs utilisateurs une sélection de contenus sur un ‘mur’ ou un ‘feed’, sortes de têtes de gondole numériques, qui affichent les informations considérées ’importantes’ ou des suggestions personnalisées. Selon les équipes de communication de ces services, ces fonctions permettent une expérience enrichie, de ne rien manquer, d’améliorer l’expérience utilisateur… Bien entendu, la popularité d’un service internet repose sur une bonne expérience utilisateur, mais la satisfation et le nombre d’utilisateurs ne sont pas suffisants pour rendre une société rentable: il faut qu’il clique, achète, réserve... Bref, qu’il soit actif.

On veut garder l’utilisateur intéressé à tout prix, même en s’adressant à ses plus bas instincts s’il le faut. La paresse est encouragée par un contenu accessible sans le moindre effort, et par des fonctionnalités de sélection, d’assemblage (de curation) de plus en plus avancées et omniprésentes. Cette sélection automatique des contenus s’inscrit dans ce que Michel Serres apelle l’externalisation des capacités humaines (voir la conférence:). Il donne souvent l’exemple de l’écriture qui a eu pour conséquence une externalisation de la mémoire, un transfert de capacité qui a permi à l’espèce humaine d’exercer son intellect dans d’autres domaines plus enrichissants, de manière plus efficace.

Tout dépend du contrôle

Il y a selon moi une différence fondamentale entre le remplacement de la mémoire par l’écriture et celui de la prise de décision par des logiciels: le contrôle. L’écriture est un outil suffisamment simple pour être compris en entier par tous ses utilisateurs. Après un nécessaire apprentissage, n'importe qui peut maîtriser toutes les subtilités de l’écriture (pas forcément celles de la littérature, bien entendu) pour l’utiliser à son avantage. Les Algorithmes qui sélectionnent le contenu mis en avant sur Youtube ou Facebook sont au contraire des secrets commerciaux sur lesquels reposent leurs succès respectifs. Il est donc très difficile d’en saisir le fonctionnement et encore plus de les contrôler.

Les réseaux sociaux sont probablement ceux pour lesquels les automatisations sont les plus évidentes: Facebook envoie régulièrement des propositions d’amis, twitter envoie tous les 2 jours des mails ayant pour intitulé:

  • Quelques personnes que vous pourriez connaître ■
  • Populaire au sein de votre réseau ■
  • vous pourriez également être intéressé par ces comptes ■

Les sites marchands tels qu’amazon ou ebay regorgent également de suggestions plus ou moins personnalisées. La page d’accueil d’Amazon, par exemple regorge de sections de ce type. On y trouve les “aides” suivantes pour trouver ce que l’on veut (et ce dont on ne savait pas qu’on le voulait):

  • Featured recommendations ■
  • Hot new in kindle eBooks ■
  • what other custommers are looking at right now ■
  • Recommended for you ■
  • related to items you viewed ■

La fin du “one to many”

D’une certaine manière, le choix automatique des contenus par les sites revient à une inversion du principe de réseau social: Alors que les médias traditionnels (TV, radio, journaux, …) étaient basés sur un schéma vertical dans lequel un éditeur créait ou choisissait des contenus à diffuser à une multitude, les réseaux sociaux ont commencé par reverser ce schéma en permettant à la multitude de devenir créateurs de contenus. Mais la sélection de ceux affichés est une sorte de censure mécanique contrôlée par les fournisseurs de réseaux sociaux, qui rend le rôle d'éditeur à la société qui le contrôle. Sur facebook, par exemple un très faible pourcentage des posts créés est affiché sur les “murs” des amis de l'auteur (entre 0 et 40%, selon cette étude)

D’autres solutions

Il faut prendre garde, cependant, à ne pas espérer des services comme Facebook ou Amazon qu’ils soient ce qu’ils n’ont jamais eu l’ambition d’être: des sources d’information, de conseils littéraires ou d’ouverture au monde fiables. Heureusement, les ’nouveaux médias’ n’ont pas supprimé les médias plus traditionnels: les journaux, la radio, et la télévision existent encore, et s’adaptent (non sans mal) à internet. Dans le domaine des médias numériques, on peut facilement trouver des moyens de contrôler les flux d’informations qui nous parviennent. Les newsletters sont un bon exemple: Étant conçues le plus souvent par des éditeurs (humains), elles ont toujours une certaine logique, et on peut décider d’en suivre une car on est intéressé par sa ligne éditoriale.

Le fait de devoir consciemment demander à recevoir une certaine newsletter plutôt que d’être fiché automatiquement à partir de divagations impulsives sur internet est probablement un point très positif: Parfois un contenu présenté attire notre intérêt, mais on ne saurait se l'avouer au point de s'abonner quelque part pour en savoir plus. C'es un type de contenu qui n'a souvent pas réellement d'intérêt, et moins on en rencontrera, mieux ce sera.

Enfin, Contrairement à un réseau social, une newsletter ne privilégie pas l'individu mais son message. Le but de l’auteur d’une newsletter et celui d’un algorithme sont différents: Un auteur cherchera à faire passer un message qu’il souhaite voir diffusé. Il fera en sorte de garder une cohérence dans son propos. Les algorithmes en revanche, sont le plus souvent conçus pour maximiser un nombre de clics, de ‘likes’ ou d’autres interactions de la part d’un maximum d’utilisateurs. Nous le verrons dans la partie suivante.


Genèse d’un algorithme surhumain

Dans cette partie, je vais tenter de résumer le procédé qui a mené à la création d’un algorithme destiné aux réseaux sociaux (au sens large). Ce procédé a été décrit par Lars Backstrom, John Kleinberg et Ravi Kumar dans un papier intitulé « Optimising Web Traffic via the Media Scheduling Problem »

Le but de cette étude était de résoudre le problème de la programmation des contenus sur un site à forte affluence, c’est à dire dans quel ordre et pour combien de temps une certaine ‘histoire’ doit elle être présente sur la page d’accueil du site afin de maximiser le nombre de clics sur la journée. L'étude prend en compte le fait qu’il faut trouver un équilibre entre présenter la meilleure fraicheur possible aux utilisateurs récurrents, tout en gardant le plus longtemps possible les meilleures ‘histoires’ pour les faire fructifier (une même histoire ne pouvant revenir deux fois pour ne pas risquer de réduire la sensation de fraîcheur).

Les auteurs font, en se basant sur les données réelles du site yahoo.com, plusieurs constats:

  • Le traffic d’un tel site est très précisément prévisible ■
  • Le nombre de clics sur un élément diminue constamment selon une courbe appelée « decay function », qui diminue de 0,44% chaque minute ■
  • les courbes de chaque élément est différente, mais toutes peuvent être rapportées à des partie d’une courbe ‘universelle’ ■

Un paramètre manquant

Le paramètre nécessaire pour connaitre le nombre de clics sur un élément à tout moment de la journée donnée est donc sa « valeur de départ » (le nombre de clics à l’instant où il est mis en avant), grâce à laquelle on peut le placer sur la courbe universelle. Or, en utilisant un échantillon d’une centaine d’utilisateurs, on peut déduire cette valeur de départ pour l’intégralité des visiteurs du site.

En combinant toutes ces données, on peut déterminer précisément la quantité de clics générée au cours de la ‘vie’ d’un élément sur la page d’accueil, et on peut donc mettre en place un algorithme qui détermine la meilleure stratégie pour maximiser le nombre de clics, tout en minimisant la charge de calcul pour les serveurs. Cette partie est nettement plus technique, et n’a pas vraiment sa place ici. (Je suggère tout de même d'aller voir l'étude en questionpour se rendre compte combien le procédé est scientifique et laisse peu de place à l'interprétation).

Surhumainité comparée

Afin de prouver l’intérêt de l’algorithme, l’auteur termine par des expériences grandeur nature, qu'il compare avec les résultats d’autres méthodes. Une journée est programmée par un éditeur humain, l’autre par l’algorithme. La comparaison de l’efficacité de chacun se fait sur la base du nombre de clics enregistrés. Le résultat est flagrant: l’algorithme fait 17.6% mieux que les éditeurs humains et seulement 2.2% moins bien que la solution parfaite (calculée avec beaucoup plus de ressources). Nous sommes donc à l’évidence en présence d'un algorithme surhumain... La singularité approche!


Dérive sérendipitaire

Bien que la perte de contrôle sur notre flux d’informations ait des conséquences négatives évidentes, elle pourrait également avoir des avantages si elle n’ était pas influencée par des intérêts extérieurs. C’est le principe de la dérive proposé par Guy Debord: Afin de découvrir de nouveaux lieux dans une ville, il se laisse guider par un ensemble de règles simples qu’il suit ensuite à la lettre pour se retrouver “à la dérive” dans des lieux inconnus et sortir de sa zone de confort.

Quand la perte de contrôle permet découvrir ou d’élargir ses connaissances, comme dans la dérive, elle est souhaitable. Cependant, celle qu’on observe sur les sites internet “automatisés” est d’une autre nature: Les algorithmes qui choisissent à la place des utilisateurs ne font rien au hasard. Ils tentent de comprendre ce que l’utilisateur apprécie en se basant sur son activité précédente et se conforment ensuite à ce “portrait”, mais étant encore loin de la perfection, ils font le plus souvent un portrait erroné de l’utilisateur. Voici par exemple la liste des centres d’intérêts que me prête google (qui est le seul site de ce type à donner accès à ces d’informations):

Action and Adventure Films, Adoption, Advertising and Marketing, Aerospace and Defense, Affiliate Programs, Air Travel, Animal Products and Services, Animated Films, Antivirus and Malware, Apartments and Residential Rentals, Apparel, Arts and Entertainment, Astronomy, Athletic Apparel, Autos and Vehicles, BMW, Baked Goods, Beauty and Fitness, Beauty Pageants, Beds and Headboards, Bicycles and Accessories, Bodybuilding, Bollywood and South Asian Film, Book Retailers, Books and Literature, Business and Industrial, Business and Personal Listings, Business and Productivity Software, Business Operations, Business Services, Cameras, Candy and Sweets, Car Audio, Cartoons, Celebrities and Entertainment News, Classic Rock and Oldies, Classical Music, Cleaning Agents, Clothing Accessories, Coffee, Colleges and Universities, Comedy Films, Computer and Video Games, Computer Science, Computer Security, Computers and Electronics, Consumer Electronics, Cooking and Recipes, Country Music, Coupons and Discount Offers, Crafts, Cruises and Charters, Cycling, Dance and Electronic Music, Desserts, Dogs, East Asian Music, Education, Email and Messaging, Enterprise Technology, Exchanges, Extreme Sports, Fast Food, Finance, Fitness, Flowers, Food, Food and Drink, Footwear, Foreign Language Study, Games, Gems and Jewelry, Graphics and Animation Software, Hair Care, Health Insurance, Hobbies and Leisure...

...Home and Garden, Hosted Data Storage, How-To, DIY and Expert Content, Humor, Hybrid and Alternative Vehicles, Hygiene and Toiletries, Internet and Telecom, Internet Clients and Browsers, Investing, Jazz and Blues, Job Listings, Language Resources, Laptops and Notebooks, Latin American Music, Law and Government, Literary Classics, MLM and Business Opportunities, Make-Up and Cosmetics, Management, Maps, Marketing, Martial Arts, Mobile and Wireless, Mobile Apps and Add-Ons, Mobile Phones, Movie Reference, Movies, Music and Audio, New Year, News, Online Communities, Online Video, Opera, Parenting, People and Society, Pets, Pets and Animals, Phone Service Providers, Photographic and Digital Arts, Physics, Politics, Pop Music, Primary and Secondary Schooling (K-12), Programming, Psychology, Public Speaking, Puzzles and Brainteasers, Radio Control and Modeling, Rap and Hip-Hop, Recording Industry, Reference, Reggaeton, Risk Management, Rock Music, Royalty, Science, Science Fiction and Fantasy Films, Search Engine Optimization and Marketing, Search Engines, Shooter Games, Shopping, Small Business, Smart Phones, Soccer, Social Networks, Software, Soundtracks, Space Technology, Sporting Goods, Sports, Spreadsheet Software, TV and Video, TV Reality Shows, TV Shows and Programs, TV Talk Shows, Teleconferencing, Toys, Travel, Travel Agencies and Services, Visual Art and Design, Voice and Video Chat, Water Sports, Web Apps and Online Tools, Web Design and Development, Web Hosting and Domain Registration, Web Services, Web Stats and Analytics, World Music, Wrestling, Yoga and Pilates

Si je peux retrouver certains de mes centres d’intérêt (Aerospace and Defense, Animated Films, Astronomy, Programming, Classical Music, Mobile Apps and Add-Ons, Science…) ou comprendre d’où viennent certaines erreurs (BMW m’intéresse particulièrement peu, mais ils ont dû réaliser une publicité qui m’a intéressé), il y a certains éléments qui me sont totalement étrangers (Athletic Apparel, Cleaning Agents, Coffee, Gems and Jewelry, adoption, Investing…). On conçoit qu’avec de telles données, un algorithme ait du mal à faire une sélection efficace.

L’algorithme étant imparfait, il génère une sorte d’aléatoire qui pourrait s’apparenter à une dérive à la différence près que ce n’est pas l’utilisateur, mais les employés d’une entreprise qui définissent des règles, et qui font en sorte de suive au plus près la zone de confort de chacun... soit l'exact opposé de la dérive.

Cela pose également un problème de conflit d’intérêt: Une entreprise telle que Google, Amazon, ou Yahoo a tout intérêt à satisfaire ses utilisateurs, donc à leur proposer des contenus qui leur correspondent, mais elle doit aussi satisfaire les demandes d’annonceurs, qui cherchent la plupart du temps à atteindre de nouvelles cibles, donc par définition, pas intéressées (au départ). On se rapelle la phrase de Patrick Le Lay au sujet des télespectateurs: “Il faut que le cerveau du téléspectateur soit disponible. Nos émissions ont pour vocation (...) de le divertir, de le détendre pour le préparer entre deux messages”. Elle montre la mentalité que peuvent avoir certains chefs d'entreprise, et il n'y a pas vraiment de raisons que ça ait changé avec internet.


Amélioration problématique

Comme on l’a vu dans la partie précédente, les algorithmes curateurs actuels ont leurs imperfections, mais on aurait tort de croire que c'est une situation figée: Le domaine des services sur internet est l’un des plus dynamiques actuellement, de plus en plus de personnes ont accès à internet de manière régulière, les financements et les talents ne manquent pas. Une évolution rapide est en cours. Il suffit pour s’en convaincre de regarder quelques années en arrière à quoi ressemblaient les résultats donnés par google, les feeds composés par facebook etc. Anectode intéressante: Entre la rédaction de cette partie et celle de la précédente (dérive sérendipitaire), google a manifestement modifié son “générateur de portrait”, car la liste de centre d’intérêts qu’il me prête s’est considérablement réduite et affinée (elle conserve tout de même de nombreuses erreurs):

Autos & Vehicles,Computers & Electronics,Custom & Performance Vehicles,Dating & Personals,Food & Drink,Language Resources,Movies,Music & Audio,News,Online Video,Outdoors,Politics,Sports,Switzerland,TV & Video,TV Documentary & Nonfiction

On peut consulter son portrait par google en suivant ce lien , qui semble fonctionner même sans être connecté à un compte google (ce qui est inquiétant et hors sujet)

Erreurs peu durables

Les erreurs des algorithmes actuels, bien que divertissantes ne sont pas révélatrices de tares inextriquables, mais simplement les témoins d’un processus en cours, qui tend vers plus de précision et de justesse. Le web actuel n’est qu’un grand atelier d’expérimentations pour les programmeurs, qui n’en sont qu’à leurs débuts en termes d’analyse de comportements sur le web: la marge de manoeuvre est grande, et l’évolution ne va pas s’arrêter là.

L’aspect plus dérangeant de cette “amélioration” est la direction qu’elle a prise et qu’elle va probablement garder: À quoi ressemblerait l’algorithme parfait selon la direction actuelle? Il aurait la capacité, pour chaque utilisateur, d’assembler une liste de contenus exactement en accord avec ce qu’ils sont, ce qu’ils aiment voir, entendre, faire... Bref, d’être le curateur individuel et parfait de chaqun.

À première vue, cela paraît plutôt être une bonne chose, mais cela dépend fortement du contexte de l’utilisateur: On peut voir cette amélioration comme un moyen d’accéder aux informations qui nous intéressent, de manière transparente, sans avoir à y consacrer de temps. Cependant, si l’on attend une expérience enrichissante de la part de ces services, voire si on s’en sert (consciemment ou non) comme source principale d’information, un problème va se poser.

Une expérience révélatrice

Si on peut bien sûr espérer que les réseaux sociaux ne soient pas considérés comme véritable source d’information par leurs utilisateurs, une étude menée aux états unissemble montrer le contraire: Un peu plus de 200 sujets se sont vus présenter différentes versions de deux sites internet. Tous deux à but non lucratif, l’un présentant les arguments du gouvernement pour la vaccination, l’autre s’y opposant. Après un certain temps les sujets devaient donner leur avis sur la vaccination. Le résultat de l’étude fut surprenant: un nombre considérable de participants avait été convaincu par les commentaires plus que par l'autorité instaurée et prouvée des deux organnisations, et plus encore si un commentateur prétendait (sans apporter de preuve) être médecin.

Imaginons maintenant un internaute qui aurait sur un sujet un avis légèrement préconçu. Un algorithme avancé (“parfait”) pourrait détecter dans son comportement cette “préférence”, et faire en sorte de la contenter en lui présentant des articles et informations qui vont dans ce sens, l’enfonçant un peu plus dans son préjugé. C’est la manière la plus radicale que je conaisse pour arriver à un biais de confirmation.

Rediriger nos attentes

De Manière générale, plus la technologie des Algorithmes évolue plus il devient indispensable de redéfinir ce que l’on attend des différents services qui les utilisent. Ce sont des aggrégateurs de contenus qui vont chercher les contenus qui nous plaisent, et on ne doit pas s’attendre à y trouver des informations neutres ou impartiales, ni s’en servir pour s’ouvrir au monde et découvrir de nouveaux centres d’intérêt (pas plus qu’on espère un exposé de la situation économique de l’europe dans un jounal à scandales). Il faut être sur nos gardes pour éviter de tromper son esprit, et connaitre les risques est un bon départ.


Quelques solutions

À chaque fois qu'il y a une forme de contôle, il y a une sorte de rébellion, de résistance qui se forme. C'est le cas de certains enfants qui se rebellent contre le contrôle de leurs parent, ça a été vrai en france pendant la guerre... Et ça reste vrai pour le contrôle qu'imposent les sociétés de services sur internet.

TraceNoiser, une réponse à Google

Quand google a commencé à tracer ses utilisateurs pour les profiler afin de leur présenter des contenus (et des publicités) adaptées à ce qu'ils recherchent habituellement, un groupe d'artistes a décidé de refuser cette forme de contrôle (de leur vie privée et de leur anonymat) en lançant un projet appelé “trace noizer”, destiné à “brouiller les pistes” de Google.

Il existe quelques moyens techniques pour garder un peu de contrôle: se créer de fausses identités en est un, utiliser maximum tous les moyens que laissent google et les autres (facebook permet de “customiser” légèrement son feed, google de prendre conaissance de certaines données enregistrées sur nous...) en est un autre. Lire les conditions d'utilisations de ces services serait avisé, mais cela est difficile à imaginer. D'après l'étude The Cost of Reading Privacy Policies, un internaute moyen serait amené à accepter 1500 contrats de conditions d'utilisation, chacun long d'environs 2500 mots.

Souhaitable mais peu réaliste

Pour résoudre ce problème, le site Terms of service, didn't readrecense un grand nombre de services sur internet, tels qu'Amazon, google, youtube, twitter, wordpress, wikipedia... puis analyse l'intégralité de leurs termes d'utilisation. Les éditeurs (humains) rédigent ensuite une courte liste de points positifs et négatifs et enfin assignent une note en foncion de leur équité, de leur transparence et de nombreux autres critères. Ces différents aspects sont vérifiés par la communauté via le procédé de “peer review”, le même procédé utilisé par la communauté scientifique pour valider une hypothèse et la transformer en théorie.

On peut égalemenr penser à quelques solutions en amont des différents services sur internet: Apprendre une certaine discipline et méthode pour aborder les nouvelles informations peut aider à ne pas tomber dans certains pièges. L'une des techniques que j'utilise personellement est la suivante: choisir comme source d'information principale un partisan notable de l'idée opposée à la mienne. Cela permet de motiver les vérifications: La vérification des faits favoriant mon idée seront scrupulesement vérifiées par ma source, et je mettrais tout mon coeur à tenter de réfuter une information provenant de cette source. Bien entendu, cette technique ne fonctionne que si deux idées sont bien établies et que j'en favorise une.

Autre idée: en lisant un blogPost, un feed, un article, en écoutant une émission ou en regardant la télévision, si je me dis “je n'avais pas pensé à ça de cette maniére”, je peux continuer en toute confiance: une idée ne peut être fausse, seulement acceptée ou non. En revance, si je me dis “je ne savais pas cela” (j'apprends une nouvelle information), alors je dois prendre le temps de vérifier et croiser les sources.

Croisement des sources

Le principe de croisement de sources n'est pas récent mais il est probablement l'un des outils les plus efficaces pour limiter le pouvoir qu'ont les algorithmes sur notre infromation: Ils sont développés par des sociétés en concourrence permanente et tant que l'intégralité des sources d'information ne sera pas sous contrôle d'un même algorithme, croiser ces sources gardera son efficacité pour limiter le pouvoir de chacune de ces sociétés.

Du côté des créateurs

Les idées citées ci dessus sont des astuces personnelles ou inventées par une communauté d'utilisateurs, mais il pourrait exister des solutions du côté des créateurs de services: inventer un nouveau type de réseau social, inclure une sorte de “moralité” dans la façon dont sont pensés ces algorithmes ou encore en créer de plus ouverts et contrôlables.

La quantité de contenus prodit sur un réseau social et leur manque de structure délibérée sont deux importants facteurs qui rendent l'utilisation d'algorithmes indispensables: Certains analysent le contenu pour lui donner la structure qui lui manque, d'autres se servent de cette structure pour décider s'il faut ou non afficher un certain message. On pourrait imaginer un nouveau genre de réseau social dont les règles permettraient de se passer de certains algorithmes: Il suffirait, pour réduire la quantité, de limiter le nombre de messages pouvant être publié par chaque utilisateur, ce qui permettrait une auto-régulation par chaque utilisateur, qui ne publierait alors que ce qui est réellement important pour lui.

Un algorithme pourrait être conçu pour favoriser autre chose que les contenus les plus “populaires”. On pourrait par exemple imaginer que des développeurs et des psychologues parviennent à identifier et refuser les comportements (clics) impusifs. Je ne souhaite pas voir une vidéo de chats mais si on m'en présente une, je dois la voir... Ne me la montrez donc pas.

Enfin, une dernière option serait de garder les mêmes algorithmes, mais de les rendre transparents et contrôlables. Cela permettrait une “veille” comme celle de TOSDRde se mettre en place, de comprende et d'influencer ce flux d'informations qui nous est proposé. Bien entendu, comme mentionné plus haut, ces algorithmes sont la clé du succés des entreprises qui les développent, et il faut donc garder à l'esprit que libre n'est pas (ou ne devrait pas être) le synonyme de gratuit. Les outils développés par google, amazon et les autres devraient être accessibles, contrôlables, certes, mais aussi protégées d'une manière ou d'une autre du vol et de l'appropriation. Si cette condition n'est pas remplie, les algorithmes ouverts resteront une utopie irréalisable.