Depuis son arrivée à la tête de Twitter rebaptisé X, Elon Musk a bien tenu sa promesse d’ouvrir certaines parties du code source de la plateforme. Cette réponse à de vieilles revendications militantes pour plus de transparence des plateformes ne manque, en vérité, pas de cynisme. Il est devenu transparent que le code de Twitter favorisait certains contenus et en défavorisait d’autres, au bon vouloir de Musk. L’ouverture du code ne suffit plus, aujourd’hui, pour donner des outils de contrôle à ce que les grandes plateformes font de nos espaces d’expression et de nos démocraties.
À l’ère numérique, nos existences sont de plus en plus régies par les algorithmes. Par-delà les écrans, enquête sur le "capitalisme de surveillance" et ses dangers, nourrie d’analyses de chercheurs et de témoignages d’utilisateurs.
Via Thierry Joffredo :)
Dans les débats politiques au sujet du Web et du numérique en général, on parle souvent d’« algorithmes ». Il n’est peut-être pas inutile de revenir sur ce qu’est un algorithme et sur ce qu’il n’est pas. Si vous êtes informaticien·ne, vous savez déjà tout cela, mais, si ce n’est pas le cas, vous apprendrez peut-être ici une chose ou deux.
« Un algorithme est une suite de décisions. Un algorithme, c’est un ensemble d’étapes qu’on va suivre pour un certain but. Choisir le but est déjà une décision. (Quel est le but des algorithmes de recommandation de YouTube ? Probablement de vous faire rester le plus longtemps possible, pour que vous avaliez davantage de publicité.) Mais choisir les étapes est aussi une décision. Rien dans le monde numérique ne se fait tout seul : des personnes ont décidé de l’algorithme. Que les recommandations de YouTube soient issues d’un humain qui vous observerait et déciderait, ou d’un programme automatique, dans les deux cas, c’est la décision de YouTube. Et il y a donc bien « éditorialisation ». YouTube n’est pas neutre. Même chose évidemment pour le moteur de recherche de la même entreprise, Google. Il classe les résultats en fonction de ce que Google a décidé, lors de l’écriture du programme. (Notez que c’est bien ce qu’on demande à un moteur de recherche : s’il trouvait 10 000 résultats et ne les classait pas, on serait bien ennuyé·e.) »
La série française Drôle a été annulée par Netflix à peine 4 semaines après sa mise en ligne. La décision n’a rien d’une exception : la plateforme de vidéo à la demande par abonnement a une théorie pour savoir sir une production va fonctionner sur le long terme ou non. Au grand dam de la prise de risque et de la créativité.
Des sénateurs ont remis un rapport sur la reconnaissance faciale. Ils assurent s’opposer à une société de surveillance, en annonçant diverses lignes rouges. Mais ils entrouvrent la porte à des tests dans l’espace public et souhaitent identifier les ressorts pour une meilleure acceptabilité de cette technique biométrique.
L’espace public, futur terrain de jeu pour la reconnaissance faciale ? En tout cas, un possible terrain d’expérimentation. C’est ce que préconise un tout récent rapport sénatorial sur le sujet, qui prétend lister trente propositions « pour écarter le risque d’une société de surveillance ». Même si, paradoxalement, le rapport liste pourtant des pistes allant dans cette direction.
Platform is not doing enough to tackle spread of falsehoods, claims letter signed by 80 groups
Trois mois après la publication, le 27 septembre 2021, des feuilles de route ministérielles des données, des algorithmes et des codes sources, ce billet propose une première synthèse de la politique de l’État en la matière. Cette politique peut paraître illisible. Les 15 feuilles de route et 500 actions décrites en 594 093 caractères soit environ 16h de lecture le rappellent. Si ce billet propose des outils pour suivre ces actions, il rappelle surtout à l’État d’impliquer la société civile pour co-construire sa politique d’ouverture.
Crime Prediction Software Promised to Be Free of Biases. New Data Shows It Perpetuates Them. Millions of crime predictions left on an unsecured server show PredPol mostly avoided Whiter neighborhoods, targeted Black and Latino neighborhoods