Hier, je suis allé écouter un vieux podcast de Xavier de la Porte sur les jeunes et les écrans, dont le titre à clic était : « Sommes-nous vraiment en train de fabriquer des “crétins digitaux » ?« . L’invitée était Anne Cordier, universitaire spécialiste en usages et pratiques numériques. On aurait pu s’attendre à du bon, mais non, j’ai été déçu. Non pas par l’intérêt du sujet (savoir si le temps passé par les ados sur internet/leur ordi est « valable ou pas » est une question tout à fait passionnante), mais par le niveau de profondeur de la réflexion qui semblait dater d’il y a 15 ans.
Car, au lieu de parler de la complexité du sujet, la sociologue et l’animateur ont passé leur temps à parler d’une chose qui s’appelle « écran » : un mot formidable, extensible à volonté, dans lequel ils piochaient en fonction de leurs besoins d’argumentation : consoles, ordis, smartphones, … Seulement, en 2021, il n’est pas possible de prendre au sérieux une analyse – aussi bien menée soit-elle – qui se base sur un mot valise inventé dans les années 90, dans un contexte numérique complètement différent.
Aussi, pour aider les futurs sociologues qui voudraient travailler sérieusement sur le sujet du numérique, voilà une petite explication sur les pratiques du numérique.
L’origine de l' »Ecran »
Mais c’est quoi un écran ? Initialement, ce mot désigne tous les appareils sur lesquels sont affichés des informations. Mais dans le petit monde des psycho-philo-sociologues exposés médiatiquement, « Ecran » signifie autre chose.
C’est, à ma connaissance, le psychiatre très médiatisé Serge Tisseron (à qui l’on doit également la notion d’extimité et qui avait d’ailleurs intelligemment pris parti contre le droit à l’oubli) qui a le premier popularisé le terme « Ecran » au milieu des années 90 en s’inquiétant du temps passé par les enfants devant la télévision et les jeux vidéo. Seulement pour des raisons médiatiques (Tisseron passait souvent à la télé), celui-ci a simplifié ces nuances sous le terme d' »Ecran ». Rappelons tout de même qu’à cette époque, il devait y avoir 100 000 foyers connectés au réseau Internet en France.
Et puis le terme « Ecran » s’est popularisé et s’est même renforcé à partir des années 2010 par les médias, les associations de prévention des abus du numériques et les opportunistes de tous poils. Car ça fait tout de suite plus sérieux de parler de l’abus d’écrans que de l’abus de télévision déjà sur-utilisé dans les années 80.
Il n’y a pas DES écrans, mais DES pratiques numériques.
Mélanger sous une même appellation des pratiques aussi différentes que celle de la télévision, des jeux vidéo, de TikTok, ou de la programmation informatique est complètement incohérent. Les stimuli et les interactions de ces outils ne sont pas les mêmes. Et donc leurs conséquences pour ceux qui les utilisent non plus. Ce qui était peut-être vrai en 1995 ne l’est plus du tout en 2020. Les différences sont énormes et une granularité fine est fondamentale.
En 2021, ce terme « Ecran » est donc complètement obsolète. Car de quoi parlons-nous ? De la pratique de l’outil informatique ou du temps passé devant Netflix ? De l’arrivée du numérique dans nos vies ou de la consommation passive de publicités Facebook ?
Pour être plus précis dans l’analyse des comportements des utilisateurs confrontés à l’outil numérique, il va falloir étudier les pratiques. Car le numérique est un ensemble de pratiques différentes, certaines à risque, d’autres à potentielle. Des pratiques évolutives dans le temps et qui peuvent compléter ou remplacer les pratiques traditionnelles.
Petit tour de ces pratiques numériques (avec en prime mon avis complètement subjectif sur leurs intérêts respéctifs – je fais ce que je veux, je suis sur mon blog).
Pratique numérique 1 : la programmation
Depuis le métier à tisser de Jaquard, les ordinateurs servent à calculer et automatiser des tâches rébarbatives.
Les professionnels de l’automatisation (les fainéants) ont vite compris l’utilité de l’informatique pour accélérer leur productivité (et avoir plus de temps libre). C’est ainsi qu’est née et que continue de prospérer la grande tribu des développeurs informatiques (les fainéants). Programmeurs, codeurs, développeurs se succèdent, génération après génération, passant de l’assembleur au Fortran et du C++ au JavaScript. Un bien beau métier pour apprendre à se servir des outils numériques sans se faire asservir.
La pratique de la programmation a des avantages cognitifs certains que je ne peux que recommander.
Pratique numérique 2 : la bidouille
Le numérique est un terrain de jeu idéal pour les expérimentateurs, inventeurs, bidouilleurs, makers et hackers de tous poils, que ce soit dans les années 50 au Tech Model Railroad Club du MIT, le Homebrew Computer Club des années 70, l’ordinateur individuel (le PC) dans les années 80, ou encore le web dans les années 90.
Dans les années 2000, c’est l’invention de la carte Arduino par le Turinois Massimo Banzi et des sites comme Instructables qui permettent de partager le gout de la bidouille numérique à tous.
La bidouille est l’aspect complémentaire du développeur. Si tous les bidouilleurs savent coder, tous les codeurs ne savent pas bidouiller. Et c’est bien dommage.
Bidouiller, hacker, inventer c’est chercher à comprendre, c’est devenir intelligent. La base de l’apprentissage du monde qui devrait être adoptée par l’Education Nationale (elle qui travaille avec Microsoft).
Pratique numérique 3 : le jeu
Le jour où l’outil informatique s’est retrouvé aux mains de bidouilleurs malins, ceux-ci ont eu envie de fabriquer des jeux : wargames, jeux de stratégies, jeux de rôle, jeux d’action (Pong), etc.
Ainsi, depuis plus de 40 ans, le jeu vidéo s’est diffusé dans la maison (consoles, pc), au travail (le démineur !) et dans vos moments de réflexion (smartphones). Une diffusion d’abord sous forme physique (cassette, disquette ou cartouche, CD), puis sous forme dématérialisée (Steam, GOG ou les applications de vos smartphones), pour arriver bientôt sous forme de flux permanent (Trackmania vous propose maintenant un abonnement mensuel pour jouer…). Un bien ou un mal ?
Inoffensif et même à vocation pédagogique dans les 80’s, le jeu vidéo est devenu dans les 90’s, le responsable des échecs scolaires des jeunes. Dans les deux cas, ce furent des analyses faites sans connaissance du sujet. En réalité, il est assez simple de voir le potentiel pédagogique d’un jeu, il suffit de mesurer le degré de liberté et d’autonomie du joueur. Ainsi certains jeux, dits « bacs à sable » vont accroitre les capacités stratégiques, de créativité, de vision 3D, de gestion, et pourquoi pas de mathématique des joueurs. D’autres jeux (les socialgames par exemple) ne sont que des divertissements passifs où il suffit d’appuyer sur un bouton pour produire une explosion de couleurs et de bruits. Une sorte de récompense pavlovienne (pour fabriquer de bons petits toutous ?).
Pratique numérique 4 : l’apprentissage et l’enseignement
L’informatique est idéal pour lire, manipuler des objets, saisir des informations textuelles. Bref, l’informatique est idéal pour apprendre ou enseigner. Les enseignants ont vite repéré le potentiel de l’outil, et on a vu dans les 80’s et 90’s se multiplier cassettes, disquettes et CR Rom ludo-pédagogiques (je suis bien placé pour en parler, en ayant développé un en 95).
Mais pendant ce temps là le réseau Internet accumulait de plus en plus d’informations, de savoirs, de connaissances. Il ne lui manquait qu’un protocole pour relier tout ça. Ce fut fait en 91 grâce au World Wide Web qui devint une toile de connaissances entremêlées, un véritable cerveau numérique où chaque neurone était un serveur. L’aboutissement de ce principe d’intelligence collective s’est incarné dans la Wikipédia en 2001. Mais aussi dans le concept de MOOC (Massive Open Online Courses) vers 2010. Imaginez : du savoir à volonté, gratuitement disponible, pour tous. Le rêve des Encyclopédistes, le cauchemar des tyrannies.
Les gens ont alors abandonné leurs CD Rom pour investir sur leur box internet. C’était bien pour leurs enfants ; ça allait les rendre intelligents. Nous étions en 2005…
Hélas, plus de gens = plus d’opportunités commerciales = plus d’opportunistes. Ainsi les opportunistes de tous bords ont commencé à manipuler l’information (à des fins commerciales ou politiques), la Wikipédia s’est faite infiltrer par les vendeurs de salades, et même les MOOC sont devenus payants (oui, « Open » doit vouloir dire « payant » dans certaines cultures). Pire que tout, les points d’accès aux contenus du web (Google Facebook) se sont mit à réguler, trier, censurer l’information, pour le bien-être de leurs utilisateurs bien sûr.
Aujourd’hui beaucoup de pratiques pédagogiques se font à partir d’accès payant quels que soient le support : applis smartphones, sites web ou même clés USB (et oui, l’Encyclopédia Universalis se vend en clé USB depuis 2016). Et pourtant le web reste l’outil idéal pour apprendre : que ce soit avec les blogs (de profs motivés ou d’amateurs éclairés), les vidéos d’experts (telles celles de TED ou celles du collège de France), ou encore la tonne de contenus pédagogiques disponibles en Open Source ou Créative Commons. Profitons en pendant que ça dure…
Pratique numérique 5 : la création
Le numérique a toujours favorisé la créativité. Que ce soient des créations à base de code informatique, de texte (les fanfics, les blogs), de musique (depuis l’Atari ST), d’images, de vidéos ou de jeux vidéo.
Forcément, on trouve tous les outils pour favoriser ces épanchements créatifs numériques : des plus altruistes (communautés, blogs, …), aux semi-commerciaux (Deviantart, ex-Tumbler, …), aux outils purement commerciaux (Instagram, TikTok).
Oui, le numérique permet de créer tout… Et n’importe quoi. Sur smartphone par exemple, les applications favorisent les créations « faciles » : textes courts, photos et vidéos. De la création-minute pour de la consommation minute. Personnellement, je trouve que poster sur Instagram une énième photo de boobs en plongée ou d’abdos en contre-plongée a un intérêt créatif tout relatif. Mais la création étant subjective, je me tais.
Pratique numérique 6 : la consommation
Évidemment, depuis qu’en 1997 Amazon, première -et seule- librairie en ligne a prouvé qu’on pouvait gagner de l’argent en vendant des livres (idée hautement risible à l’époque dans le petit monde de l’édition française), la consommation ne cesse d’augmenter sur Internet. Que ce soit verticalement – en touchant toutes les strates de la population – ou horizontalement – en vendant tout ce qui est possible.
Dans les années 90, la pratique de la consommation online était limité au web (et au Minitel). Les gens devaient, pour acheter, se trouver derrière leur ordinateur, avec une bonne connexion internet et un navigateur compatible ouvert, installés confortablement chez eux avec leur carte de crédit à la main. Autant dire qu’il y avait beaucoup d’occasions manquées.
Et puis vint le smartphone, l’outil idéal pour regarder de la publicité et acheter des choses. L’ère de la consommation 2.0 est alors arrivée. C’était il y a 15 ans.
Un smartphone n’est qu’un supermarché portable qui vous envoie de la pub et vous pique vos données personnelles pour vous donner envie d’acheter encore plus de choses. Il suffit d’être prévenu : à chaque fois que vous consultez votre smartphone, il tentera de vous vendre quelque chose même si il vous dit le contraire. Une pratique à déconseiller pour les ados.
Pratique numérique 7 : la procrastination
Il parait que la procrastination n’est pas si mauvaise. Ce divertissement plus ou moins passif est subjectif. Ainsi, avant l’arrivée d’Internet, c’étaient les jeux vidéos qui étaient responsable de la procrastination à travers les réussites et le démineur de Microsoft. Et puis Internet est arrivé et le « websurfing » est devenu l’objet de toutes les procrastinations. Que ce soit à travers la Wikipédia ou des sites d’images coquines, la consultation interminable de pages web était devenue de la procrastination.
Le couple « médias sociaux« + téléphones portables consacrera la procrastination à un niveau encore jamais atteint en montrant la capacité infinie d’abrutissement de leurs utilisateurs par les machines, à travers des fonctionnalités comme le wall (merci Zuckerberg) ou encore les capsules vidéo musicales chères à TikTok.
Le résultat : une série ininterrompu de contenus construits pour lénifier le cerveau des utilisateurs. Or si la pratique du vidage de cerveau peut être très bien dans le cas d’une méditation transcendantale, sur un média, vous avez toujours un opportuniste de Patrick Le Lay pour vous y vendre du Coca Cola. D’où une explosion des publicités sur les médias sociaux, qui ont tout de médias publicitaires, et plus rien de sociaux.
Avez-vous vraiment envie qu’on réduise votre cerveau en bouillie ?
Les interfaces conditionnent les pratiques
Et l’on pourrait encore trouver bien d’autres pratiques, voire détailler les précédentes pour en faire une grille d’analyse sérieuse et contrastée du numérique, au lieu d’un « les écrans ne sont pas si dangereux que ça« , un peu limite en 2020. Car on a besoin de cette granularité pour comprendre sérieusement ce que le numérique change dans notre société.
Et l’on pourrait même aller encore plus loin, en détaillant les différentes pratiques en fonction des interfaces utilisées (IHM / UI). Car les interfaces conditionnent les pratiques. Ainsi bidouiller se fera plus facilement sur un PC, un Mac ou un Arduino, mais ne se fera pas sur smartphone (sauf si vous êtes un as qui savez flasher son OS). Idem pour les jeux vidéos : il n’y a pas les mêmes pratiques ludiques sur consoles que sur PC ou sur smartphones. Idem pour le travail, idem pour la consommation, etc.
Bref, nous avons besoin d’être précis pour comprendre le sujet. Alors peut-être existe-t’il des socio-philo-psychologues suffisamment informés qui ont déjà travaillé sur le sujet des pratiques, et qui sont capable de nous dire que telles pratiques sont dangereuses alors que d’autres non. Mais en attendant, c’est à nous de nous faire notre idée, à travers notre curiosité du monde numérique, car j’ai l’impression que personne ne le fera à notre place.