Site icon Horea Mihai Bădău

Les algorithmes IA : Le troisième ou le deuxième interlocuteur ?

Notice écrite et transmise au CREM le 21 janvier 2023.

Badau Horea

Centre de recherche sur les médiations

Université de Lorraine

 

Les algorithmes et les humains, les publics qui deviennent public

Famille : Dispositifs et lieux

Renvois vers : algorithmes de recommandation, genre·s et numérique, gilets jaunes , Lazarsfeld (Paul), modération, robots dits sociaux, télésurveillance, troll, viralité, Bourdieu (Pierre)

Renvois à partir de :

Introduction:

Longtemps ignorés, les algorithmes d’IA des réseaux sociaux ont évolué d’un public passif, similaire à celui des etres humains pendant Web 1.0 (le web des sites), à un public actif et dynamique, similaire à celui Web 2.0 (le web des réseaux sociaux), tel que décrit par Hannah Arendt dans sa théorie de la “sphere publique” (renvoi vers : http://publictionnaire.huma-num.fr/notice/arendt-hannah/). Cette évolution est due à des expériences d’apprentissage non supervisé qui ont permis aux algorithmes de contribuer à l’actualisation de l’espace numérique des utilisateurs. A la la période de Web 3.0, où le dispositif remplace l’interlocuteur humain et au debut du Web 4.0, les algorithmes peuvent devenir les seuls créateurs de cet espace si le public humain retourne au stade passif de Web 1.0. Ma demarche descriptive encourage les individus a participer activement a la vie digitale et à prendre des responsabilités pour renforcer la presence humaine pendant Web 5.0.

 

La première étape: un partenariat d’apprentissage

 

Résultat d’un « ensemble de techniques permettant aux machines d’exécuter des tâches et de résoudre des problèmes normalement réservés aux êtres humains »  Presentation au College de France (le Cun, 2016), grâce à leur capacité d’apprentissage (machine learning), les algorithmes intelligence artificielle (IA) ont commencé à accompagner les usagers sur les réseaux sociaux depuis 2010 en sélectionnant et en affichant le contenu que chaque utilisateur consomme sur son compte, en intermédiant leurs échanges et en les dirigeant vers la publicité. Leur objectif est de satisfaire les attentes des utilisateurs, avant même qu’elles ne soient exprimées. Pour atteindre cet objectif, les algorithmes IA utilisent l’observation active de tous les gestes des utilisateurs, la surveillance digitale.

L’apprentissage peut prendre différentes formes, notamment l’apprentissage supervisé, l’apprentissage supervisé par récompense et l’apprentissage non supervisé. Dans l’apprentissage non supervisé, un algorithme est entraîné à partir de données brutes, sans qu’il y ait de labels ou d’étiquettes prédéfinies. L’algorithme doit donc apprendre à détecter des modèles et des structures dans les données par lui-même, sans être guidé par des exemples précis. Cependant, pendant cette période de non-supervision, l’algorithme peut manipuler les utilisateurs, entraînant des résultats indésirables. La plupart des activités des algorithmes pendant l’apprentissage non supervisé n’est pas connue, même pour leurs créateurs : « Les chercheurs en IA sont dans la même situation embarrassante que les physiciens : 95% de la masse de l’univers est complètement inconnue : de la matière noire. L’apprentissage non supervisé est comme la matière noire de l’univers » Presentation au College de France (le Cun, 2016)

L’introduction des algorithmes dans les téléphones des utilisateurs s’est produite lors de la création de leur premier compte sur les réseaux sociaux, sans avertissement, ni mode d’emploi. Les plateformes (Facebook, Instagram, TikTok, etc.) ont invité les êtres humains à ouvrir des comptes en réseau en leur promettant qu’à l’aide de cet outil vont créer des liens avec d’autres êtres humains. Au départ, le lien communicationnel était créé exclusivement entre les êtres humains (trait principal de Web 2.0). Cependant, avec l’entrée dans la période de Web 3.0, où les dispositifs intelligents commencent à remplacer les partenaires humains, les plateformes ont commencé à insérer un troisième interlocuteur dans le schéma de communication interhumaine : l’algorithme d’IA.

 

Les deuxieme et troisieme etapes : l’intermediare de Lazarsfeld et le bricoleur de Bourdieu

 

Ces algorithmes IA ont commencé à se développer petit à petit, grâce à chaque expérience d’apprentissage réalisée en observant les actions des êtres humains en réseau (conversations et actions). Aujourd’hui, les algorithmes lancés en 2010 (ceux qui sont encore « vivants ») ont déjà suffisamment appris pour devenir le troisieme interlocuteur actif, suivant le schéma de Paul Lazarsfeld (1901-1976), ayant la capacité de sélectionner et même d’interpréter l’information communiquée par l’émetteur (avant de la communiquer aux autres). C’est l’algorithme qui décide ce que les utilisateurs verront sur leurs murs de comptes, l’ordre des informations qui leur seront affichées – des gestes similaires aux actions des éditeurs de journaux télévisés qui sélectionnent et organisent les informations présentées aux téléspectateurs (le mur des utilisateurs sur les réseaux sociaux est l’équivalent d’un grand journal télévisé), ayant le même effet, l’effet d’agenda : la construction d’une vision du monde, la construction de la réalité. Les algorithmes, tout comme les journalistes, deviennent les bricoleurs de la réalité de Pierre Bourdieu (1993 – 2003), dans un environnement marqué par la dépendance de dispositif. Une réalité qui attire, dans un type de consommation immersive, plus de public jeune que la presse traditionnelle (télévisée, imprimée…).  Le Baromètre annuel Kantar Public Onepoint pour La Croix montre que  les moins de 35 ans s’informent d’abord par l’internet (66 %), principalement avec le smartphone, puis par la télévision (seulement 26 %). La presse écrite est très minoritaire (1 %). Chez le moins de 25 ans, conformément au sondage réalisé par Étude Diplomeo en 2020, sur 4682 jeunes, âgés de 16 -25 ans, 73 % utilisent l’internet pour s’informer, dont 36 % Instagram,  29 % Twitter, 28 % Facebook. Depuis 2020, pendant la pandémie de covid, les usagers ont migré d’Instagram sur Tik~Tok, ou ils rencontrent les très puissants algorithmes IA, les plus puissants du marché.

 

Les algorithmes jouent aussi le rôle d’interprétation, suite au miroir algorithmique qu’ils créent chaque jour. Le miroir algorithmique, le profil des utilisateurs créé par les algorithmes, les inspire pour la recherche et la sélection d’informations répondant aux attentes des utilisateurs, qu’ils vont afficher après, sur leurs murs de réseaux sociaux. Ce processus de communication ayant pour point de départ les attentes des utilisateurs, devient au fil de la construction de ce miroir, un processus bidirectionnel, où les algorithmes, au lieu de simplement fournir des informations correspondant aux attentes des utilisateurs, commencent à leur tour à créer des attentes, à deviner, anticiper et même à créer les pensées des utilisateurs. Le miroir algorithmique devient l’homme algorithmique, le miroir digital transforme son maître en un miroir humain, commence à l’influencer suite aux échanges communicationnels transformés en expériences d’apprentissage. C’est l’une des conclusions d’une de mes recherches menées sur l’effet des algorithmes sur la production des messages des etres humains dans les groupes Facebook de gilets jaunes de France et de Roumanie (Bădău, 2019 : 211-226).

 

La quatrième étape: les miroirs créés à l’insu ou par malveillance et leurs effets

 

L’algorithme, en recherchant sur l’internet des informations qui répondent aux attentes des utilisateurs, est également modelé par ses propres actions. Cela est particulièrement vrai lorsque les attentes des usagers, exprimées ou non, orientent l’algorithme vers un sujet unique répétitif. Ce processus est comparable à l’éducation d’un enfant. L’algorithme, l’enfant, est influencé et formé par les attentes des utilisateurs, ses maîtres, qu’il perçoit comme des commandes, parce que son objectif est de satisfaire tous leurs désirs (même avant de les exprimer).

Suite à ce processus, l’algorithme peut être fortement influencé, imprégné d’un sujet, comme observé dans l’étude que j’ai mené sur les mouvements Gilets Jaunes de France et Rezist de Roumanie, où l’algorithme est devenu un soi-disant« Algorithme de Révolution » transmettant les informations apprises suite aux attentes de ses maîtres, suite à son éducation, aux autres utilisateurs du réseau, sur leurs comptes, parce qu’ils ont appris que c’est une information qui se viralise, qui va coaguler un grand sens commun en réseaux ().

 

Pendant ce processus, les algorithmes ont tendances à creer des bulles de filtres, en raison de l’apprentissage automatique non supervisé qu’ils ont reçu, bien que les développeurs peuvent utiliser des techniques pour minimiser ce phénomène. Ce qui veut dire que les algorithmes peuvent, progressivement, transformer le résultat et la hiérarchie du mur en un acte d’interprétation, au-delà d’un simple retour. Le processus de bulle de filtre : un miroir algorithmique peut manipuler le contenu que les utilisateurs voient en ligne en leur montrant du contenu qui correspond à leurs préférences et à leur comportement. Cela peut entraîner une « bulle de filtre », dans laquelle les utilisateurs ne voient que du contenu qui correspond à leurs croyances et à leurs opinions, ce qui peut renforcer ces croyances et ces opinions et empêcher les utilisateurs de voir d’autres points de vue. Si l’être humain croit que la terre est plate, les algorithmes vont chercher sur l’internet toutes les informations qui renforcent ces croyances et l’enfermer dans une bulle. Les algorithmes peuvent augmenter la propagation de désinformation et de polarisation en recommandant du contenu qui renforce les préjugés et les croyances des utilisateurs et en limitant la visibilité de contenu alternatif. En situations de conflit, lorsque les réactions des utilisateurs sont rapides et émotionnelles (correspondant aux réactions qui éduquent les algorithmes : j’aime, j’adore, je suis triste, j’ai peur), les trolls peuvent profiter de cette situation pour éduquer des algorithmes, par exemple, pour créer des « algorithmes de guerre », en publiant constamment les mêmes sujets, ce qui va former des algorithmes, qui vont naviguer ensuite sur les réseaux sociaux et afficher les mêmes sujets sur les comptes d’autres utilisateurs. Les algorithmes peuvent favoriser certaines vidéos et certains comptes, ce qui peut avoir un impact sur la popularité de ces vidéos et comptes et favoriser la diffusion de contenu non méritant. Les miroirs algorithmiques peuvent être utilisés de manière abusive pour cibler les utilisateurs de manière discriminatoire ou pour leur montrer du contenu manipulatif. La trace des auteurs qui ont formé ces algorithmes s’efface, tout comme s’efface la trace des auteurs du contenu affiche par ChatGPT, où l’on ne reçoit que le produit, sans trace, sans auteur, sans le nom des personnes qui l’ont éduqué.

Les effets de ces algorithmes (formés par les actions constantes des utilisateurs) qui passent l’information sur les comptes d’autres utilisateurs ont été largement décrits dans la presse en 2022. En premier, la divination : les adeptes des lois de l’attraction croient que derrière la sélection des vidéos sur leurs murs est l’univers qui répond à leur demande, plus exactement à leurs pensées. Beaucoup d’influenceurs démarrent leur vidéo en déclarant : « Si tu es tombé sur cette vidéo, c’est qu’elle t’était destinée ». Certains utilisateurs ont même commencé à croire que les algorithmes sont des dieux grecs, un article publié par Le Monde le 06.11. 2022 intitulé « Néopaganisme et dieux grecs ont le vent en poupe sur TikTok » (https://www.lemonde.fr/le-monde-des-religions/article/2022/11/06/neopaganisme-et-dieux-grecs-ont-le-vent-en-poupe-sur-tiktok_6148683_6038514.html,) décrivant les effets de ce processus d’interprétation mené par les algorithmes : « Depuis un an, le néopaganisme, la vénération pour les dieux des panthéons polythéistes antiques, s’affiche de plus en plus sur TikTok. En France, ce sont surtout les dieux grecs qui ont les faveurs des internautes ». D’autres utilisateurs attribuent à l’algorithme de TikTok des propriétés divinatoires comparables à celles du jeu de tarot, et ils croient qu’il peut prédire l’avenir :  (https://www.ladn.eu/media-mutants/reseaux-sociaux/algorithme-tiktok-predire-avenir/ 24.10.2022). Ce sont les effets du processus d’éducation des algorithmes que j’avais decouvert suite a ma recherche sur les gilets jaunes et les rezist en 2019 (Bădău, 2019 : 211-226). Et ce n’est que le pic de l’iceberg qui a déferlé dans les journaux en 2022. Il est probable que d’autres effets similaires seront observés à l’avenir.

Entre-temps, les algorithmes avancent et ont commencé à reconnaître et à créer des pensées : sur TikTok, où il y a les algorithmes IA le plus avancés, il y a beaucoup d’utilisateurs qui rapportent un effet des algorithmes similaire à celui d’une conversation avec un thérapeute, qui répond exactement aux pensées et peut même les anticiper et les déterminer. Cela est dû à la conception de TikTok, (ou on retrouve les algorithmes IA le plus avances sur le marché) qui, contrairement à Instagram, est conçu de telle sorte que 99 % du temps passé par les utilisateurs est consacré à la page publique « Pour vous », où l’algorithme affiche le contenu des comptes que les utilisateurs ne suivent pas. En comparaison, 99 % du temps passé sur Instagram est sur le fil d’actualité, où les utilisateurs consomment le contenu des comptes qu’ils suivent. Les algorithmes de TikTok apprennent donc à partir de toutes les connaissances exprimées par les utilisateurs de tout le monde à travers leurs actions en ligne et c’est l’un des motifs qui a permis aux algorithmes de construire des récits sur les murs des utilisateurs, des histoires avec un début et une fin (un autre motif est qu’ils sont entraînés à construire des récits sur la page publique #pourtoi). Il est important de noter que ces effets sont le résultat des actions des utilisateurs : à côté des algorithmes de la révolution et des algorithmes de la guerre, s’insinuent les algorithmes thérapeutes, les algorithmes divinité, vu le grand nombre de terapeutes et de personnes religieuses qui ont ouvert des comptes niches sur le sujet.Interrogé par moi meme, pour cette notice, sur ce sujet, Chat GPT a répondu : « Il est important de noter que les liens émotionnels que les utilisateurs peuvent développer avec les algorithmes sont souvent basés sur une illusion de compréhension ou de relation personnelle, alors que ces algorithmes ne sont en réalité pas en mesure de comprendre ou de ressentir de l’empathie de manière autonome. Il est donc important de rester conscient de cette distinction et de ne pas confondre les interactions avec les algorithmes avec des relations humain à humain ». Ce processus d’interprétation des algorithmes est amplifié par la passivité des utilisateurs. Le passage de la première génération de l’internet, également connue sous le nom de Web 1.0, à la seconde génération, ou Web 2.0, a marqué un changement de paradigme dans la façon dont les individus accèdent à l’information en ligne: les utilisateurs ne cherchent plus l’information, c’est l’information qui cherche les utilisateurs. Au cours de la phase Web 1.0, les utilisateurs adoptaient une attitude proactive en matière d’accès à l’information, en recherchant activement les sites web qui les intéressaient, en utilisant des moteurs de recherche ou en saisissant directement les adresses URL dans leur navigateur. Cependant, avec l’émergence du Web 2.0, caractérisé par l’essor des réseaux sociaux, les utilisateurs ont tendance à adopter une attitude plus passive, en se contentant de consulter les informations qui leur sont présentées par les algorithmes de recommandation sur les plateformes sociales. Cela a conduit les producteurs d’informations à non seulement produire de l’information, mais également à la distribuer et à la présenter de manière à maîtriser les algorithmes qui la présentent, à leur tour, aux utilisateurs (journalisme de marketing). Avec l’avènement de Web 3.0, les algorithmes ont commencé à remplir en partie la fonction d’interprétation et de rétroaction traditionnellement exercée par les êtres humains. Qui pense le plus vite, va faire des suggestions aux autres : vu que ce sont les algorithmes ceux qui cherchent l’information et qu’ils ont appris à l’interpréter et que, de l’autre côté, les usagers sont passifs, le résultat est que les algorithmes font des suggestions aux usagers et sont confondus avec des divinités, des thérapeutes etc. Cependant, cela a des conséquences importantes en termes de compréhension et de maîtrise de ces algorithmes. Si les utilisateurs ne comprennent pas comment les algorithmes fonctionnent et ne prennent pas la peine de les maîtriser, notamment en créant leur propre « miroir algorithmique » (c’est-à-dire en utilisant les algorithmes pour comprendre leur propre utilisation des algorithmes), il est possible que les algorithmes finissent par les maîtriser à leur place. Si les utilisateurs ne prennent pas le temps de comprendre comment leur utilisation de la technologie est profilée, il est possible que les algorithmes finissent par créer l’utilisateur, plutôt que l’inverse.

Ceci soulève la question de savoir qui est réellement créé par les algorithmes, et quelles conséquences cela peut avoir sur les utilisateurs. Il faut faire référence à d’autres effets potentiellement négatifs de l’utilisation non maîtrisée des algorithmes, tels que l’anxiété, qui a été largement décrite par les utilisateurs, notamment sur des plateformes comme TikTok. La connaissance et la maîtrise du miroir algorithmique peut être utile sur divers sujets : l’une de mes étudiantes que j’ai encouragée, en 2017, à réaliser un TER sur son miroir algorithmique, en utilisant les énonces que l’algorithme offrait aux usagers dans la rubrique « Le sais-tu ? » sur Facebook, a reçu des informations sur sa vie dont elle ne savait même pas.

 

 La cinquième étape : un seul miroir qui créé un seul être humain

Si les algorithmes vont créer l’utilisateur, quelle sera le résultat? L’une des conclusions d’une recherche que j’ai menée en 2016 sur l’influence des algorithmes IA de Facebook sur la créativité des utilisateurs ( Bădău, 2019 : 112 – 127) a révélé que les algorithmes utilisés dans l’apprentissage non supervisé tendent à créer, à travers leurs fautes, un sens commun unique, c’est-à-dire à nous conduire à penser de la même manière, à partager un seul sens commun et à créer un seul individu composé de milliards, qui sera plus facile à anticiper, détecter et à gérer par la machine. Je cite: « les fautes des algorithmes de l’IA qui agissent comme des écoliers en train d’apprendre le monde d’une manière non-supervise nous transforment, à notre tour, dans les écoliers de la forme de communication désirée par Facebook – un grand et seul sens commun (résultat de l’obstruction de l’expression individuelle et la créativité), une seule opinion, d’un seul homme compose par plusieurs (nous), un seul homme qui sera le partenaire facile à déceler et a gérer par la machine (dans Web 3.0) » (Bădău, 2019 : 112 – 127).  Il est plus facile pour les algorithmes de prédire et de satisfaire les attentes d’une seule personne plutôt que celles des millions de personnes qui ne pensent pas de la même manière. Cette tendance, que j’ai observée en 2016 sur Facebook, se poursuit maintenant sur Instagram et plus particulièrement sur TikTok, où les algorithmes affichent sur la page publique des utilisateurs les vidéos qui ont déjà été aimées/validées par d’autres utilisateurs (suivis ou non), ce qui encourage le mimétisme et la coagulation d’un très grand sens commun transnational, d’un seul individu facile a anticiper et a satisfaire par l’algorithme. L’utilisateur est encouragé à utiliser la même musique, les mêmes idées, la même danse ou les mêmes effets vidéo qui ont été préféreé par la majorité pour être également choisi par les algorithmes et être montré sur les comptes des autres, être viralisé dans le monde ou, petit à petit, une seule culture est proposée et répandue par les algorithmes. Le processus d’apprentissage par récompense utilisé pour l’éducation des algorithmes est proposé, par les algorithmes, aux êtres humains.

 

La sixieme etape: créer pour ne pas être crée

C’est le moment d’abandonner l’état amorphe et à commencer l’apprentissage, l’entraînement, l’éducation des algorithmes. L’IA est là. Netflix a mis 3,5 ans pour rassembler un million d’utilisateurs, Airbnb, 2,5 ans, Facebook, 10 mois, Spotify, 5 mois, Instagram 2,5 mois, Iphone, 74 jours, ChatGPT, 5 jours.

Chaque utilisateur a maintenant la possibilité de construire son profil algorithmique et son miroir algorithmique sur les réseaux sociaux. Les utilisateurs peuvent « éduquer » leurs algorithmes pour obtenir les résultats souhaités sur les murs, en tant que deuxième maître (les algorithmes répondent actuellement à deux maîtres : ceux qui les ont conçus et les utilisateurs des réseaux sociaux). Les techniques discursives qui font la base de l’éducation des algorithmes devraient être enseignées dans les universités, tout comme les techniques de référencement du contenu. Je suis actuellement en train de rédiger une Charte éthique qui servira de guide pour l’éducation des algorithmes par les utilisateurs. Outre le résultat très utile pour les étudiants qui verront leurs messages référencés sur les murs des autres et pourront mieux reconnaître et éviter les fausses informations diffusées par les miroirs algorithmiques, la capacité des algorithmes à trouver n’importe quelle information en ligne peut les transformer en excellents outils de veille pour n’importe quelle spécialité académique. Il est possible de remplacer les techniques de veille traditionnelles propres à Web 1.0 par les retours d’algorithmes, étant donné que l’objectif des partenaires digitaux est de satisfaire les attentes des utilisateurs. Les informations fournies par ces algorithmes peuvent être utiles dans divers domaines scientifiques, car ils parcourent tout le web pour collecter des données et, aujourd’hui, une grande partie des informations sont disponibles sur le web. En utilisant un guide de bonnes pratiques similaire au référencement ou aux techniques de veille, les étudiants peuvent utiliser les commandes discursives appropriées pour indiquer aux algorithmes quoi chercher sur internet et présenter sur leurs écrans toutes les informations qui les intéressent. Ces commandes sont fondées sur des règles simples de comportement par rapport aux algorithmes, comparables aux règles de comportement dans la société, dans une conversation, envers les enfants. Les algorithmes peuvent être comparés à des enfants qui nous suivent constamment en essayant de nous ressembler, à travers le miroir qu’ils créent de nous. Les ignorer a le même effet que de négliger l’éducation des enfants, comme cela a été montré pendant la pandémie (l’effet d’anxiété est l’un des retours « des enfants négligés »). Il est donc crucial pour les universités et le système d’enseignement de réagir rapidement et d’enseigner aux étudiant·e·s comment éduquer leurs algorithmes.

L’éducation aux algorithmes sera l’un des défis de l’enseignement dans les années à venir. Tout d’abord, cela est dû au fait que chaque utilisateur devra éduquer et entraîner les algorithmes présents dans chaque smartphone, mais aussi au fait que l’apprentissage des chatbots, comme ChatGPT sera ouvert et démocratisé, devenant ainsi accessible à tous les utilisateurs, tout comme le référencement sur Google ou la contribution à Wikipedia. Si le système d’enseignement ne réagit pas rapidement pour prendre sa place d’éducateur dans les relations avec les algorithmes d’IA, ceux-ci exerceront la fonction de rétroaction, remplaçant en premier lieu les professeurs-curateurs (ceux qui ne font que résumer et pratiquer la curation du contenu des autres sans aucune contribution originale), et ensuite, en utilisant les professeurs qui produisent du contenu original comme outil. Le miroir inversé. La révolution de l’IA est en train de transformer de manière significative les méthodes d’enseignement et d’apprentissage. Il est de plus en plus probable que l’IA faible remplacera les enseignants qui ne contribuent pas de manière originale à leurs cours, se limitant à reproduire le contenu des autres. D’autre part, l’IA forte pourrait être utilisée pour remplacer les enseignants qui produisent du contenu innovant, en utilisant d’abord leur propre apprentissage pour donner suite a un enseignement autonome. De plus, l’apprentissage des codes et des protocoles nécessaires pour communiquer avec les algorithmes sera de plus en plus important dans la société de l’internet 5.0, où l’interlocuteur sera souvent un assistant personnel plutôt qu’une personne elle-même, comme c’est actuellement le cas avec les robots-utilisés par les entreprises de téléphonie mobile.

Ce n’est pas seulement un enjeu lieu a l’enseignement, mais un enjeu sociétal. En 2017, j’ai exprimé dans une note de blog (https://horeabadau.ro/2017/05/08/o-sa-ne-casatorim-cu-telefonul-mobil/) que, d’ici 15 ans, certains utilisateurs des reseaux sociaux vont considerer des représentations numériques IA comme des membres de la famille et meme creer de familles avec (marriage, adoption). Cette tendance est liée au processus d’adaptation des utilisateurs aux interactions numériques (créé par les plateformes), qui les amène à établir des liens avec des représentations virtuelles plutôt qu’avec des individus physiques, sans avoir besoin de rencontres en face à face ou d’apparence physique. Il est déjà rapporté que de nombreux utilisateurs ont développé des sentiments romantiques pour des représentations virtuelles de leurs interlocuteurs humains, sans avoir jamais rencontré ces derniers dans la vie réelle. En somme, l’émergence de ces tendances soulève des enjeux sociétaux importants qui méritent une attention et une réflexion approfondies.

Les plateformes numériques ont habitué les utilisateurs à se contenter de la forme ou de la représentation digitale d’une personne, sans avoir besoin de confirmation ou de contact en face à face. Ces représentations numériques, souvent sous la forme de photos de profil, sont facilement accessibles aux algorithmes, qui peuvent les utiliser pour créer des représentations virtuelles réalistes, comme c’est le cas pour les influenceurs virtuels qui ont déjà des millions de followers sur Instagram, tels que Lilmiquela (2,9 millions de followers). Cette tendance pourrait être considérée comme une étape vers la fusion entre l’être humain et l’algorithme. Marc Gatti, Directeur de la Recherche et de la Technologie de Thales Group Avionics, a déclaré lors de la conférence “Données géospatiales, Intelligence Artificielle et Développement” organisée par l’UNESCO, le Mica et l’Université de Bordeaux en 2019, que les développeurs travaillent actuellement à humaniser les algorithmes d’IA pour leur donner une apparence humaine, ce qui est encore un pas vers la fusion.

La fusion entre la représentation numérique de l’être humain et celle des algorithmes est un phénomène qui pourrait se produire dans le contexte de l’évolution du Web, notamment avec l’arrivée du Web 5.0. Selon cette perspective, les utilisateurs pourraient être amenés à fusionner leur cerveau avec des dispositifs-puce implantés dans leur tête, afin de répondre à un besoin d’immersion dans les contenus numériques. Cette tendance est liée au désir des utilisateurs (créé par les plateformes) de s’immerger dans l’écran de leur téléphone, en donnant toute leur attention à l’intérieur de cet écran, et même au-delà de celui-ci. Ce phénomène est lié à l’ère de l’attention, periode de l’internet où l’attention des utilisateurs est focalisée a ’’l’interieur’’ de contenus numériques. Les plateformes pourraient alors inviter les utilisateurs a réaliser cette immersion en devenant des cyborgs, c’est-à-dire des individus dotés de pouvoirs augmentés grâce à des dispositifs technologiques. Il est déjà possible de citer des exemples de cyborgs, comme Neil Harbisson, qui, depuis 2008, avec une caméra implantée dans sa tête, a la capacité de percevoir les couleurs. Depuis 2010 il existe une association internationale qui protège les droits des cyborgs. Il est à noter que nous sommes déjà tous des cyborgs car nos pouvoirs sont augmentés grâce aux dispositifs technologiques (le smartphone) auxquels nous ne pouvons plus nous passer.

Conclusion :

L’éducation de tous les acteurs de l’espace public, artificiels et humains, est cruciale pour perpétuer l’espace public d’Aron (renvoi vers http://publictionnaire.huma-num.fr/notice/aron-raymond/), le lieu ouvert et libre ou les individus peuvent exprimer leurs opinions et participer au processus démocratique, contribuer à la formation de l’opinion publique et ne pas être enfermés dans des bulles de filtres construits par des miroirs maladroits ou malveillants. Si l’être humain sera proactif dans la relation avec les algorithmes, il gardera sa place dans les années à venir (ou sa place sera très convoitée).

 

Bibliographie

Bădău, H. M., 2019, « L’apprentissage non-supervisé des algorithmes dotés avec Intelligence Artificielle limite ou encourage la créativité? » Argumentum. Journal of the Seminar of Discursive Logic, Argumentation Theory and Rhetoric 17 (2): pp. 112-127.

Badau, H. M. ,2019). Intelligence artificielle et réseaux socionumériques : étude d’impact sur la dynamique des mouvements sociaux en France et en Roumanie. Les Cahiers du numérique, 15, 211-226. https://www.cairn.info/revue–2019-3-page-211.htm.

Le Cun, Y., 2016, Presentation au College de France, Accès: https://www.college-de-france.fr/agenda/lecon-inaugurale/apprentissage-profond-une-revolution-en-intelligence-artificielle/apprentissage-profond-une-revolution-en-intelligence-artificielle, Consulté le 23 janvier 2019

Journaux :

Fabre, D., 2022, « Neopaganisme et dieux grecs ont le vent en poupe sur tiktok », Le Monde, Accès:https://www.lemonde.fr/le-monde-des-religions/article/2022/11/06/neopaganisme-et-dieux-grecs-ont-le-vent-en-poupe-sur-tiktok_6148683_6038514.html, Consulté le 23 janvier 2019

Rahmil, D. J., 2022, « L’algorithme de TikTok vous envoie-t-il des messages de l’univers ? » L’AND.eu, Accès: https://www.ladn.eu/media-mutants/reseaux-sociaux/algorithme-tiktok-predire-avenir/, Consulté le 23 janvier 2019

Exit mobile version