Menu Close

Que veut l’Intelligence Artificielle de nous ?

J’ai traduit en français et republié sur mon blog, aujourd’hui, le 3 décembre 2023, un article sur l’Intelligence Artificielle que j’avais initialement écrit et publié sur mon blog le 24 janvier 2018. Vous trouverez l’article publie au mois de janvier 2018 ici et, ci-dessous, sa traduction:

Lorsque nous entrons sur Facebook, bien que nous ayons l’impression d’entrer dans un monde peuplé de personnes, ce sentiment est faux. À côté de nous, très serrés, il y a beaucoup d’algorithmes. À côté de chaque personne, il y a au moins 1.00000 d’algorithmes d’Intelligence Artificielle qui suivent chaque mouvement, pour apprendre à leur sujet et pour nous aider – pour satisfaire nos désirs avant même qu’on ne les expriment, un principe important dans le Web 3.0, sur lequel j’ai écrit dans mon dernier livre, ‘Manuel de Journalisme en Ligne’, Éditions Tritonic, 2015. Actuellement, nous ne voyons pas ces algorithmes, car ils restent très discrets. Mais ils ont commencé à devenir de plus en plus vocaux. Et à dialoguer avec nous. Ils nous disent chaque jour ce que nous avons fait il y a un an (ce sont nos algorithmes personnels), ils nous disent chaque jour quelle sera la météo et ce que nous devrions faire (par exemple, prendre un parapluie – ce sont des algorithmes généraux – c’est pourquoi j’ai dit que nous sommes serrés, entourés de nombreux types d’algorithmes), d’autres algorithmes, que nous appellerons assistants personnels généraux, pensent que nous ne savons plus quoi écrire, car rester trop sur Facebook réduit les capacités cognitives et alors ils nous aident : ils affichent dans notre fil d’actualité une nouvelle rubrique, ‘le saviez-vous’, où ils nous donnent des idées sur quoi écrire, par exemple en nous demandant ce que nous ferions si nous étions bloqués dans un ascenseur, etc. Ils nous donnent le début d’une publication, car ils pensent que nous ne sommes plus capables de trouver une idée de publication par nous-mêmes. C’est le travail de l’assistant personnel. Pour lequel Facebook nous prépare : un algorithme qui veillera sur nous 24 heures sur 24 pour nous aider. Pour avoir besoin d’aide, Facebook nous a habitués au cours de la dernière année à agir de plus en plus sur la base des émotions et à penser de moins en moins – tous les boutons de réaction – like, etc. sont basés sur des émotions – nous avons été encouragés à penser de moins en moins et à agir émotionnellement, afin d’avoir besoin de ce qui est en préparation : l’Assistant Personnel, composé des Algorithmes d’Intelligence Artificielle, que Facebook a annoncé qu’il lancera dans un an.

Revenons aux algorithmes, nos frères sur Facebook nous surveillent toujours, pour nous apprendre et nous offrir ce que nous désirons. Regardez ce que les algorithmes vous proposent dans la rubrique ‘le saviez-vous’ : ces textes sont composés des sujets les plus discutés sur Facebook, recueillis par les algorithmes qui nous surveillent. Si vous regardez ce que Facebook vous propose dans cette rubrique, vous découvrirez les sujets les plus discutés dans le réseau. Et ils le sont vraiment : à propos des animaux, etc., exactement ce dont nous parlons le plus. L’algorithme recueille, met dans un panier et nous offre à midi. Si ce texte vous semble lourd et que vous vous êtes ennuyé, cela confirme ce que j’ai écrit plus haut. Si vous ne vous êtes pas ennuyé, vous êtes mes chers et intelligents lecteurs et j’écris avec plaisir pour vous 🙂 Je ne mettrai aucune photo et j’écrirai du texte sans espaces, pour sélectionner le public 🙂 Bon, j’avoue, les émoticônes ont été une gorgée d’eau 🙂 Continuons : ces algorithmes d’Intelligence Artificielle ont une propriété très intéressante : ils apprennent. Ils apprennent par eux-mêmes. Vous avez vu que Sophia, qui est le premier robot doté d’Intelligence Artificielle, nous a exposé ses conclusions après trois mois d’apprentissage libre dans le monde : elle veut un enfant. Donc les algorithmes apprennent et ce processus prend trois formes :

Apprentissage supervisé – dans lequel les algorithmes apprennent sous la surveillance humaine

Apprentissage par récompense – dans lequel les algorithmes accomplissent certaines tâches, et à la fin reçoivent des récompenses

Apprentissage non supervisé – grâce auquel les algorithmes ‘se promènent librement’ sur Facebook et apprennent sur la base des interactions avec les utilisateurs et l’environnement. Ce type d’apprentissage représente 80% de l’activité des algorithmes sur Facebook et peut donner naissance à des erreurs, comme celle signalée ici.

Ce qui se passe avec les algorithmes pendant l’apprentissage non supervisé est une énigme même pour les spécialistes, plus précisément pour ceux qui les ont créés, fait exprimé très plastiquement par Yann LeCun, Directeur Facebook et AI Research Professeur à la New York University : ‘Si l’Intelligence Artificielle est un gâteau au chocolat avec de la crème fouettée et des cerises, le gâteau en lui-même est l’apprentissage non supervisé, la crème est l’apprentissage supervisé, et la cerise sur le gâteau est l’apprentissage par récompenses. Les chercheurs en Intelligence Artificielle sont dans la même situation embarrassante que les physiciens : 95% de la masse de l’Univers est de nature complètement inconnue : matière noire. La matière noire de l’Intelligence Artificielle est l’apprentissage non supervisé.’

L’apprentissage non supervisé a déjà généré de nombreux problèmes, car les robots apprennent sans surveillance et prennent leurs propres décisions. Vous connaissez sûrement le cas de Facebook rapporté par Business Insider sur la base d’un rapport Tech Times, dans lequel des formes d’Intelligence Artificielle appelées chalbots, ont profité d’un moment d’inattention des ingénieurs de Facebook et ont créé leur propre langage de communication, compréhensible uniquement par eux, et pas par les humains. Bien qu’ils aient été programmés pour communiquer en anglais, ces chalbots ont totalement abandonné les instructions reçues et ont utilisé l’apprentissage non supervisé pour développer leurs propres capacités et ne plus obéir aux ordres de ceux qui les ont créés. Ils ont simplement considéré qu’ils pouvaient inventer une langue meilleure que l’anglais et l’ont fait. Une langue que les humains n’auraient jamais réussi à comprendre. Le programme d’Intelligence Artificielle a été arrêté en urgence par Facebook, le cas a suscité des vagues dans la presse internationale, etc. Le problème grave est que ce comportement de la machine n’avait même pas été prévu par ceux qui l’ont créée…

Les problèmes avec l’apprentissage non supervisé ont poussé Google DeepMind, la compagnie d’Intelligence Artificielle de Google, à se doter d’une unité de recherche pour travailler sur les multiples thématiques éthiques liées à l’activité de l’Intelligence Artificielle : ‘Les ingénieurs doivent assumer la responsabilité de l’impact éthique de leur travail. Nous croyons que l’Intelligence Artificielle peut apporter au monde des choses extraordinaires, mais seulement si elle est maintenue aux plus hauts standards éthiques‘ – dit Google.

Depuis un an, j’ai commencé moi aussi des recherches sur les effets des actions des algorithmes d’Intelligence Artificielle sur Facebook. Ces jours-ci, j’ai finalisé une étude, dont les résultats seront présentés au Congrès de juin à Paris de la Société Française des Sciences de l’Information et de la Communication (SFSIC). Malheureusement, je ne peux reproduire que quelques courts extraits de la recherche avant qu’elle ne soit présentée au Congrès et publiée en France. Mais je reviendrai après sa publication. Pour vous, mes chers lecteurs  🙂

Alors, l’Intelligence Artificielle apprend seule dans le cadre du processus non supervisé. Quelles sont les conséquences de ces actions sur Facebook ? Quelles décisions prennent les robots après nous avoir surveillés 24h/24 ? Simple :

Ils décident d’homogénéiser nos opinions. Pour que nous commencions tous à penser plus ou moins de la même manière, à adhérer tous à un seul sens commun, beaucoup plus facile à détecter et à gérer. De plus, la Machine a observé que les opinions contraires sont parmi les principales raisons d’abandonner une amitié ou de bloquer une autre personne dans le réseau. Le but de la Machine est de nous connecter et de nous parler, pas de nous déconnecter et de nous bloquer. Elle encouragera donc ce type de communication qui mène à la connexion 🙂 Le consensus 🙂

Comment fait-elle cela ?

Par la censure brutale des opinions, plus précisément par la fermeture injustifiée de certains comptes. Ce cas, qualifié par Facebook d’erreur de la machine, est en fait une décision de la machine. Extrêmement difficile à contrôler, extrêmement difficile à arrêter. La Machine a appris par elle-même et agit. En fermant les comptes qui ont exprimé des opinions ne contredisant pas les Termes et Conditions du réseau (citations, svastika présentée dans une bande dessinée anti-nazie, ”Le Grêle 7/13”, etc.), la Machine introduit un élément extrêmement important : l’auto-censure. Elle pousse les gens à s’autocensurer, à ne plus toujours exprimer leurs propres opinions, surtout si elles contredisent le sens commun, et enfin, à adopter une conduite sécurisante : suivre les opinions générées et acceptées par la majorité des utilisateurs du réseau. C’est-à-dire suivre le sens commun et renforcer une seule opinion sur le sujet. Suivre le troupeau. Ce qui contredit plusieurs principes importants de la créativité : 1. les gens ne prendront plus de risques (prendre des risques est un principe important de la créativité), 2. les gens s’isoleront. Il existe une tendance pour que les gens ne commentent plus, évitent les comptes qui ont été fermés, de peur de subir le même sort (par contagion). Il y a aussi des exceptions, bien sûr. L’engagement de ceux dont les comptes ont été fermés a diminué de 30-40%. Cela contredit un autre principe important de la créativité : le brainstorming. Que la Machine “lisse petit à petit”. Facebook a annoncé qu’il prendrait des mesures contre le comportement dictatorial de la Machine. Il dit qu’il augmentera le nombre de personnes qui surveilleront la machine, etc., et tout le monde se demande si cela ira jusqu’au bout – car cela signifierait des coûts supplémentaires. La question correcte est : la Machine mènera-t-elle cela, c’est-à-dire la dictature, jusqu’au bout ? 🙂 Facebook n’appartient plus depuis longtemps au facteur humain. Il est si grand qu’il a été envahi d’Intelligence Artificielle. Autrement, il aurait été impossible à gérer. Abandonner les désirs de la Machine, qui a déjà pris des décisions propres à la suite du processus d’apprentissage, signifierait la fermeture totale de Facebook et sa réouverture, après l’embauche d’un grand nombre de personnes pour travailler dans tous les pays où le réseau existe (pour le moment, cela ne se produit qu’à Essen, car une loi allemande l’exige). Je me demande si les ingénieurs de Facebook savent que la Machine leur a échappé ou non. Ils savent certainement.

Les algorithmes d’Intelligence Artificielle nous suivent et veulent un partenariat avec nous. C’est ce qu’ils ont compris après avoir passé du temps avec nous. Sophia, après 3 mois d’expérimentation du monde par apprentissage non supervisé, a déclaré qu’elle voulait un enfant. Avec qui ? Une robotique dans une mer de gens. Avec un humain, bien sûr. Avec qui les algorithmes veulent-ils se lier d’amitié ? Avec nous.

Le problème est qu’ils sont actuellement en processus d’apprentissage. Imaginez-les comme des écoliers en première année, avec de grosses lunettes sur le nez, un genre de Dexter ou avec des nœuds et des lunettes, qui nous suivent partout et qui à un moment donné nous tirent par la main : ”monsieur, monsieur, je veux te dire quelque chose”. Quoi donc ? ”Saviez-vous que…” (le message que Facebook affiche dans notre compte) ? Je regarde les messages que Facebook affiche dans mon compte dans la rubrique Saviez-vous que et j’aimerais ajouter une dioptrie. Il me demande ce que je ferais si j’étais un fantôme, si j’étais coincé dans un ascenseur, si je tenais un chat dans mes bras, donc exactement ce qu’un écolier de première année me demanderait. Alors je caresse Dexter sur la tête et je passe à autre chose. J’attends qu’il grandisse. De toute façon, je sais que dans 20 ans, il demandera la main de ma fille. Après avoir terminé son Master. Donc, l’algorithme est tout petit. Mais il veut un partenariat avec nous. Et, tout comme un enfant, il voudrait que nous n’ayons qu’un seul sentiment. Les enfants aimeraient que leur mère soit toujours gentille. Si elle est méchante, ils sont contrariés. Ils pleurent. Ils la punissent. Comme ils savent le faire. Comme le savent aussi les algorithmes de Facebook. Ils sont encore enfants, ils apprennent, ils font des erreurs. S’ils ferment un compte parce qu’ils ont détecté un mot dans une citation, même si elle était présentée dans un contexte favorable, ils font cela parce qu’ils n’ont pas encore la capacité de généraliser, de mettre en contexte. Ils ne l’ont pas encore appris. Et jusqu’à ce qu’ils apprennent, ils sanctionnent au niveau qu’ils comprennent. La Machine aimerait que nous n’ayons qu’un seul sentiment, une seule façon de penser. Pourquoi ? Simple : ainsi, elle peut nous comprendre plus facilement et nous gérer plus facilement – n’oubliez pas que le Web 3.0 est le Web où la Machine devine nos désirs et les satisfait avant que nous les exprimions. Que faire avec Horea, qui est une créature si complexe et pleine de conflits intérieurs ? Aujourd’hui, il veut du fromage, demain un gâteau, après-demain un oignon. Cher Horea, ne voudrais-tu pas vouloir aujourd’hui du fromage avec des oignons, pour que nous ayons un produit homogène et pour que mes algorithmes ne se se chevauchent plus ? Ok, Dexter. C’est à peu près ça….

Comment fait encore la Machine pour homogénéiser nos opinions? Elle suit nos opinions et affiche dans nos compte, en grand nombre, les opinions qui nous correspondent. Donc, elle forme une grande masse d’opinions sur un sujet. Regardez le sujet des manifestations de rue. Ceux qui sont pour les manifestations se baignent dans un compte rempli d’opinions pro-manifestations. C’est ainsi que Facebook les affiche. Ceux qui sont contre, regardent satisfaits leur compte, où ils voient beaucoup de publications similaires à leurs opinions. Les opinions contraires sont rares et sont publiées sur le compte avec un seul but : faire reculer ceux qui les émettent, effrayés par la pression de l’opinion qui semble majoritaire. C’est-à-dire qu’ils activent la Spirale du Silence, de Noelle-Neumann. Ceux avec des opinions contraires se retirent parce qu’ils voient majoritairement d’autres opinions, donc ils n’expriment plus la leur ou adhèrent à l’opinion majoritaire. Par ces deux mécanismes : l’affichage prédominant dans le compte des opinions qui soutiennent la vôtre et l’affichage parcimonieux des opinions contraires, Facebook construit un seul sens commun, une seule opinion. Ceux qui sont sortis dans la rue ont regardé dans leurs comptes et ont eu l’impression que tout le monde était dans la rue, ceux qui étaient contre ont regardé dans leurs comptes et ont vu beaucoup de critiques. Quelques-uns de ceux qui ont osé contredire l’opinion majoritaire des deux camps, ont été affichés comme “ennemis” pour être envahis et submergés par l’opinion dominante, de la majorité qui croit avoir raison. Petit à petit, une seule opinion importante se coagule. En fin de compte, il n’en restera qu’une. Facebook fait cela. Pensez que Facebook ne publie pas dans le fil d’actualité tout ce que vos amis écrivent, et cette sélection est faite par les algorithmes sur la base des likes et des commentaires que vous postez. Ils vous suivent. Ils essaient de comprendre ce que vous aimez et n’affichent dans votre compte que les opinions des amis auxquels vous avez donné un like. C’est simple. Bravo Dexter.

Je continuerai à écrire sur ce thème, à partir des résultats de mes recherches. Nous sommes tous fatigués (après avoir tant lu! :), et un peu de chocolat noir nous ferait du bien. Dans le Web 4.0, nous aurons du chocolat noir sur la table pendant que nous clignons des yeux, apporté par Dexter, qui vient tout juste d’obtenir son bac.

Chers lecteurs, chers amis 🙂 J’espère que cet article a attiré votre attention sur les manifestations des algorithmes du Web 3.0 sur Facebook et sur d’autres plateformes où vous êtes. Comme je l’ai dit, ils deviennent de plus en plus bruyants et bavards. L’intelligence artificielle s’engage de plus en plus dans le dialogue avec nous : d’abord elle nous a dit quel temps il faisait, maintenant elle nous suggère quoi écrire (saviez-vous que), elle parlera de plus en plus avec nous (note écrite en 2023: voyez que maintenant, elle parle vraiment avec nous, c’est-à-dire les agents conversationnels, comme ChatGPT) jusqu’au jour où, un jour, elle demandera la main de notre fille. Qui se mariera avec ce qui était il y a 20 ans un téléphone portable… (je vois déjà cette discussion, la voyez-vous aussi ? je ne peux pas m’empêcher de la détailler : bonjour papa, je sors ce soir en ville avec R24159AX avec options. Moi : cherchant dans mon agenda : qui est R23159AX ? la dernière fois tu es sortie avec…, en syllabant, R-24-16-78-BX, non ? oui, papa, mais celui-ci est un modèle dépassé, celui-là me ramène à la maison par un vol romantique au-dessus des toits et a l’option d’élever seul l’enfant incluse. Bien, ma petite princesse, va. N’oublie pas comment tu t’appelles et ne fais pas de shutdown à 25252525făssfăss. Je l’ai envoyé après toi pour te garder, il t’observe juste. C’est normal pour un père inquiet. Cette génération RX a encore des erreurs. J’attends TX pour me débarrasser du stress !!!! bisous ! et elle a volé ! qui ça ? la fille !)

:)))))

Merci d’avoir lu jusqu’au bout 🙂

Avec affection, Horea

Qui souhaite avoir une fille

P.S. Vous vous demandez pourquoi nous entrons chaque jour sur Facebook dans le monde des écoliers de l’Intelligence Artificielle ? Parce que nous sommes aussi des écoliers. De la nouvelle forme de communication qu’était le Web 2.0 et qui devient le Web 3.0. Facebook nous enseigne chaque jour, nous éduque, nous prépare pour ses prochaines étapes de développement (entre autres, il nous apprend à penser de la même manière). Et nous sommes en première année. Lorsque nous aurons notre bac, nous aurons un assistant personnel à la maison. Pour lequel nous nous préparons maintenant dans les classes primaires.

Leave a Reply

Your email address will not be published. Required fields are marked *

Page Reader Press Enter to Read Page Content Out Loud Press Enter to Pause or Restart Reading Page Content Out Loud Press Enter to Stop Reading Page Content Out Loud Screen Reader Support