L’intelligence artificielle représente une avancée exceptionnelle mais de nombreux enjeux restent à relever. L’un d’entre eux, particulièrement crucial, concerne le respect de l’intégrité intellectuelle des sources et des auteurs, dans l’intérêt à la fois des créateurs et des lecteurs. Le risque, sinon, serait de voir notre culture s’uniformiser, l’information être déformée, et par conséquent, à terme, nos positions économiques et géopolitiques s’affaiblir.

L’I.A constitue une avancée exceptionnelle

La puissance de l’éditorial réside dans sa capacité à exprimer des pensées, des idées, des convictions et des émotions à travers des écrits, des débats, des créations et par essence en mentionnant les auteurs concernés, transparence oblige.
S’en remettre à des solutions d’I.A pour obtenir des réponses à nos questions sans mentionner les auteurs concernés, représente donc un véritable danger.
L’opacité risquerait alors de prévaloir sur la transparence.
L’I.A se doit de respecter l’intelligence et a fortiori l’identité des auteurs – dans leur intérêt et celui des lecteurs – au risque « d’artificialiser » l’intelligence de tout un chacun !

…toutefois prévisible depuis de nombreuses années !

Ce qui est surprenant, c’est que beaucoup de gens semblent s’étonner du potentiel de risque que représente l’I.A en générant de nouveaux contenus, comme du texte, des images fixes et vidéos, de l’audio…
Il était pourtant évident que l’I.A dite générative allait techniquement ouvrir la voie à l’accès et à l’exploitation des contenus provenant d’Internet en les agrégeant, les synthétisant et les réexploitant !

Les moteurs de recherche dans leur version actuelle font “remonter” lors de requêtes, des sites en fonction de la spécificité de leurs contenus, de leur popularité et de l’efficacité de leur référencement SEO. Il était donc logique de voir émerger un moteur de type ChatGPT capable de fournir une synthèse basée sur l’ensemble de ces contenus en les agrégeant.

L’I.A représente une rupture d’autant plus prévisible dans la chaîne de valeur des moteurs de recherche, qu’ils sont relativement jeunes, on a tendance à l’oublier tant ils sont devenus incontournables dans notre quotidien.
Microsoft, actionnaire d’OpenAI, l’éditeur de ChatGPT, offre ainsi à son moteur Bing – qui souffre d’une part de marché relativement faible – une avancée stratégique face à Google, largement dominant depuis vingt ans.

Il convient donc de saluer le dynamisme technologique, économique et concurrentiel suscité par les solutions d’I.A, en particulier celles d’OpenAI.

L’I.A sur le fond et à ce stade véhicule de véritables dangers :

    • Le danger éthique avec l’absence de mention des auteurs
      Le risque inouï de l’I.A et de ChatGPT réside dans le fait que les sources ne sont pas mentionnées. Non seulement il n’y a pas de droit d’auteur, ce qui est une hérésie morale et patrimoniale mais en plus les sources restent « lettre morte » !

      La valeur d’un « papier », d’un article, d’une analyse s’apprécie à travers la signature de son auteur, transparence oblige, afin de mieux apprécier sa prise de position et son engagement. Un tel anonymat signifie la disparition pure et simple du droit d’auteur et de l’identification des sources et des auteurs.
      On entre ainsi dans une société de l’anonymat où on ne sait plus « qui est qui » et « qui dit quoi ».
      On pourrait objecter qu’au moins sur les réseaux, tout un chacun peut s’exprimer officiellement ! C’est vrai, mais l’expression y est diluée face au flot de commentaires plus ou moins intéressants…

      Allons-nous désormais vers une « Société anonymisée » qui profiterait avec les risques de dérives qui s’ensuivent, à ceux qui sauraient « remplir le web » de leurs contenus de façon massive et méthodique et parfois malveillante ?
       
    • Le Risque de désinformation, La Pravda sur Internet version 3è millénaire ?
      Nous nous trouvons désormais dans une situation où les ChatGPT et leurs concurrents offrent une seule et exclusive réponse à la suite d’une requête posée par un internaute.
      Ce qui revient à ériger cette réponse en « parole officielle » du média dominant que sont devenus les moteurs d’I.A sur Internet.

      Les Etats et groupes activistes qui excellent dans la désinformation vont s’en donner à cœur joie pour remplir le « vase Internet » de contenus erronés et malveillants, et les moteurs de l’I.A pourront les reprendre « pour argent comptant » lorsqu’ils formateront en quelques secondes une réponse automatisée à la suite des requêtes des internautes.

      Comme le souligne Les Échos , l’application d’I.A Ernie Bot, tout récemment lancée par le BATX Baidu, se doit dans son cahier des charges de respecter les « valeurs socialistes fondamentales » de la république populaire de Chine ! Ainsi, l’internaute qui s’aventurerait à poser des « questions taboues » liées à « Taïwan ou Tienamen » n’aura pas de réponse objective. De là à penser qu’il serait alors identifié et « tracé », il n’y a qu’un pas !

      Les démocraties ne sont pas épargnées par de tels risques de révisionnisme. Lorsque Salman Rushdie explique que la droite américaine (NDLR : en réalité, il parle de l’extrême droite…) veut effacer la mémoire de l’esclavage, cela signifierait-il qu’une appli d’I.A générative, associée à des actionnaires d’extrême droite, pourrait faire disparaître et rayer de la carte tous les méfaits de l’esclavage ?

      Le risque de révisionnisme en ligne est réel ! Déjà, le « wokisme » tente de réécrire l’histoire en effaçant avec une gomme certains faits ou personnages historiques pour redéfinir la culture et la vie d’une Nation, désormais le danger s’accélère à la vitesse de la lumière !

      Ainsi, sans mention des sources et des auteurs pour identifier qui s’exprime, la liberté risque d’être battue en brèche ! “Science sans conscience n’est que ruine de l’âme” écrivait Rabelais, visionnaire quant aux dérives possibles de l’humanité…
       
    • Le Risque d’uniformisation de la culture et de « pensée unique »
      Qu’adviendra-t ’il le jour où un pays dominant, comme les Etats-Unis ou la Chine, inondera le Web de contenus promouvant leur culture et utilisera des algorithmes indéchiffrables pour privilégier leur histoire et leur culture ? Le risque d’une uniformisation de la pensée est abyssal !

      Certains textes, noms illustres d’écrivains, de peintres, de musiciens, des images, des titres de films et des musiques pourraient être privilégiés, tandis que d’autres seraient relégués à l’arrière-plan, aux « oubliettes » ou dans les « catacombes ».

      En effet, que se passera-t ’il lorsque des pays totalitaires deviendront si prédominants à travers leurs contenus sur le net et les réseaux sociaux, qu’ils influeront sur les moteurs de recherche d’I.A ? Certains ayant déjà, du reste, lancé leurs propres solutions d’I.A !

      Les manœuvres stratégiques de la Chine à travers ses BATX et notamment TikTok – dont l’algorithme de recommandation est aussi opaque qu’addictif et perturbateur auprès des jeunes – ne sont qu’un aperçu de l’ampleur des risques encourus…
       
    • Le danger de faire du « sur place » au détriment de la création
      Le système risque même de « tourner en boucle » puisque les contenus qui « remonteront » et seront donc éligibles, avec tous les dangers précédemment évoqués, seront en fait la synthèse et l’agrégation de contenus déjà publiés sur les sites, blogs et réseaux !
      S’oriente-t-on alors vers une logique empirique au dépend de l’esprit de création ?
 

Régulation, Innovation, Education, quelles solutions ?

    • La régulation : suffisant et insuffisant !
      Les solutions sont plurielles, et l’une d’entre elles repose sur la capacité de l’Union européenne (UE) à réguler, à travers des cadres et des chartes, l’I.A générative pour protéger les citoyens européens. L’UE avance en la matière et a une maîtrise de ces sujets.
      Pour autant, un éventuel règlement nécessite du temps long, on parle d’une législation en vigueur en 2026, et ce alors que la loi de Moore et l’I.A avancent quant à elles à la vitesse du son !
      Les avancées à travers la DSA (Digital Services Act) et les efforts de Thierry Breton pour responsabiliser les plates-formes en ce qui concerne les contenus diffusés sur les réseaux sociaux sont salutaires et constituent une première étape, mais en matière de régulation de l’I.A, nous n’en sommes qu’aux prémices.
       
    • La meilleure réponse mais elle tarde, c’est l’innovation
      L’innovation est encore plus forte que la régulation ! La meilleure réponse repose sur notre capacité à créer des solutions d’I.A européennes qui rayonneront à travers le monde et seront fondées sur une objectivité éditoriale avec des algorithmes non biaisés et transparents.
      Car qui dit objectivité dit transparence.
      La transparence éditoriale, c’est pouvoir connaître la source et la transparence technologique, c’est pouvoir connaitre l’algorithme !

      La volonté et l’ambition affichées par le ministre de l’Économie Bruno Le Maire, sont essentielles. L’UE doit être en mesure de créer « sous cinq ans » son propre système d’intelligence artificielle générative, c’est-à-dire capable de fabriquer des textes ou d’autres médias. Ce progrès contribuera à améliorer la productivité d’une économie « languissante » a-t-il déclaré.
      Un comité interministériel dédié à l’I.A vient d’être lancé.

      L’I.A représente en effet un projet d’envergure, encore plus vital que ne l’était Airbus, initié il y a plus de 50 ans.
      Un projet pour lequel la jeunesse et les talents du Web doivent être plus que parties prenantes et associés.
      Lorsque l’on constate le talent et l’ambition mondiale affichée par Arthur Mensch et son équipe, qui ont lancé Mistral AI spécialisé dans l’intelligence artificielle générative, la responsabilité du pays et de chacun d’entre nous est de les soutenir et de favoriser l’innovation !

      Mais là où le bât blesse, c’est dans l’incapacité du pays à mobiliser des fonds, à l’instar des États-Unis, pour lancer des projets si stratégiques.
      L’une des nombreuses conditions de réussite repose en effet sur la capacité des banques européennes à financer notre écosystème de start-ups, depuis les premiers stades de développement, le « early stage », jusqu’à l’accompagnement en phase de maturité sur le « haut de bilan ».
      Comparé à la taille des financements aux États-Unis, ancrés depuis toujours dans une culture entrepreneuriale et bénéficiant d’une langue et d’une monnaie mondiales, ou aux financements chinois relevant d’un pouvoir pour qui l’I.A est avant tout un moyen de surveillance de sa population, l’I.A en Europe en est encore à un stade embryonnaire.

      Le risque est que nous continuions à regarder « passer les trains » et comme dans de nombreux autres secteurs, que nos ingénieurs et scientifiques de renom partent aux États-Unis ou en Asie, à l’instar des chercheurs français qui ont opté depuis 40 ans pour des rémunérations et des moyens plus substantiels dans les laboratoires pharmaceutiques américains.

      Il est d’autant plus urgent d’accélérer que les acteurs de l’I.A, notamment les Etats-Unis et la Chine, prennent position en préemptant des parts d’audience et de marché qui seront plus chères à acquérir à l’avenir.
       
    • L’éducation, pour apprendre à distinguer le vrai du faux !
      « Last but not least », comme on dit en bon français dans le texte, la capacité des enseignants, des parents mais aussi de la presse et du tissu associatif à aider les élèves et bon nombre de personnes à qualifier et évaluer une information objective et à la distinguer d’une fausse information, d’un « fake », est vitale.
      Charge aux jeunes d’apprendre et d’avoir ce réflexe d’évaluation et de prendre du recul pour rester libres !
      Le retour aux sources – la lecture de la presse et des livres – reste un atout essentiel pour savoir qualifier le vrai du faux.
      Le « tout écran » en revanche est synonyme de flux continu, de dépendance à l’égard d’algorithmes, d’appauvrissement culturel et de déshumanisation. Bref, « dégénératif »
       
 

Conclusion : Le risque « d’artificialiser » l’intelligence de tout un chacun !

Il existe un risque « d’artificialisation » de l’intelligence de tout un chacun.
La puissance de l’éditorial réside dans sa capacité à exprimer des pensées, des idées, des convictions et des émotions à travers des écrits, des débats, des créations et par essence en mentionnant les auteurs concernés, transparence oblige !
S’en remettre à des solutions d’I.A non européennes ou issues de systèmes politiques pour obtenir des « réponses à nos questions » – qui ne mentionneraient pas les auteurs concernés ou ne respecteraient pas scrupuleusement les faits historiques – représenterait un véritable danger pour nos démocraties.
Charge à la France, et plus largement à L’Europe, de réunir les conditions pour être, cette fois, en première ligne, afin d’exploiter cette exceptionnelle innovation technologique qu’est l’intelligence artificielle. Toutefois, il convient d’établir des règles bien définies en la matière, sous peine de voir notre culture s’uniformiser, l’information être déformée et a fortiori nos positions économiques et géopolitiques s’affaiblir.

Cyrille Bellanger, L’Agence Editoriale®