« S’il vous plait, dessine-moi un futur », c’est sur ces paroles, inspirées de l’œuvre du “Petit Prince” d'Antoine de Saint-Exupéry, que se sont ouverts les 20 ans de l’Université de la Terre, en partenariat avec l’UNESCO.
À travers l'équation « Nature = Futur », cette édition avait pour objectif de mettre l’accent sur l’urgence et l’absolue nécessité pour l’humanité de se reconnecter avec la nature, après des années de rupture avec celle-ci dans notre quête du “Progrès”.
Notre futur doit se repenser et se refonder dès maintenant, et ce, en lien avec le vivant. La résolution de cette équation s'impose à tous et sera au cœur de l'Université de la Terre.
– Université de la Terre
Lors de cet évènement, nous avons pu participer au débat “Intelligence artificielle : quel projet de civilisation ?”, modéré par Jérôme JUBELIN (Président d'UMANAO, animateur, conférencier) et organisé en partenariat avec l’IESF.
Partant du constat que l’intelligence artificielle (IA) joue désormais un rôle incontournable dans notre quotidien, quelle doit être notre approche vis-à-vis de cette technologie ?
Jusqu’où l’IA peut-elle aller ? Faut-il s’en méfier ? L’encourager ?
Et surtout, comment va-t-elle impacter le développement de nos sociétés ?
Le choix de la réflexion sur un nouveau projet de civilisation, s’impose.
C’est la première fois de l’humanité que nous assistons à une externalisation de la cognition […]
– Jérôme JUBELIN
L’IA, une définition qui peut sembler floue et erronée
Le débat a débuté par une clarification de la définition de l’IA.
Pour Laurence DEVILLERS (Professeure en Intelligence Artificielle à Sorbonne Université et chercheuse au CNRS), il est nécessaire de revenir sur la notion d'“intelligence”.
Comme elle l’a constaté, après plus de 20 ans passés à étudier ce domaine, une IA ne possède pas de réelle intelligence et n’est pas capable de ressentir une quelconque émotion. Pour la professeure, ce serait un leurre de penser que cela est possible. Elle rappelle, au contraire, que cette dernière est complètement déterministe et prédictible, même si une partie d’aléatoire peut y être introduit (notamment lors de la génération de textes).
L’IA n’est ni intelligente, ni émotionnelle.
– Laurence DEVILLERS
Olivier ALEXANDRE (Sociologue, chercheur au CNRS, membre du Centre Internet et Société et enseignant à Sciences Po Paris) surenchérit en mentionnant que le terme ”artificial intelligence“ a été créé lors de la conférence de Dartmouth en 1955, par John McCarthy, pour pouvoir obtenir des financements auprès d’investisseurs. Le choix de ce nom était donc déjà très orienté à l'époque.
Aujourd’hui, “IA” est devenu un mot-frontière, un terme traversant plusieurs disciplines ou domaines de connaissance, tout en ayant des significations légèrement différentes selon le contexte. On peut, par exemple, remarquer qu’il est utilisé sans distinction dans les médias (parlent-ils d'un algorithme de machine learning, d’IA générative ou d'un réseau de neurones ?).
Devenu un concept malléable, il entraine des espoirs et des craintes disproportionnés, autant du côté des utilisateurs, que des investisseurs et décisionnaires.
La note Lenstra :
Cette complexité terminologique et technique est un enjeu que nous rencontrons au quotidien chez Lenstra.
Nous aidons nos clients à démystifier les concepts d’IA, à identifier les bons usages selon les besoins métiers, et à choisir des architectures adaptées comme par exemple dans ce cas d’usage. Même pour les professionnels, ces notions gagnent à être explicitées, tant sur leurs capacités que sur leurs limites pour servir les entreprises et leurs performances.
Est-ce pertinent de comparer l’IA à l’humain ?
[…] c’est stupide, comme comparer une voiture de course avec un champion du monde de course à pied.
– Laurence DEVILLERS
Une autre discussion importante porta sur les caractéristiques de l’IA et comment sont évaluées ses performances.
Un des premiers tests mis en place fut celui du mathématicien Alan Turing, rappela Olivier ALEXANDRE. Ce dernier avait imaginé une expérience visant à tester la faculté d’une machine à imiter la conversation humaine, mettant en confrontation verbale aveugle un humain contre un ordinateur ainsi qu’un autre humain. Si l’humain engageant les conversations n’est pas en mesure de distinguer l’ordinateur de l’autre humain, la machine valide alors le test de Turing.
Cependant, ce “test” ne met pas en évidence une véritable intelligence, mais seulement une illusion, une imitation du comportement humain.
Florent LATRIVE (Directeur adjoint de l'information de Radio France | numérique & IA) rebondit en racontant la réaction d’Hervé LE TELLIER (auteur et prix Goncourt 2020) lorsque ce dernier s’est fait piéger par un texte entièrement généré par l'IA lors d’une épreuve d'écriture.
« Oh la vache ! C’est bluffant ! » s'était-il exclamé (plus de détails dans ce post).
Bien que sensationnaliste, cette méthode d'évaluation de l’efficacité de l’IA déplait fortement à Laurence DEVILLERS, qui déplore que l’on la mette sans arrêt en concurrence avec l’intelligence humaine. Il faut, selon elle, trouver de meilleures solutions pour en mesurer les performances, sans avoir à effectuer une comparaison qu’elle qualifie de “stupide” et d'“impertinente”.
La note Lenstra :
Chez Lenstra, nous partageons cette vision : l’IA n’a pas vocation à reproduire l’humain, mais à l’augmenter.
Nos expertises s’attachent à concevoir des systèmes Data et IA qui assument leur rôle d’outil, en étant interprétables, maîtrisables et toujours au service des utilisateurs finaux.
Comment l’IA façonne le futur de nos sociétés ? Une évolution en marche ?
À la suite de cette introduction sur l’IA et ses attributs, Jérôme JUBELIN a mis en évidence que l’IA nous impose le besoin de conscientiser notre rapport au monde.
Selon lui, la question à poser serait plutôt : “Civilisation : quels projets pour l’IA ?”.
Et il existe déjà quelques éléments de réponse.
Chine et USA : deux visions contrastées de l’IA, un même outil aux usages multiples
Gilles Babinet (entrepreneur et coprésident du Conseil national du numérique) a présenté les approches contrastées de deux grandes puissances face à l’essor de l’intelligence artificielle, soulignant à quel point ces technologies façonnent en profondeur les sociétés.
D’un côté, la Chine intègre l’IA dans des dispositifs de gestion et de gouvernance. De l’autre, les États-Unis, s’orientent vers une vision plus libérale de l’IA, avec des perspectives de transformation organisationnelle et de réduction des coûts dans certaines organisations.
Selon Gilles Babinet, ces tendances, bien que très différentes, mettent en lumière deux risques majeurs associés à l’intégration croissante de l’IA : l’automatisation poussée pouvant fragiliser l’emploi humain, et le renforcement des outils de contrôle dans les sociétés.
IA & dépendances : quels enjeux ?
Vers une addiction aux contenus ?
Au-delà des gouvernements, l’IA a aussi commencé à impacter nos habitudes de vie, évoqua Oliver ALEXANDRE.
Plus particulièrement en ce qui concerne les réseaux sociaux (Facebook, Instagram, TikTok), où les algorithmes de recommandation sont devenus si performants, que le flux personnalisé quasi-infini de vidéos courtes est devenu addictif pour notre cerveau (comparable au sucre au sein de notre alimentation).
Jouant sur la gratification instantanée de notre mécanisme de récompense neuronal, similaire à celle provoquée par le sucre dans notre alimentation, nous assistons à une mercantilisation accélérée de notre attention.
Et cela n’est pas sans conséquences.
Si l'on prend l’exemple des USA :
- Le temps d'écran moyen chez les adolescents atteint 7 h 45 par jour.
- Le taux de dépression a triplé.
- Le nombre de troubles psychiques recensés se multiplie.
Un nouveau compagnon de travail
Une autre dépendance grandissante est celle de la délégation de tâches de travail au profit des outils d’IA génératifs, affirma Laurence DEVILLERS.
Lors d’une étude menée à Sorbonne Université, elle a mis en lumière le comportement d'élèves devant effectuer des tâches avec la possibilité d'être assisté par le modèle ChatGPT (version 4) d’OpenAI. Un ensemble d’exercices leur ont été présenté : d’une part des exercices simples pour les élèves et d’autres difficiles pour l’IA, et d’autre part des exercices compliqués pour les élèves, mais simple pour l’IA.
L’IA n’est pas un outil comme un marteau.
– Laurence DEVILLERS
Sans surprise, les étudiants ont utilisé l’IA pour résoudre les exercices dont ils n’avaient pas la réponse ou lorsqu’ils avaient un doute. Plus surprenant, une grande partie des sujets a re-challengé ChatGPT même lorsqu’ils connaissaient la réponse.
C’est ce dernier comportement contre lequel Laurence DEVILLERS met en garde.
L’IA n’est pas un outil comme les autres sur lequel nous avons le total contrôle et dont le résultat est entièrement prévisible. Il y a, selon elle, un réel besoin pour les utilisateurs d’arriver à s’en distancer, surtout en situation d’apprentissage. Elle craint aussi que la démocratisation accélérée de son usage entraine une baisse de la créativité par paresse ou facilité.
La note Lenstra :
Chez Lenstra, nous garantissons le développement, par nos consultants, de systèmes d’IA entraînées uniquement sur des données maîtrisées et sans dépendance aux corpus d'autres IA génératives publiques. Nos outils sont toujours fondés sur l’éthique, la transparence et l’utilité concrète.
Cela implique la mise en œuvre d’infrastructures data adaptées aux besoins clients, garantissant la traçabilité des traitements et assurant la souveraineté des données à chaque étape du cycle de vie.
Quelles voies pour l’Europe ?
Trouver la bonne posture
Face à ces nouvelles dérives et défis émergents, l’Europe a-t-elle son mot à dire?
Pour Gilles BABINET, c’est son heure de vérité en sa position de régulateur.
Nous avons besoin d’une prise de conscience populaire, afin de pouvoir réfléchir et construire ensemble notre futur avec l’IA.
Heureusement, des actions ont déjà été mise en place à l'échelle européenne concernant l’IA et la protection des données personnelles comme l'AI Act, le RGPD ou encore l'arrêt Schrems II.
Cependant, nous ne devons surtout pas garder une posture soumise à l’IA, insiste Florent LATRIVE.
Si nous continuons à considérer cette technologie comme une boîte noire, elle le restera, nous empêchant alors d’essayer de la comprendre, de l’apprivoiser et de le faire évoluer en accord avec nos valeurs.
La note Lenstra :
Ces valeurs et initiatives européennes s’inscrivent pleinement dans la démarche établie par Lenstra, où la conformité réglementaire est intégrée dès la phase de conception des architectures data.
Nous appliquons déjà les standards en vigueur et portons une attention particulière à l’anticipation et à la mise en œuvre des nouvelles régulations.
Nos infrastructures sont conçues “by design” pour allier respect des normes, performance et résilience.
Vers un développement d’une éducation et d’une éthique IA
Pour cela nous avons la nécessité de démystifier l’IA ainsi que ses capacités et ses usages, et ceux dès le plus jeune âge.
Ce point est devenu primordial selon Laurence DEVILLERS, rappellant la mise en place de capsules numériques éthiques par la Fondation Blaise Pascal pour le développement de l’esprit critique sur ces thématiques au sein des écoles.
Pour aborder ces sujets en entreprises, Gilles BABINET a mis en avant le dispositif CaféIA, visant à promouvoir et se former sur l’IA au travers de discussions et d’ateliers interactifs. À l’initiative du Conseil National du Numérique, de nombreux conseils et exemples sur comment s’approprier et adapter cette démarche sont régulièrement publiés.
Enfin, Olivier ALEXANDRE termine sur une note positive en faisant le parallèle avec l’arrivée de l’IA dans nos vies et celle d’internet il y a de ça 30 ans. C’est un nouveau medium auquel nous devons nous habituer, nous éduquer au fil du temps et de ses avancées.
Surtout, il faut considérer l’intelligence artificielle comme un outil nous permettant de faciliter notre quotidien et de réduire notre charge de travail, pas de nous remplacer.
L’IA doit avoir une finalité utilitariste pour que son impact sociétal profite au plus grand nombre.
La note Lenstra :
Pour donner à nos équipes les clés d’une adoption saine et éclairée des outils d’Intelligence Artificielle, nous organisons en interne des sessions de partage de connaissance autour de l’IA appliquée à la data, où nos experts croisent retours d’expérience et cas concrets. Convaincus que ces outils sont indispensables pour grandir, nous développons également des applications internes pour aller plus loin dans ces usages.
Mot de la fin
Rapporté par Laurence DEVILLERS:
[..] Quand on travaille pour demain et pour l'incertain,
on agit avec raison, car on doit travailler pour l'incertain […]
– Blaise PASCAL
La note Lenstra :
Nous pensons en effet que l’IA ne peut être une opportunité durable que si elle repose sur des bases solides : une gouvernance des données rigoureuse, des infrastructures robustes, et une approche profondément humaine de la technologie.
C’est pourquoi nous accompagnons nos clients dans la mise en place d’environnements data fiables, éthiques et résilients, pour faire de l’IA un levier au service du progrès, et non une finalité.
Questions, réponses
Faut-il créer une instance juridique pour les IA et les robots ?
– Professionnel du milieu légal
Laurence DEVILLERS
Surtout pas !
Cela reviendrait à donner des droits et des devoirs à une machine.
Gilles BABINET
Cela existe déjà d’une certaine manière.
Les entreprises se doivent d'être “responsables” de leurs solutions IA.
(Plus de détails sur ce sujet complexe dans cet article du cabinet d’avocat Murielle Cahen)
Comment allier écologie et développement des IA ?
– Etudiante
Oliver ALEXANDRE
Il y a beaucoup de R&D en ce qui concerne la diminution de la consommation électrique et, en conséquence, des rejets de CO2.
On constate notamment de nombreuses avancées au sein de l’IA embarquée (e.g. smartphones récents, robotique), où la consommation électrique des modèles est bridée par les tailles et architectures des puces utilisées.
Laurence DEVILLERS
L’entreprise Mistral AI s’est récemment associée à Veolia dans le but de rendre plus la gestion des ressources et la production d'énergie grâce à l’IA générative.
(Plus de détails dans ce communiqué de Veolia)
On a pu voir que le terme “intelligence artificielle” est trompeur et fait naître de faux espoirs / attentes pour les utilisateurs et les investisseurs.
Si vous en aviez la possibilité, avec quelle nouvelle appellation aimeriez-vous le remplacer ?
– Thomas, Auteur de cet article (Lenstra)
Gilles BABINET
Machine cognitive.
Laurence DEVILLERS / Florent LATRIVE
Imitation / Machine qui imite.
Olivier ALEXANDRE
Système d’informations
Bibliographie
Présentation
Intelligence artificielle : quel projet de civilisation ?
Dartmouth workshop
ChatGTPT peut-il battre un prix Goncourt ?
Veolia et Mistral AI_ s'associent pour révolutionner la gestion de l'efficacité des ressources grâce à l'IA générative et accélérer la transformation écologique
Avocat en ligne
Elon Musk à la Maison-Blanche : entre idéologie et gouvernance, quel avenir pour la politique états-unienne ? - IRIS
TikTok et psychologie : l'app révolutionne les stratégies d'entreprise
Pensées de Blaise Pascal
Capsules Éthique du Numérique pour les Enfants - Fondation Blaise Pascal
30 ans du Web : les débuts mouvementés de l’Internet en France