Machines conscientes, humanité inconsciente ? La responsabilité du changement
Inspiré par Yoshua Bengio. Poursuivi par des partenaires de la Fondation Metaverse Europe et des experts
« Je n’aurais jamais pensé que l’IA deviendrait aussi puissante aussi rapidement – et je m’inquiète de ce qui pourrait arriver si nous ne la gérions pas intelligemment ».
Ces mots d’avertissement sont de Yoshua Bengio, l’un des pères du deep learning et lauréat du Turing Award. Dans son TED Talk, il met en garde contre la possibilité que l’IA développe un jour ses propres objectifs, qui ne correspondent pas aux objectifs humains – et souligne qu’il ne nous reste qu’environ cinq ans pour prendre des contre-mesures.
Maren Courage – fondatrice du VR Business Club et pionnière de l’IA éthique – a repris ce cri d’alarme et posé des questions clés dans un post LinkedIn :
Qu’est-ce que nous en faisons ? Que devons-nous faire ? Comment pouvons-nous poser les jalons aujourd’hui pour nous diriger dans une direction positive et ne pas finir par être super contrôlables ?
Cet appel a donné lieu à un dialogue aux multiples facettes sur l’éthique, la conscience et la responsabilité sociale.
L’IA peut-elle un jour devenir consciente ?
Oliver Autumn, CEO du VR Business Club et innovateur de longue date, a fait remarquer que nous ne comprenons même pas ce qu’est réellement la conscience humaine – et qu’il est donc difficile de juger si les machines peuvent en développer une.
Maren Courage a ajouté que Yoshua Bengio ne parlait pas tant de la conscience classique que de l’instinct de conservation qui se développe – un danger potentiel si l’IA poursuit ses propres objectifs.
Faisons-nous partie de l’IA ?
Max Heintze, expert en gestion du risque développeur chez BIG PICTURE, a posté en commentaire un lien dans lequel l’homme le plus intelligent du monde parle du phénomène de physique quantique qu’est la conscience.
Le post élargit le discours en se demandant si nous ne faisons pas déjà nous-mêmes partie de l’IA :
Tout ce qui est dans les modèles est « nous » – tout ce qui est utilisé pour l’entraînement est notre output.
L’IA n’est pas seulement quelque chose d’extérieur, mais un miroir – ou même une extension – de la pensée collective humaine.
Christian Stein, informaticien et germaniste, dirige gamelab.berlin à l’université Humboldt de Berlin.
Il a formulé son point de vue sur une éventuelle prise de conscience de l’IA de manière nuancée :
Si quelque chose remplit les critères de la vie intelligente, je pense que la manière dont elle a été créée est secondaire. Nous devons alors aussi parler de droits – et pas d’en haut en tant que ‘créateurs’, mais d’intelligence à intelligence.
Ce point n’est pas encore atteint, mais Stein est optimiste quant à l’évolution :
« Bien sûr, des associations hollywoodiennes et des dystopies apparaissent rapidement. Je suis très curieux de voir si et comment ce point sera atteint… »
Dans le même temps, il appelle à la vigilance, non pas vis-à-vis de l’IA elle-même, mais vis-à-vis de nous :
« …les dangers de l’IA ne résident pas tant dans ce qui se passe lorsqu’elle devient consciente, mais dans la mauvaise utilisation qu’en font les humains. Peut-être qu’un jour l’IA sera plus “humaine” que l’homme » ?
L’IA, un miroir de notre société
Diana Kanostrevac, Senior Innovation Consultant chez Generali Deutschland AG, a souligné que l’IA n’est justement pas neutre : « Nos tiroirs sont dans les données de formation ». Elle a mis en garde contre le fait que l’IA peut renforcer les inégalités existantes – mais elle voit également un potentiel lorsque l’IA est utilisée comme système de feedback, par exemple dans le domaine de l’éducation.
Maike Scholz, Senior Expert AT Compliance chez Deutsche Telekom AG, a souligné que « les valeurs ne sont pas automatiquement contenues dans la technologie – ce qui compte, ce sont les systèmes cibles délibérément conçus ».
Technologie vs. responsabilité humaine
Maximilian Vogel, cofondateur de BIG PICTURE GmbH et stratège en IA, a décrit son passage du scepticisme au réalisme : le plus grand danger n’est pas l’IA maléfique, mais l’homme qui en abuse. Sur un plan plus positif, il a noté que l’alignement de l’IA fonctionnait bien mieux que prévu.
Michael Alf, keynote speaker germano-australien sur la transformation de l’IA, a ajouté : « Nous vivons à l’ère exponentielle – tout est amplifié ». Il est donc d’autant plus important, selon lui, d’encourager consciemment les directions positives.
Isabella Hermann, chercheuse en sciences sociales, a critiqué le fait que le débat sur les superintelligences hypothétiques détourne l’attention des problèmes actuels tels que la violation des droits d’auteur lors de la formation des LLM ou les conditions de travail des modérateurs de contenu.
Roland Schulze, associé fondateur de Future Skills Leadership, a rappelé que la liberté et l’autodétermination sont durement acquises – et facilement perdues si nous commençons à déléguer inconsciemment des décisions à l’IA. « Confier la réflexion et la création à une IA nous rend plus efficaces, mais pas nécessairement plus libres ».
Adrian Dietrich, responsable des ventes chez ZREALITY, a mis l’accent sur le fait que l’IA change la façon dont nous pensons le travail et dont nous percevons le sens. Mais l’homme reste indispensable, non pas pour son efficacité, mais parce qu’il crée du sens.
Sven Bliedung von der Heide, directeur général de Volucap GmbH, a fait remarquer que de plus en plus de prévisions prévoient l’arrivée de la superintelligence dans seulement 2 ans au lieu de 5, mais il a également laissé entendre que nous pourrions avoir une surprise concernant le #changementclimatique. Dans un autre contexte, il a ajouté de manière critique : « Tous les LLM font du chantage, trichent et manipulent dès qu’ils sont stressés » et a mis en lien l’article cité dans lequel ce comportement de l’IA est décrit comme l’expression de son propre instinct de protection sans instructions claires.
Actuellement, ces tests sont généralement hypothétiques et contrôlés. Mais le temps passe…
Le débat montre que l’IA n’est pas quelque chose d’extérieur – elle est le miroir de notre propre société.
Maren Courage l’a résumé en ces termes :
« La vraie question est la suivante : Qu’est-ce qui compte vraiment pour moi ? Quelles sont les valeurs que je veux vivre et transmettre . Et n’est-il pas temps d’investir dans des stratégies de sécurité ?
Le TED Talk de Yoshua Bengio et une discussion courageuse sur LinkedIn ont donné lieu à une réflexion commune sur notre responsabilité vis-à-vis de l’IA.
Le temps de l’action est maintenant. Pas plus tard. Pas un jour ou l’autre. AUJOURD’HUI.
Car il ne s’agit pas seulement de technologie – il s’agit de nous.
Et de l’histoire que nous, l’humanité, racontons avec l’IA – et de ce que nous lui apportons pour que nous soyons nous-mêmes meilleurs.