• Europe

Foundation Metaverse Europe Prise de position sur Metaverse et l’autocontrôle mental par le Prof. Dr Thomas Metzinger (Original en allemand, version traduite automatiquement)

Des états de conscience modifiés dans le changement technologique vers le métavers à venir

Un problème majeur pour une culture de la prise de conscience contemporaine est la nouvelle « économie d’extraction de l’attention ».

S’appuyant sur une IA autodidacte et des algorithmes modernes en constante amélioration, elle extrait l’attention du cerveau humain et la transforme en argent. Aujourd’hui, l’information et le divertissement sont disponibles gratuitement presque partout. L’attention, en revanche, est la nouvelle ressource rare qui est systématiquement exploitée parce qu’elle est devenue une monnaie, un moyen de paiement avec lequel on peut faire des échanges.

Mais ce qui est effectivement monétarisé dans la nouvelle « économie de l’attention », c’est en réalité la destruction de l’autonomie intellectuelle et donc de notre capacité à contrôler encore notre propre attention de manière volontaire et autodéterminée. Mais nous avons besoin d’autonomie intellectuelle si nous voulons maintenir et défendre nos démocraties en tant que citoyens responsables. Nous en avons également besoin pour pouvoir faire face à la crise planétaire et dire que nous sommes prêts à relever le défi : Je relève le défi.

Mesures pour maintenir le contrôle mental dans le métavers

La capacité d’autodétermination mentale est en outre essentielle pour notre qualité de vie générale. Il y a longtemps que la question n’est plus de savoir si c’est un homme ou une machine qui est le champion du monde de go ou d’échecs. Le jeu que les systèmes jouent actuellement contre nous est tout autre : qui contrôle la ressource rare qu’est l’attention générée par nos cerveaux biologiques – nous-mêmes ou une entreprise américaine de technologie ? Des questions comme celles-ci sont absolument centrales pour la culture de la conscience du futur.

Dans le métavers, de telles questions se poseront encore une fois sous une forme différente et plus aiguë que dans les « anciens » médias sociaux. Et ce n’est pas parce que le métavers est quelque chose de maléfique, dans lequel des voleurs d’attention professionnels et des bandits de grand chemin attendent le pauvre utilisateur. Non, le métavers pourrait tout simplement devenir si bon et si attrayant que cela affaiblirait de manière inattendue la cohésion sociale dans le monde dit réel.

Et plus loin

  • Quels principes éthiques et juridiques devraient nous guider dans l’économie de l’attention de demain ?
  • Existe-t-il des environnements médiatiques et des modèles commerciaux qui devraient être illégaux ?
  • Comment développer de manière éthique de meilleurs algorithmes pour les réseaux sociaux et de nouvelles réalités virtuelles beaucoup plus complexes ?
  • Comment faire en sorte que l’intelligence artificielle serve réellement le bien commun et que les nouvelles technologies de la conscience augmentent notre autonomie intellectuelle au lieu de la détruire ? Question plus générale :
  • Dans une société ouverte et libre, chaque citoyen devrait-il avoir le droit de manipuler son propre cerveau comme il le souhaite ?
  • Ou bien existe-t-il des états et des espaces de conscience qui devraient être « tabous », par exemple parce qu’ils détruisent l’autonomie de celui qui les vit (et indirectement aussi celle des autres) ?


La culture de la prise de conscience et le système éducatif général

La philosophie pratique de l’esprit ne s’occupe pas seulement de ce qu’il vaut mieux ne pas faire, mais aussi de ce qu’il faut promouvoir de manière proactive, c’est-à-dire de manière ciblée et prévoyante. Voici un autre exemple : Dans le monde entier, de nombreuses initiatives basées sur des preuves expérimentent déjà différentes manières d’intégrer une pratique séculière de la méditation dans notre système éducatif. Dans le contexte de l’économie de l’attention brièvement esquissée ci-dessus (qui jouera un rôle encore plus pertinent dans le métavers) et de l’escalade du problème de la drogue, cela me semble extraordinairement judicieux, en particulier pour les enfants et les adolescents.

Quels sont les états de conscience que nous voulons promouvoir activement et intégrer dans notre société ?
Au vu des résultats prometteurs de la recherche moderne sur la méditation, devrions-nous intégrer des formes séculières d’enseignement de la méditation dans certains, voire dans tous les niveaux de nos systèmes éducatifs ? L’évolution rapide des conditions générales soulève toutefois la question tout à fait fondamentale de la signification actuelle de l' »éducation ». Face à tant de nouvelles possibilités d’action, les interdictions de penser ne nous aident pas. Au lieu de cela, nous avons besoin de courage, d’imagination et d’une culture de l’essai et de l’erreur.

La société est parfois très en avance sur ses institutions politiques, elle cherche et tâtonne depuis longtemps dans des initiatives et des expériences prometteuses pour une nouvelle culture de la conscience. Le problème est qu’il existe pour chaque mouvement social et chaque innovation culturelle une fenêtre temporelle optimale dans laquelle ses principaux enseignements doivent être formellement intégrés, si l’on ne veut pas courir le risque qu’ils tombent dans l’oubli et soient à nouveau perdus pour la société.

L’éducation permet aux jeunes de devenir des membres actifs de la société et de la culture, et donc des citoyens politiquement responsables. Quels domaines de l’espace d’état phénoménal chaque jeune devrait-il connaître avant l’âge adulte ? A quoi ressemblerait un « canon éducatif phénoménologique » qui puisse réellement tenir compte de l’état actuel de nos connaissances et de notre situation en rapide évolution ? En quoi consisterait le noyau éducatif indispensable d’une culture de la conscience moderne ?

Débat sur l’IA et le métavers

Il est temps de porter le débat public en cours sur l’intelligence artificielle (IA) et sa mise en œuvre dans la construction du métavers au sein de nos institutions politiques. De nombreux experts estiment que nous allons être confrontés à un tournant dans l’histoire des plateformes sociales au cours de la prochaine décennie et que la fenêtre d’opportunité pour l’élaboration d’une éthique appliquée vraiment substantielle pour l’IA se referme lentement. Les institutions politiques doivent donc élaborer et mettre en œuvre rapidement un ensemble minimal mais suffisant de règles éthiques fondamentales adaptables et de restrictions juridiques pour une utilisation orientée vers le bien commun et le développement futur de l’IA dans le métavers. Ils doivent également créer un espace pour un processus de discussion critique rationnel et fondé sur des preuves, visant à actualiser et à améliorer continuellement ce premier ensemble de contraintes normatives, et à le réviser chaque fois que nécessaire. Dans la situation actuelle, on peut s’attendre à ce que les valeurs qui guident le développement futur de l’IA soient fixées par un très petit nombre de personnes travaillant dans de grandes entreprises privées et des institutions militaires. L’un des objectifs est donc d’intégrer de manière proactive autant de perspectives que possible – et ce, en temps opportun.

Nécessité de normes de sécurité élevées

Nous devons développer et mettre en œuvre des normes de sécurité mondiales pour la recherche en IA et sa mise en œuvre dans le métavers. Une charte mondiale pour l’IA est nécessaire, car de telles normes de sécurité ne peuvent être efficaces que si tous les pays qui participent et investissent dans le type de recherche et de développement concerné s’engagent de manière contraignante à respecter certaines règles. C’est pourquoi il est également question de résilience démocratique et de souveraineté numérique pour la République fédérale d’Allemagne. Compte tenu de la concurrence économique et militaire actuelle, la sécurité de la recherche en IA sera très probablement réduite au profit d’un progrès plus rapide et de coûts moindres, en la transférant dans des pays où les normes de sécurité sont faibles et la transparence politique limitée (une analogie évidente et forte est le problème de l’évasion fiscale par les entreprises et les trusts). Si la coopération et la coordination internationales étaient couronnées de succès, une « course vers le bas » des normes de sécurité (par la délocalisation de la recherche scientifique et industrielle en matière d’IA) pourrait en principe être évitée.Si – ce qui est probable – cela ne réussit pas, il s’agit d’une protection proactive pour la République fédérale d’Allemagne, qui se projette loin dans l’avenir.

Risques pour la cohésion sociale

Mais l’IA présente bien d’autres risques pour la cohésion sociale, par exemple par le biais de médias sociaux gérés de manière privée et autonome, qui visent à collecter l’attention humaine et à la « conditionner » pour une utilisation ultérieure par leurs clients, ou par l' »ingénierie » de la formation de la volonté politique au moyen de stratégies de « big nudging » et d’architectures décisionnelles pilotées par l’IA, qui ne sont pas transparentes pour les citoyens individuels dont le comportement est ainsi orienté. La future technologie d’IA sera extrêmement douée pour modéliser et anticiper le comportement humain – par exemple, grâce au renforcement positif et aux suggestions indirectes, qui font que le respect de certaines normes ou l’émergence de « motivations » et de résultats décisionnels semblent totalement spontanés et non contraints. Combinée au Big Nudging et au contrôle prédictif des utilisateurs, la technologie de surveillance intelligente pourrait également augmenter les risques globaux en contribuant localement à stabiliser les régimes autoritaires de manière efficace. Là encore, il est fort probable que la plupart de ces risques pour la cohésion sociale soient actuellement inconnus et que nous ne les découvrions peut-être que par hasard. Les décideurs politiques doivent donc également être conscients du fait que toute technologie qui peut optimiser de manière ciblée l’intelligibilité de ses propres actions pour l’utilisateur humain peut en principe également être optimisée pour la tromperie. Il faut donc veiller très attentivement à ce que la fonction de récompense d’une IA ne soit pas fixée par hasard, voire intentionnellement, d’une manière qui porte indirectement préjudice au bien commun.

La technologie de l’IA est actuellement un bien privé. Cependant, les réseaux sociaux contrôlés par l’IA et le métavers font désormais partie de l’infrastructure critique. C’est la tâche des institutions politiques démocratiques d’en transformer de grandes parties en un bien commun bien protégé, quelque chose qui appartient à toute l’humanité et qui est soumis à un contrôle démocratique. Dans le cas de la tragédie des biens communs, tout le monde peut souvent voir ce qui va arriver, mais s’il n’y a pas de mécanismes pour contrer efficacement la tragédie, elle se déploiera de manière invisible, par exemple dans des situations décentralisées. L’UE devrait développer de manière proactive de tels mécanismes de prévention.

Adaptation des structures de gouvernance

Enfin, je voudrais souligner que l’adaptation des structures de gouvernance fait elle-même partie du paysage problématique : pour combler, ou du moins minimiser, l’écart temporel du pacing gap, nous devons investir des ressources dans le changement de la structure même des approches de gouvernance. « Méta-gouvernance » signifie précisément cela : Une gouvernance de la gouvernance qui tient compte des risques et des avantages potentiels d’une croissance explosive dans certains domaines de développement technologique.

Un CCG pour l’IA pourrait faire office de « gestionnaire d’enjeux » pour une technologie spécifique et émergente, de centre d’échange d’informations, de système d’alerte précoce, d’outil d’analyse et de surveillance et d’évaluateur international des meilleures pratiques, ainsi que de point de contact indépendant et digne de confiance pour les éthiciens, les médias, les scientifiques et les parties prenantes intéressées.

Bien entendu, de nombreuses autres stratégies et approches de la gouvernance sont envisageables. Il s’agit simplement de dire que nous ne pourrons relever le défi du développement rapide de l’IA et des systèmes autonomes que si nous plaçons d’emblée la question de la méta-gouvernance en tête de notre agenda. En Europe, le principal obstacle à la réalisation de cet objectif est bien entendu la « corruption douce » exercée par le lobby industriel des big tech à Bruxelles : il existe de fortes incitations financières et des acteurs importants qui ont intérêt à maintenir le plus longtemps possible le retard pris dans ce domaine.

Thomas Metzinger, membre du conseil d’experts de la Fondation Metaverse Europe.

Le professeur Thomas Metzinger travaille depuis de nombreuses années en tant que philosophe à l’interface entre la philosophie de l’esprit et les neurosciences cognitives ; il s’intéresse également aux conséquences éthiques, anthropologiques et socioculturelles des progrès réalisés dans les neurosciences et l’intelligence artificielle. Dans son rôle d’Adjunct Fellow, il a notamment été Directeur du MIND-Group au Frankfurt Institute for Advanced Study (https://open-mind.net/about). De 2005 à 2007, il a été président de la Société des sciences cognitives, de 2009 à 2011, président de l’Association for the Scientific Study of Consciousness et d’avril 2014 à 2019, Fellow à l’Institut de recherche sur les sciences cognitives. Gutenberg Research College (https://www.gfk.uni-mainz.de/prof-dr-thomas-metzinger). Un livre compréhensible par tous est Der Ego-Tunnel (2014 ; Munich : Piper), un recueil de textes en libre accès est Open MIND (2015 ; www.open-mind.net), les projets suivants actuels sont Philosophy and Predictive Processing (2017 ; www.predictive-mind.net) et Radical Disruptions of Self-Consciousness (2020). En 2018, Metzinger a été nommé à la High-Level Expert Group on Artificial Intelligence de la Commission européenne. En 2019, il a rendu son poste de professeur C4, puis le ministère de la science, de la formation continue et de la culture de Rhénanie-Palatinat lui a attribué un poste de professeur de recherche senior. En 2022, il a été élu à l’Académie nationale des sciences (Leopoldina).

Points forts du contenu

  • Philosophie analytique de l’esprit
  • Philosophie des sciences cognitives, philosophie des neurosciences et de l’IA
  • Transversalité interdisciplinaire de l’éthique, de l’anthropologie et de la philosophie de l’esprit
  • Éthique appliquée à la recherche sur le cerveau et les sciences cognitives.

Prix et récompenses

  • 1998 Fellowship “Hanse-Wissenschaftskolleg” (18 mois)
  • 2000 Fellowship “McDonnell Project in Philosophy and the Neurosciences” (5 ans)
  • 2004 Foerster Lecture 2004 à l’UC Berkeley, 18 octobre 2004
  • 2006 Lectures Leibniz à l’université de Hanovre, juin 2006
  • 2007 Fellowship “Embodied Communication Research Group” (ZiF Bielefeld, 1 an)
  • 2008 Fellowship “Collège scientifique de Berlin” (Understanding the Brain) (2008-2009)
  • 2014 Fellowship „Gutenberg Forschungskolleg » (Collège de recherche Gutenberg) (2014-2019; € 1.000.000,-)
  • 2021 Médaille Pufendorf et The Pufendorf Lectures 2021 (Université de Lund, Suède)


Parcours académique

Metzinger (né en 1958) a étudié la philosophie, les sciences des religions et l’ethnologie à Francfort-sur-le-Main, où il a obtenu son doctorat en 1985 avec une thèse sur la discussion récente du problème de l’âme et du corps. En 1992, il a obtenu son habilitation au Centre de philosophie et des fondements de la science de l’université de Giessen et, en 1998, il a passé un an à l’université de Californie à San Diego, d’où il a été nommé professeur de philosophie de la cognition (C3) à l’université d’Osnabrück en 1999. Six mois plus tard, il a été nommé professeur de philosophie théorique, spécialisé dans le domaine de l’éducation. 19. et/ou Il a occupé un poste de professeur de recherche senior à l’Université Johannes-Gutenberg de Mayence de 2019 à 2022.

Sources :

Paragraphes 1-3 : Thomas Metziger, Bewusstseinskultur : Spiritualität, intellektuelle Redlichkeit und die planetare Krise (Culture de la conscience : spiritualité, honnêteté intellectuelle et crise planétaire)

Absatz 4-7 : Thomas Metziger, The Cambridge Handbook of Responsible Artificial Intelligence, Towards a Global Artificial Intelligence Charter (Vers une charte mondiale de l’intelligence artificielle).

Photo : Veysel Çelik | AVA Arthouse Studio / Piper Verlag

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mentions de Cookies WordPress par Real Cookie Banner