Publié le 10 décembre 2024 |
0IA : une arme à double tranchant pour l’activisme écologique
L’intelligence artificielle transforme à la fois l’activisme juridique et la défense de l’environnement, tout en soulevant des défis majeurs pour les droits de l’homme. Elle rend nécessaire une réflexion juridique. Article paru dans le 16e numéro de la revue Sesame.
Par Ornella Seigneury, docteure en droit public, membre de l’institut Louis Favoreu d’Aix-Marseille université, CNRS UMR DICE,
Dessin d’illustration : IA © Tommy 2024,
L’intelligence artificielle (IA) devient de plus en plus courante dans notre quotidien et ses répercussions sur l’environnement et les libertés fondamentales soulèvent des interrogations. Bien loin d’être une technologie anodine, l’IA pose des questions qui concernent les droits de l’homme et la préservation des équilibres écologiques de la planète en ce qu’elle peut accompagner ou freiner la résilience de nos sociétés contemporaines à traverser la crise actuelle1.
Il est notamment intéressant d’examiner différents aspects de la crise sociale liés à la montée en puissance du numérique et des technologies de l’intelligence artificielle. La diminution de l’empathie et de la solidarité, la disparition graduelle de la diversité et de l’altérité, ainsi qu’une obsession de la transparence alimentent une surveillance étouffante que l’IA pourrait accélérer. La multiplication des expressions de haine crée une division politique préoccupante dans cet espace virtuel où évolue désormais une partie non négligeable de la population. La société, de plus en plus peuplée d’individus ultra-connectés, voit ainsi ses bases morales et collectives s’effriter, rendant instable la démocratie, tandis que l’IA apparaît, à tort ou à raison, comme une solution.
Selon le philosophe Byung-Chul Han, « nous sommes dépassés par le numérique qui, en deçà de toute décision consciente, modifie de façon déterminante notre comportement, notre perception, notre sensation, notre pensée et notre vie sociale. Nous nous grisons du numérique sans pouvoir évaluer toutes les conséquences d’une telle ivresse. Cette cécité ainsi que la torpeur qui l’accompagne sont les symptômes fondamentaux de la crise actuelle »2. Autant de constats qui encouragent à réexaminer l’IA en tenant compte, cette fois, de l’éthique environnementale et du droit fondamental à un environnement sain, au travers de ce que l’on appelle l’écologie post-humaine – un courant de pensée qui réinvente les relations entre l’humain, la nature et la technologie, en dépassant l’anthropocentrisme traditionnel. Et cela, à l’ère de l’Anthropocène, nouvelle ère géologique dans laquelle l’homme a provoqué des perturbations globales de l’environnement à un niveau sans précédent dans l’histoire. Le comportement global de la terre en est par conséquent modifié : un phénomène inimaginable pour les précurseurs des droits de l’homme à leur époque3. Il existe pourtant peu d’études sur ces nouvelles problématiques et les formes contemporaines que prend l’activisme à travers la fabrique quotidienne du droit des libertés.
L’IA peut servir l’activisme, mais…
L’IA peut servir l’activisme juridique et écologique, qui peut être défini ainsi : une forme d’engagement ou d’action stratégique visant à influencer les décisions politiques, juridiques ou sociales en faveur d’une cause spécifique et/ou de modifier/perfectionner le droit en vigueur ou dont l’effectivité est défaillante4. L’IA peut permettre d’améliorer la détection de contenus contrefaits en ligne (comme le « greenwashing » publicitaire), la collecte de preuves de préjudices écologiques et la prévisibilité de victoires contentieuses. Cependant, elle peut aussi être utilisée pour défendre des entités défavorables à la protection du climat, de la biodiversité et de la soutenabilité de la Terre.
Lire aussi : [Monde numérique] Et si on reprenait nos esprits ?
Il est possible d’utiliser cette technologie en faveur de l’environnement pour provoquer l’action des exécutifs procrastinateurs. À l’inverse, les gouvernements peuvent, grâce à l’IA, mieux contrôler l’information scientifique et notamment la liberté académique des chercheurs ou la liberté des journalistes. Une « police de la pensée » pourrait consister à entrer dans une base de données toutes les publications des chercheurs nationaux puis demander à l’IA de repérer les plus critiques, avec la perspective de surveiller voire de harceler administrativement ou de quelque autre façon ces « perturbateurs ».
D’un côté, les systèmes de « deep learning » peuvent trier d’énormes quantités de données pour repérer les comportements nuisibles à l’environnement ou anticiper les succès potentiels de litiges climatiques. En matière de contentieux, cette technologie ouvre des possibilités inédites pour des acteurs qui, jusqu’à présent, manquaient souvent de moyens pour tenir tête à des multinationales ou à des gouvernements.
De l’autre, l’IA peut devenir un outil de répression et de surveillance. Des gouvernements peu enclins à protéger l’environnement peuvent l’exploiter pour museler les opposants. Si l’IA avait été utilisée en Suède contre la mobilisation des jeunes pour le climat, Greta Thunberg ne serait probablement pas une figure médiatique et le mouvement mondial de la jeunesse engagée pour le climat n’aurait peut-être pas vu le jour. Ce double usage de l’IA, instrument à la fois de pouvoir et de résistance, pose la question cruciale de la gouvernance de ces technologies.
Les dangers d’une IA répressive et liberticide
Des systèmes de surveillance automatisée pourraient aboutir à des fichages et à des contrôles. Le simple fait de critiquer les politiques environnementales d’un gouvernement pourrait entraîner des représailles, voire la marginalisation de ceux qui osent s’opposer.
Imaginez un système de « crédit scientifique » où les chercheurs perdraient des points si leurs travaux étaient jugés trop dissidents par des pairs, par l’administration ou par des autorités académiques. Dans cette logique, la simple remise en cause des politiques publiques pourrait entraîner des sanctions, non pas la censure directe mais une autocensure intériorisée ou un conformisme qu’Hannah Arendt avait décrit sous le nom de « philistinisme »5. Une telle dynamique pourrait conduire à une érosion progressive des libertés académiques, avec des conséquences dramatiques sur la recherche environnementale ou climatique.
Un risque de biais et de discriminations
L’intelligence artificielle, en se fondant sur des données déjà biaisées (par la faible qualité des données ou l’effet d’une collecte incomplète), risque d’amplifier les discriminations raciales et sociales existantes, ciblant des activistes issus de minorités – ce qui menace directement les libertés fondamentales et pourrait alourdir la répression à l’encontre des défenseurs de l’environnement.
Les biais algorithmiques, loin d’être de simples dysfonctionnements techniques, délèguent aux machines une part de la violence symbolique, celle des normes et des hiérarchies sociales imposées à travers des mécanismes d’exclusion invisibles (Bourdieu et Passeron, 1970). En reproduisant et en aggravant les inégalités existantes, les biais algorithmiques peuvent renforcer la marginalisation des communautés déjà fragilisées. Dans le même esprit, l’IA est à même de reproduire des pratiques néocoloniales réduisant les populations autochtones à de simples gestionnaires de la « nature sauvage », tout en les écartant des processus décisionnels sur la gestion des ressources. Selon Byung-Chul Han, cette ère de transparence et de contrôle digital annihile l’altérité, dissout la solidarité et engendre une surveillance sourde, où les technologies oppressives se font invisibles.
Pour éviter cette spirale régressive au regard des droits humains dans une société démocratique, il est impératif de réinscrire l’IA dans un cadre juridique qui prenne en compte ces nouveaux rapports de force. Les obligations environnementales ne peuvent plus ne concerner que les États ou les organisations internationales. Elles doivent inclure des règles spécifiques aux technologies autonomes. En redéfinissant la responsabilité face aux atteintes écologiques et aux violations des droits fondamentaux, il s’agit de réintroduire, comme le suggère Bruno Latour, un dialogue entre humain, non-humain et Terre (Gaïa)6.
Les dynamiques ascendantes de l’activisme juridique
L’une des pistes les plus prometteuses pour intégrer ces problématiques est de s’appuyer sur les dynamiques ascendantes, dites « bottom up », de l’activisme juridique. Les mouvements sociaux, les initiatives citoyennes et les ONG jouent un rôle clé dans la construction des obligations environnementales, en influençant les législations à différents niveaux. Grâce aux outils de l’IA, ces acteurs peuvent coordonner des actions transnationales, mobiliser l’opinion publique et exercer une pression accrue sur les institutions politiques.
Lire aussi : Robots aux champs : bonne pioche ?
Des plateformes collaboratives d’IA permettent déjà de surveiller les émissions de CO2 en temps réel, d’alerter les citoyens et d’organiser des campagnes de plaidoyer. Cette forme d’activisme écologique peut être reliée à l’article 19 du Pacte international relatif aux droits civils qui garantit que « nul ne peut être inquiété pour ses opinions. Toute personne a droit à la liberté d’expression ; ce droit comprend la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières, sous une forme orale, écrite, imprimée ou artistique, ou par tout autre moyen de son choix ».
Toutefois, cette montée en puissance des technologies numériques dans l’activisme s’accompagne également d’une surveillance accrue des militants, qui doivent constamment naviguer entre l’utilisation de l’IA comme outil de lutte et la protection de leurs propres libertés.
Penser l’IA dans une perspective environnementale et éthique
Loin d’être une simple innovation technologique, l’IA modifie en profondeur notre rapport à l’environnement et aux droits de l’homme. Il est crucial de l’aborder avec une approche éthique et juridique adaptée. La loi peut anticiper les abus de ces technologies tout en les réglementant. En collaborant avec les acteurs sociaux et en incorporant les droits humains et l’écologie, l’IA sera capable de favoriser le progrès plutôt que l’oppression. Mais il est important que l’innovation technologique s’accorde avec la justice environnementale plutôt que de répondre en priorité aux exigences du marché.
Lire aussi
- Edgar Morin définit la crise comme « l’accroissement du désordre et de l’incertitude au sein d’un système individuel ou collectif », dans Morin E., Sur la crise, Champs Essais, éd. de L’Herne, 2020, p. 19.
- Han B.C., Dans la nuée. Réflexions sur le numérique, Actes Sud, 2015, p. 1.
- Seigneury O., Du droit à l’environnement au droit au développement durable. Contribution à l’étude du renouveau des droits fondamentaux, thèse de droit public, Aix-Marseille université, 2024, p. 65-66.
- Ibidem, p. 238 et 630.
- Arendt H., La Crise de la culture, Gallimard, 1972, p. 258 et Arendt H., La Nature du totalitarisme, traduit de l’allemand en 1990 par Michelle- Irène Brudny, Payot, 2018, p. 15.
- Latour B., Politiques de la nature. Comment faire entrer les sciences en démocratie, La Découverte Poche, 1999, édition 2004.