IA et éthique : préservons l’intelligence humaine!

Avec de nouvelles promesses incarnées par des robots humanoïdes comme Optimus Prime de Tesla, et des contextes politiques favorisant les entreprises technologiques, il est plus que jamais important d’envisager des applications éthiques et durables de l’intelligence artificielle (IA). L’éthique de l’IA, comme la technologie, est un domaine en constante évolution. Au regard des neurosciences et de la cyberpsychologie, voici un résumé des perspectives uniques sur la manière dont l’IA influence notre cerveau, nos comportements et nos interactions sociales.

Chronique de Mélissa Canseliet, publiée le 6 février 2025, parue initialement dans le 7ème numéro de la revue LES CONNECTEURS :

Les biais cognitifs humains deviennent des limites en IA

Les biais cognitifs sont des raccourcis que prend le cerveau. Ces biais sont des distorsions systématiques de la pensée humaine. Par exemple, le biais de représentativité est le biais qui va faire d’anecdotes vécues ou expérimentées la perception d’une réalité statistique. On a parfois peur d’aller dans la mer à cause des requins, même si les attaques sont rares. Mais dans notre inconscient, les images de requins sont largement plus véhiculées par les médias. L’IA, en se basant sur des données historiques, peut involontairement reproduire ou même amplifier ces biais. Par exemple, des systèmes de recrutement automatisés ont été critiqués pour favoriser certains profils au détriment d’autres, reflétant des préjugés présents dans les données d’entraînement. Cette amplification des biais pose des questions éthiques majeures sur l’équité et la justice des décisions automatisées.

Il est donc important :

1) d’intégrer des équipes diversifiées dans la conception et la validation des algorithmes pour limiter les biais ancrés dans les données ;

2) mettre en place des audits réguliers des systèmes IA pour détecter et corriger les biais avant leur déploiement.

L’IA évolue, et nous dans tout ça?

L’utilisation intensive de l’IA modifie nos processus cognitifs. Des études récentes montrent que l’interaction constante avec des assistants virtuels ou des systèmes de recommandation peut affecter notre capacité à prendre des décisions de façon indépendante, en réduisant notre engagement cognitif. En fait, puisque nous laissons l’IA faire le travail, nous ne maintenons pas les compétences cognitives qui seraient impliquées le cas échéant. Cette dépendance croissante à l’IA soulève des préoccupations quant à la préservation de notre autonomie mentale et à la nécessité de concevoir des systèmes qui soutiennent plutôt qu’ils ne remplacent nos capacités cognitives.

Il est donc important de :

1) créer des outils éducatifs basés sur l’IA qui encouragent la réflexion critique plutôt que de simplement fournir des réponses ;

2) promouvoir des périodes déconnectées pour réduire la dépendance aux systèmes automatisés et stimuler les fonctions cognitives.

Les émotions artificielles : l’IA dans nos interactions humaines

Les chatbots et autres agents conversationnels dotés de capacités émotionnelles sont de plus en plus présents dans nos vies. Cependant, leur capacité à simuler des émotions humaines pose des questions éthiques. Une étude publiée en avril 2024 a révélé que des interactions prolongées avec des chatbots thérapeutiques peuvent créer une dépendance émotionnelle chez certains utilisateurs, brouillant la distinction entre interactions humaines authentiques et artificielles.

Cette confusion peut avoir des implications profondes sur notre santé mentale et notre bien-être émotionnel. Pour se développer, et pour maintenir des relations émotionnelles saines, il est fondamental de se confronter aussi à des émotions négatives, et d’apprendre à défendre un point de vue dans un dialogue apaisé. Malheureusement, au même titre que les algorithmes nous privent de nuances dans les bulles de filtres, le recours à l’IA dans les interactions humaines doit se faire tout en nous encourageant à développer notre intelligence émotionnelle!

Il faut donc veiller à :

1) limiter l’utilisation de chatbots émotionnels dans des contextes sensibles comme la santé mentale, et toujours inclure un suivi humain ;

2) mettre en place des avertissements explicites pour informer les utilisateurs lorsqu’ils interagissent avec une IA.

La désinformation : hacking de nos circuits attentionnels!

Les algorithmes de recommandation des plateformes en ligne, optimisés pour maximiser l’engagement, exploitent nos circuits neuronaux liés à la récompense pour créer les bulles de filtres. Cette exploitation peut entraîner une exposition accrue à la désinformation et aux contenus polarisants. Il a été montré que cette surcharge d’informations peut altérer notre capacité à discerner le vrai du faux, affectant ainsi notre jugement critique. Il est donc essentiel de repenser la conception de ces systèmes pour promouvoir une consommation d’informations plus saine et équilibrée.

Pour plus de sécurité face à cet enjeu majeur, il faut absolument :

1) exiger plus de transparence sur les critères utilisés par les algorithmes de recommandation pour prioriser les contenus ;

2) inclure des outils d’éducation numérique dans les plateformes pour aider les utilisateurs à identifier et contrer la désinformation.

Pour un futur souhaitable

Pour aborder ces défis, une approche interdisciplinaire est cruciale. Cela permet d’enrichir des cadres éthiques pour les interactions entre les humains et l’IA, soulignant l’importance de la transparence et de la supervision humaine. L’intégration de l’IA dans la vie quotidienne offre des opportunités immenses, mais elle comporte également des risques pour notre bien-être cognitif et émotionnel. En adoptant une approche éthique éclairée par les neurosciences et la cyberpsychologie, nous pouvons concevoir des systèmes d’IA qui non seulement respectent, mais aussi renforcent nos capacités humaines, assurant ainsi un avenir où la technologie et l’humanité coexistent en harmonie.