Nouvelles

Experte : inquiétudes quant à la transparence des modèles d'IA

Transparent brain with blue light on microchip on complex circuit board. Cerveau transparent avec lumière bleue sur une micro-puce sur un circuit imprimé complexe.
Publié: 21 July 2025

Une coalition de 40 chercheurs en IA – dont les signataires de Meta, OpenAI et Mila, basée à Montréal – a publié un document de synthèse commun avertissant qu'à mesure que les systèmes d'IA avancés évoluent, nous risquons de perdre la capacité de comprendre ou de contrôler la manière dont ils « pensent ».

Les auteurs appellent la communauté mondiale des chercheurs en IA à étudier en priorité les moyens de préserver et d'interpréter les processus internes des modèles. Sans intervention, les futurs systèmes pourraient cesser de verbaliser leur raisonnement ou même l'obscurcir délibérément, affirment-ils.

Une experte de McGill est disponible pour discuter de la technologie et de ses implications éthiques, sociales et de gouvernance.

Jennifer Raso, professeure adjointe à la Faculté de droit, étudie l'intersection entre l'intelligence artificielle et le droit public. Elle peut parler de l'éthique des systèmes opaques et des modèles à boîte noire, des implications pour la gouvernance, la politique et la confiance du public, et de la prise de décision algorithmique.

jennifer.raso [at] mcgill.ca (français, anglais)

Back to top