Kate Crawford n’est pas seulement chercheuse dans le champ des implications sociales et politiques des IA, fondatrice du AI Now Institute, enseignante à l’université de New York. Elle aime également utiliser différents médiums pour diffuser ses réflexions. Ainsi, quelques années avant la sortie de son livre elle avait avec l’artiste et chercheur Vladan Joler, créé une gigantesque œuvre intitulée « Anatomy of an AI system ». Il s’agissait de rendre compte de tous les tenants et aboutissants matériels et politiques liés à une requête quelconque ordonnée à Echo, l’enceinte connectée d’Amazon. Y sont ainsi schématisés tout ce que ça entraine et tout ce que ça nécessite. Des minerais rares à l’exploitation de ceux qui l’extraient pour pouvoir construire les appareils. Des dizaines de milliers de microtravailleurs·euses du clic qu’il a fallu mobiliser en amont pour entrainer l’IA et en assurer ensuite le fonctionnement. Mais il s’agissait aussi de montrer toutes les ramifications idéologiques de cette technologie dont certaines ont à voir avec le colonialisme et la volonté de soumettre le monde.
C’est en quelque sorte tout ce travail de cartographie qu’elle poursuit dans son Contre-Atlas de l’Intelligence Artificielle en suivant le fil rouge d’une double question : Comment fabrique-t-on de l’intelligence ? et Quels pièges cela peut-il susciter ? Il ne s’agit donc pas de voir comment on code un algorithme pour faire telle ou telle chose. Mais plutôt de s’attacher à la manière dont on met en place tout une infrastructure, une culture, une idéologie une puissance et une politique pour développer et diffuser cette technologie.
RÉINCARNER UNE FORCE SPECTRALE
Ce livre est un bon antidote au vertige qui nous prend quand on est face à une technologie qu’on ne comprend pas et dont on ne perçoit pas les limites, les limitations, l’histoire, et les buts. Tout dans le terme dit une force surnaturelle, déifiée, qu’on écrit souvent avec une majuscule et au singulier : l’Intelligence artificielle. Un Dieu à la fois menaçant et qui aurait solution à tout. Qui représenterait une menace existentielle pour l’humanité façon Terminator ou bien au contraire serait celle qui grâce à sa puissance de calcul phénoménal trouverait les issues à toutes les crises qui nous assaillent. L’IA ferait disparaitre le travail pour de bon et nous piquerait nos jobs et/ou mettrait fin au changement climatique. Que ce soit son côté pile de force de destruction ou son côté face de sauveuse, c’est lui accorder beaucoup trop de crédit et de puissance. Et adhérer au solutionnisme technologique qui ne cesse de l’accompagner.
La grande force du livre est de réincarner cette « force spectrale » désincarnée, à la fois de corps mais aussi de tout lien avec le monde qui l’entoure et qu’on voudrait pourtant être l’équivalent de l’intelligence humaine — qui elle se développe justement dans les limites d’un corps, dans un bain culturel et dans des interactions sociales avec les autres. La réincarner d’abord dans la matérialité la plus forte, celle de la terre de laquelle l’industrie de l’IA fait extraire en déchiquetant les sols des minerais rares, dans la peine de ceux et celles qui étiquettent des données pour trois sous. De ce point de vue-là, cette industrie ne fait pas autre chose que ce à quoi les acteurs de la numérisation du monde procèdent depuis 40 ans et l’avènement de l’informatique grand public. Mais, en étant de plus en plus présents dans nos terminaux, téléphones et ordinateurs, les logiciels d’IA entrainent une intensification des besoins en puissance qui renforce la consommation énergétique déjà colossale de ce secteur. Et ils participent à créer une ambiance dans laquelle numériser n’est pas une option mais une obligation.
Réincarner l’IA c’est aussi rappeler que les IA sont fabriquées « à la main » et par des humains. Les IA sont des logiciels, qui sont codés et développés par des équipes d’ingénieur·es. Mais qui sont aussi « entrainées » par des milliers de petites mains qui classent les données pour que l’IA puisse devenir de plus en plus autonome (sans jamais le devenir tout à fait). Par exemple, si le logiciel doit différencier un chat d’un chien, il faut rentrer des centaines de milliers de photos de chien et de chat, et les étiqueter « chien » ou « chat » à la main.
Nous en avons l’expérience avec les « captcha », cette étape fastidieuse pour savoir si nous sommes humains ou robots, censée nous prémunir de piratage de compte, lorsqu’il nous faut désigner les photos contenant un feu rouge ou un bus pour accéder à sa boite mail, finaliser un achat ou un autre service en ligne. Nous participons (d’ailleurs à notre insu et gratuitement) à étiqueter des images pour qu’elles soient ensuite utilisées par des IA. C’est ce travail-là, réalisé par des microtravailleur·euses, microrémunéré et répété des milliers de fois qu’il s’agit.
UNE QUESTION POLITIQUE ET PAS SEULEMENT TECHNIQUE
En élargissant la définition qui en est habituellement faite et qui réduit l’IA à une simple question technique, Crawford réinscrit cette technologie dans le social, dans le contexte socio-économique et les rapports de force qui l’ont vu naitre et se développer. Son ambition, c’est bien de réadosser l’IA aux idéologies qui la sous-tendent et aux acteurs qui la portent « L’IA n’est ni artificielle, ni intelligente, ni autonome. Elle est le reflet du pouvoir. » résume Crawford.
Car l’IA, c’est en fait l’industrie de l’IA. C’est-à-dire l’ensemble des compagnies qui développent ces systèmes mais aussi l’idéologie qu’elles diffusent pour en favoriser l’adoption et lutter contre les réglementations de l’IA1. C’est, dit Crawford, « une force politique, économique, culturelle et scientifique ». Et on le sent bien par exemple dans les médias qui présentent généralement des interlocuteurs très favorables à l’IA. Ils sont même très souvent parties prenantes de cette industrie et ont des intérêts financiers en jeu dans le développement de leurs technologies, qu’ils cherchent des investisseurs ou ces clients. Le robot conversationnel Chat GPT a été un bon coup marketing dans ce sens et a permis d’attirer outre des millions d’utilisateurs, des financeurs ou l’attention des pouvoirs publics pour ces technologies.
On sait que le terme d’intelligence artificielle - une métaphore qui a tendance à anthropomorphiser des machines qui n’ont rien demandé — crée une certaine confusion. Déjà parce que l’IA ne fonctionne pas du tout comme l’appareil cognitif humain. Mais surtout, pointe Crawford, parce que l’IA n’est pas seulement une technique mais aussi une idéologie, un mot d’ordre qui jouerait comme une prophétie autoréalisatrice. Et surtout une pratique sociale qu’on peut donc déplier en se demandant : Qui travaille sur ces systèmes ? Quelles données sont utilisées ? Comment sont-elles classées ?
CODES BIAISES OU ENCODAGE DU POUVOIR ?
Actuellement, lorsque la critique émerge, c’est souvent pour mettre en avant les biais dans le fonctionnement de ces technologies. Certains systèmes montrent en effet des failles parce qu’ils sont codés par une population socialement homogène, principalement masculine, blanche et aux revenus confortables. Mais ce qu’on peut apprendre avec Crawford, c’est qu’en plus d’être codées à partir de leurs préjugés, et donc de produire des discriminations, les systèmes d’IA utilisent des bases de données elles-mêmes biaisées, approximatives, parfois faussées et souvent pleines de stéréotypes. Pire, leur biais sont parfois connus des chefs de projet et ingénieurs·euses sans que ça n’émeuve personne.
Et ces registres d’images ou de mots continuent donc d’être employées pour construire des IA. C’est exactement ce qui fait qu’un algorithme d’embauche va privilégier des hommes aux femmes dans une entreprise dont le personnel est majoritairement composé d’hommes. Ou qu’un logiciel de prédiction du crime va cibler avant tout des populations racisées des quartiers populaires car les bases de données utilisés sont fondées sur des pratiques historiquement racistes de la police qui ciblait avant tout… les populations racisées des quartiers populaires. On entre dans une ère où on risque d’automatiser les injustices sociales à tous les étages.
Crawford, qui nous nourrit de questions pour politiser les différentes facettes de l’IA à chaque chapitre, précise à ce sujet qu’il s’agit avant tout de se demander ce qui est en jeu lorsqu’on classe. L’IA « utilise la classification pour encoder le pouvoir » et il s’agit donc de se demander : Qui classe ? Sur quelles idéologies se base-t-on pour réaliser ces classements ? Qu’est-ce que ce classement produit comme effets sur les classé·es ?
AUTOMATISER LA SOCIÉTÉ
Avec son Contre-Atlas, Kate Crawford nous rappelle en somme qu’automatiser la société ne signifie en aucun cas la rendre plus juste. Il faut avant tout voir comment et pour qui un système est utilisé : à qui donne-t-il plus de pouvoir ? A ceux qui en avaient moins ou à ceux qui le détenaient déjà ? Aux subalternes ou aux dominants ? C’est la clé pour voir si une IA participe à approfondir une inégalité ou à lutter contre elle.
Or, à l’heure actuelle, c’est plutôt au service des dominants que les IA sont développées. Dans le monde du travail, c’est assez patent. Les IA servent rarement au bien-être des travailleurs·euses mais plutôt à l’augmentation de la productivité, c’est à‑dire des cadences. Elles nuisent généralement aux conditions de travail et visent avant tout à augmenter les profits. Ou encore, pour reprendre l’exemple de la police, les IA ne sont pas utilisées à ce jour pour surveiller la police et tenter par exemple de réduire le racisme systémique de cette institution mais au contraire pour mettre en place des systèmes d’IA prédictifs qui comme on l’a vu vont reproduire et redoubler par la technique les biais racistes de cette institution.
Et, à l’heure où de multiples discours d’entrepreneurs et de médias nous pressent d’intensifier la numérisation du monde en introduisant de l’IA dans des services publics, la prise de décisions publique, les tribunaux, à l’école ou à l’hôpital, Kate Crawford nous donne une clé d’analyse très précieuse et praticable qui pourrait bien servir de guide à toute réflexion politique concernant les systèmes d’IA : « Quels sont les lieux où l’IA ne devrait pas être utilisée, où elle sape la justice ? ».
- Le grand paradoxe (et on peut se demander si ça ne pourrait pas limiter sa critique à certains endroits), c’est que Kate Crawford est aussi une chercheuse associée à… Microsoft, qui est bien sûr partie prenante dans le développement des IA puisque le conglomérat possède 30 % de Open AI, société qui a par exemple développé le très populaire générateur de conversation Chat GPT. Mais on ne choisit pas d’où vient la critique sociale, et l’endroit d’où on parle ne suffit pas à disqualifier un discours.
Kate Crawford, Contre-Atlas de l’Intelligence Artificielle, Zulma, 2022
Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne « Sortir du vertige artificiel ».