Entretien avec Salomé Frémineur

IA et démocratie : La technique ne peut pas résoudre les conflits politiques

Illustration : Vanya Michel

Si les IA et les logiques algo­rith­miques des grandes pla­te­formes peuvent inter­ve­nir sur le débat public, les ten­sions qui tra­versent les pro­ces­sus de déli­bé­ra­tion ne naissent pas for­cé­ment du numé­rique. C’est ce que déve­loppe Salo­mé Fré­mi­neur, char­gée de cours invi­tée en phi­lo­so­phie à l’ULB, l’UMONS et à l’Université de Namur qui étu­die le rôle du lan­gage dans la poli­tique. Elle s’est notam­ment pen­chée sur les pro­ces­sus de déli­bé­ra­tion et sur ce qui pou­vait fon­der et ani­mer des espaces de dis­cus­sions publiques. Com­ment les IA (et les fan­tasmes qu’on peut nour­rir sur elles) tra­vaillent-elles des pro­ces­sus démocratiques ?

Quelles interactions peuvent exister entre une nouvelle technologie et les processus démocratiques ?

Tout sys­tème tech­nique nou­veau recon­fi­gure les appa­reils poli­tiques et admi­nis­tra­tifs. Les médias modernes audio­vi­suels per­mettent le déve­lop­pe­ment d’une com­mu­ni­ca­tion de masse. L’imprimerie ampli­fie et accé­lère la dif­fu­sion des écrits. Mais on peut déjà qua­li­fier l’écriture de tech­no­lo­gie puisqu’elle a don­né des pos­si­bi­li­tés nou­velles aux actions humaines. Avec elle, on peut faire des listes, des tableaux, on voit ce que cela modi­fie la cog­ni­tion humaine même. Pou­voir échan­ger par écrit, gar­der des traces admi­nis­tra­tives concer­nant les popu­la­tions, les récoltes ou la pro­duc­tion ouvre des pos­si­bi­li­tés à la por­tée poli­tique évidente.

La ques­tion est de savoir si les tech­no­lo­gies numé­riques repré­sentent une autre confi­gu­ra­tion tech­nique, ou s’il s’agit d’une rup­ture plus grande… Il y a des enjeux spé­ci­fiques avec ces tech­no­lo­gies-là dans la mesure où ça donne un plus grand rôle à cer­tains acteurs indus­triels comme les GAFAM que ne l’ont fait les por­teurs des tech­no­lo­gies pas­sées, et dans des pans tou­jours plus nom­breux des acti­vi­tés humaines.

Avec l’irruption des IA, est-ce qu’il n’y a pas une espèce de fantasme sur l’idée d’automatiser la démocratie et la prise de décision ?

Cette idée selon laquelle on pour­rait auto­ma­ti­ser les pro­ces­sus démo­cra­tiques repose sur l’idée que déci­der démo­cra­ti­que­ment revien­drait à déter­mi­ner la meilleure solu­tion tech­nique, celle qui serait la plus effi­cace. Évi­dem­ment, c’est faux, toute ques­tion poli­tique ren­voie jus­te­ment à des choix qui ne sont pas réduc­tibles à la déter­mi­na­tion d’une « meilleure solu­tion ». Et ce, même pour beau­coup de ques­tions qui peuvent sem­bler émi­nem­ment techniques.

Par exemple, se deman­der com­ment orga­ni­ser un réseau de trans­port public de la manière la plus effi­cace pour­rait sem­bler une ques­tion tech­nique qu’un algo­rithme pour­rait régler. Cela sou­lève pour­tant déjà un ensemble d’interrogations, de conflits, de choix à effec­tuer, qui impliquent des inté­rêts par­fois contra­dic­toires et des modèles sociaux dif­fé­rents. De quelle effi­ca­ci­té parle-t-on ? Éco­no­mique ? Celle de la ren­ta­bi­li­té finan­cière qui orien­te­ra plu­tôt sur des lignes à grande vitesse entre grandes villes pour des pas­sa­gers for­tu­nés et pour des entre­prises qui doivent y envoyer leurs employés ? Ou bien d’une effi­ca­ci­té plus sociale, de ser­vice public visant à per­mettre aux citoyens éloi­gnés des centres urbains d’y accé­der le plus faci­le­ment pos­sible ? Ou bien encore, est-ce qu’on réflé­chit d’un point de vue éco­lo­gique pour réduire le plus pos­sible l’usage de la voi­ture sur un ter­ri­toire donné ?

La démo­cra­tie se joue spé­ci­fi­que­ment là. On est très loin de quelque chose qui pour­rait être auto­ma­ti­sé par un algo­rithme cal­cu­lant la meilleure chose pour tous. Cela ren­voie à la fois à des déli­bé­ra­tions, mais aus­si à dif­fé­rents droits : droit au trans­port, à l’accès au tra­vail, à l’accès à la culture, etc. Bref, cela pose la ques­tion de savoir quel monde on veut col­lec­ti­ve­ment déve­lop­per. On voit qu’ici il y a quelque chose qui est rejoué par le dis­cours autour des IA mais qui le dépasse, dans ce fan­tasme de la pos­si­bi­li­té d’une auto­ma­ti­sa­tion qui nie à la fois la déli­bé­ra­tion démo­cra­tique et la recherche de réa­li­sa­tion d’une série de droits, inhé­rente à l’aspiration démo­cra­tique contemporaine.

Est-ce qu’en faisant passer des questions politiques pour des questions simplement techniques il n’y a pas aussi la volonté d’évacuer le conflit ?

Si on pense qu’il y a une meilleure solu­tion, il y a éva­cua­tion de la dimen­sion de choix poli­tique du modèle de socié­té qu’on sou­haite. Et ce choix est conflic­tuel effec­ti­ve­ment : il ne s’agit en fait jamais d’une dis­cus­sion apai­sée, mais aus­si d’une dimen­sion de confron­ta­tion, d’ailleurs au cœur de tout pro­ces­sus de lutte pour les droits. Il est d’ailleurs faux de pen­ser qu’il pour­rait y avoir une déci­sion tech­nique qui résou­drait magi­que­ment ces conflits. Les algo­rithmes, par exemple, ont bien été para­mé­trés à un moment don­né : on a choi­si à quoi ils allaient ser­vir ; on leur a don­né des cri­tères. Pen­ser qu’il y a là une neu­tra­li­té peut mas­quer ces choix. On retrouve quelque part un cer­tain dis­cours ges­tion­naire, dépo­li­ti­sant, celui qui dit qu’il n’y a qu’une seule ver­sion de l’économie qui doit gérer les choses sui­vant de bonnes pra­tiques en lais­sant de côté les inéga­li­tés sociales ou éco­no­miques que cela crée.

Ce sont de grandes plateformes capitalistes qui organisent les réseaux sociaux, donc une large part de la possibilité de discuter aujourd’hui. Cela se réalise à l’aide d’algorithmes et suivant des logiques qui leur sont propres et qui visent le profit : garder des gens en ligne le plus longtemps possible, capter leur attention, récolter leurs données, les cibler publicitairement, etc. Cette logique probusiness dans l’expression publique perturbe-t-elle la délibération, la discussion, le débat démocratique ?

Oui cer­tai­ne­ment, mais il n’a pas fal­lu attendre le numé­rique pour consta­ter que des grands groupes de médias por­teurs d’intérêts éco­no­miques per­tur­baient l’espace public et ne pour­suivent pas spé­cia­le­ment le bien com­mun. Rap­pe­lons-nous de cette fameuse phrase du direc­teur de la chaine TF1 qui décla­rait qu’il ven­dait avant tout du « temps de cer­veau dis­po­nible » pour les annon­ceurs. Ce n’est donc pas du tout nou­veau cette idée qu’il y ait des opé­ra­teurs qui n’ont pas d’intérêts démo­cra­tiques. La ques­tion s’est déjà posée avec les médias presse puis audio­vi­suels. Ne mythi­fions pas l’avant…

Ce qui a pu être nou­veau avec inter­net, c’est que ça s’est cette fois accom­pa­gné d’une uto­pie selon laquelle on allait libé­rer les expres­sions, per­mettre l’échange citoyen sur des forums, créer plus de débat public, que tout cela serait plus démo­cra­tique et plus trans­pa­rent… La dés­illu­sion a été impor­tante. Au-delà du rôle des acteurs indus­triels, évi­dem­ment impor­tant, on peut aus­si sou­le­ver un autre enjeu : on avait sans doute une fausse idée du débat public démo­cra­tique comme quelque chose d’immédiat (c’est-à-dire sans média­tions) et de trans­pa­rent, qui s’opérerait pour ain­si dire tout seul. Qu’il suf­fi­rait de per­mettre à des gens de se retrou­ver sur des espaces en ligne pour que la dis­cus­sion démo­cra­tique se produise.

Le débat public, ça a pour­tant tou­jours été quelque chose qui se construit, quelque chose d’organisé dans cer­taines sphères, où les per­sonnes parlent avec un cer­tain inté­rêt, avec cer­taines média­tions. C’est-à-dire à la fois que c’est quelque chose qui n’est pas spon­ta­né, mais aus­si que ces sphères ont tou­jours com­por­té des exclu­sions. On ne peut pas attendre des réseaux sociaux qu’ils réa­lisent spon­ta­né­ment ce qu’on ne peut pas faire dans la vraie vie, ce qui n’a jamais exis­té. Ce n’est donc pas néces­sai­re­ment la faute du numérique…

Après, il faut tout de même bien consta­ter la forte concen­tra­tion de pou­voir aux mains de ces acteurs, de ces pla­te­formes. Et du fait des logiques algo­rith­miques, de valo­ri­sa­tion des don­nées, d’une cer­taine accé­lé­ra­tion du phé­no­mène. Ain­si, on voit la géné­ra­li­sa­tion de la valeur mar­chande à des conte­nus qui ne valent plus seule­ment pour eux-mêmes, mais pour leur capa­ci­té à s’échanger, à sus­ci­ter des clics, à cap­ter de l’attention… Là-encore, ce n’est pas nou­veau, mais cela parait s’intensifier.

Est-ce que n’intervient pas aussi dans la manière dont on s’exprime en ligne la question du projet politique que portent souvent ces plateformes ?

En effet, on fait sou­vent pas­ser les GAFAM ou autre pour des sortes de vilains très cyniques mais ils sont en fait pro­fon­dé­ment ani­més par une vision du monde, une éthique pour­rait-on même dire, ce qui ne veut pas dire qu’on la par­tage ou qu’elle soit bonne. Le cas para­dig­ma­tique, c’est Elon Musk [magnat de la Sili­con Val­ley qui pos­sède entre autres Tes­la et le réseau X (ex-Twit­ter) NDLR]. Elon Musk a une vision du monde basée sur le déclin dont il s’agirait de sau­ver l’humanité – c’est la mis­sion qu’il s’assigne. Il s’agit donc de quelqu’un qui pense connaitre le bien, et qui, pour pour­suivre cette idée, s’autorise à pas­ser outre ce qu’il conçoit comme des bar­rières. Mais son idée du bien s’enracine dans des idéo­lo­gies bien spé­ci­fiques – en l’occurrence, il est proche de cou­rants réactionnaires.

Cette vision du monde s’articule aus­si à une impor­tance accor­dée à une liber­té d’expression abso­lue, dans l’idée que le bien com­mun vient de l’expression de tout, sans freins. Il faut rap­pe­ler l’opposition entre l’Europe où on accepte, pour des motifs démo­cra­tiques, une limi­ta­tion de liber­té d’expression (les dis­cours dif­fa­ma­toires, l’incitation à la haine raciale, etc. peuvent être pour­sui­vis) tan­dis qu’aux États-Unis, on est dans un autre para­digme, celui du free­dom of speech qui pro­tège tout type de dis­cours, y com­pris d’extrême droite très radi­cale, notam­ment nazie, etc. Musk se situe dans ce para­digme d’une façon très extrême. En pre­nant le contrôle du réseau social Twit­ter qu’il a rebap­ti­sé X, il a mis fin aux sus­pen­sions de compte en ver­tu de cette idée selon laquelle tout pour­rait être dit. Des utilisateur·rices dénoncent depuis la pro­li­fé­ra­tion de mes­sages hai­neux. On est donc très loin de toute idée de dis­cus­sion ou de déli­bé­ra­tion… Mais c’est inté­res­sant de noter que ce n’est pas seule­ment nié au pro­fit d’une logique de ren­ta­bi­li­té, mais aus­si d’une cer­taine vision du monde.

Il y a également l’apparition de nouveaux outils, comme ChatGPT, qui produisent du discours de façon automatique. Cet agent conversationnel produit une sorte de langue de bois qui se rapproche souvent de déclarations de politicien·nes…

ChatGPT pro­duit en tous cas des dis­cours très stan­dar­di­sés. Il fait l’objet de beau­coup d’effroi pour cette rai­son. Mais il me semble qu’il faut réflé­chir cette pro­duc­tion machi­nique de textes dans un contexte plus large. On est dans une époque où on est de plus en plus ame­nés à pro­duire des dis­cours stan­dar­di­sés. Par exemple, dans la recherche scien­ti­fique, les mondes cultu­rels, beau­coup d’entreprises, on doit sans arrêt faire des pro­grammes ce qu’on va faire, annon­cer nos acti­vi­tés dans des for­mats très défi­nis, et puis une fois que c’est fait, éva­luer ce qu’on a fait sui­vant des grilles pré­éta­blies. On doit alors se plier à une sorte de méca­nique d’écriture tech­nique. Il faut réflé­chir ChatGPT dans le cadre de ce mou­ve­ment, dont il est symp­tôme plu­tôt que la cause – ce qui ne veut pas dire qu’il soit dépour­vu d’effets. Il fau­drait se deman­der très soi­gneu­se­ment ce qu’on attend de ces dif­fé­rents textes. Qu’est-ce qui est for­cé­ment stan­dar­di­sé – et ce n’est pas tou­jours un pro­blème ? Où peut-on jus­te­ment poin­ter la réduc­tion d’un pro­pos, une perte de com­plexi­té ou de particularité ?

Par ailleurs, il y a beau­coup plus de choses que l’on pense dans le lan­gage qui sont nor­ma­li­sées et stan­dar­di­sées. Notre lan­gage n’est pas seule­ment une sorte de pro­li­fé­ra­tion libre de signi­fiants, mais il s’inscrit dans des formes pré­éta­blies – c’est même la condi­tion de ce qui se rap­proche de la com­pré­hen­sion et du com­mun. Encore une fois, il ne faut pas mythi­fier un lan­gage non tech­nique, exempt de toute méca­nique, ni pen­ser que cette stan­dar­di­sa­tion incarne la mort de tout pro­ces­sus de signi­fi­ca­tion, mais déter­mi­ner ce qui fait la valeur du lan­gage – par exemple dans nos pro­duc­tions cri­tiques, et dans ce que nous vou­lons enseigner.

Une piste est, encore une fois, celle du conflit, y com­pris sur la connais­sance et ce qui tient lieu de connais­sance. C’est bien cela qui est mas­qué dans les dis­cours autour du Big Data comme solu­tion à tout, mais aus­si dans ceux que pro­duit ChatGPT.

Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne "Sortir du vertige artificiel"

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

code