Quelles interactions peuvent exister entre une nouvelle technologie et les processus démocratiques ?
Tout système technique nouveau reconfigure les appareils politiques et administratifs. Les médias modernes audiovisuels permettent le développement d’une communication de masse. L’imprimerie amplifie et accélère la diffusion des écrits. Mais on peut déjà qualifier l’écriture de technologie puisqu’elle a donné des possibilités nouvelles aux actions humaines. Avec elle, on peut faire des listes, des tableaux, on voit ce que cela modifie la cognition humaine même. Pouvoir échanger par écrit, garder des traces administratives concernant les populations, les récoltes ou la production ouvre des possibilités à la portée politique évidente.
La question est de savoir si les technologies numériques représentent une autre configuration technique, ou s’il s’agit d’une rupture plus grande… Il y a des enjeux spécifiques avec ces technologies-là dans la mesure où ça donne un plus grand rôle à certains acteurs industriels comme les GAFAM que ne l’ont fait les porteurs des technologies passées, et dans des pans toujours plus nombreux des activités humaines.
Avec l’irruption des IA, est-ce qu’il n’y a pas une espèce de fantasme sur l’idée d’automatiser la démocratie et la prise de décision ?
Cette idée selon laquelle on pourrait automatiser les processus démocratiques repose sur l’idée que décider démocratiquement reviendrait à déterminer la meilleure solution technique, celle qui serait la plus efficace. Évidemment, c’est faux, toute question politique renvoie justement à des choix qui ne sont pas réductibles à la détermination d’une « meilleure solution ». Et ce, même pour beaucoup de questions qui peuvent sembler éminemment techniques.
Par exemple, se demander comment organiser un réseau de transport public de la manière la plus efficace pourrait sembler une question technique qu’un algorithme pourrait régler. Cela soulève pourtant déjà un ensemble d’interrogations, de conflits, de choix à effectuer, qui impliquent des intérêts parfois contradictoires et des modèles sociaux différents. De quelle efficacité parle-t-on ? Économique ? Celle de la rentabilité financière qui orientera plutôt sur des lignes à grande vitesse entre grandes villes pour des passagers fortunés et pour des entreprises qui doivent y envoyer leurs employés ? Ou bien d’une efficacité plus sociale, de service public visant à permettre aux citoyens éloignés des centres urbains d’y accéder le plus facilement possible ? Ou bien encore, est-ce qu’on réfléchit d’un point de vue écologique pour réduire le plus possible l’usage de la voiture sur un territoire donné ?
La démocratie se joue spécifiquement là. On est très loin de quelque chose qui pourrait être automatisé par un algorithme calculant la meilleure chose pour tous. Cela renvoie à la fois à des délibérations, mais aussi à différents droits : droit au transport, à l’accès au travail, à l’accès à la culture, etc. Bref, cela pose la question de savoir quel monde on veut collectivement développer. On voit qu’ici il y a quelque chose qui est rejoué par le discours autour des IA mais qui le dépasse, dans ce fantasme de la possibilité d’une automatisation qui nie à la fois la délibération démocratique et la recherche de réalisation d’une série de droits, inhérente à l’aspiration démocratique contemporaine.
Est-ce qu’en faisant passer des questions politiques pour des questions simplement techniques il n’y a pas aussi la volonté d’évacuer le conflit ?
Si on pense qu’il y a une meilleure solution, il y a évacuation de la dimension de choix politique du modèle de société qu’on souhaite. Et ce choix est conflictuel effectivement : il ne s’agit en fait jamais d’une discussion apaisée, mais aussi d’une dimension de confrontation, d’ailleurs au cœur de tout processus de lutte pour les droits. Il est d’ailleurs faux de penser qu’il pourrait y avoir une décision technique qui résoudrait magiquement ces conflits. Les algorithmes, par exemple, ont bien été paramétrés à un moment donné : on a choisi à quoi ils allaient servir ; on leur a donné des critères. Penser qu’il y a là une neutralité peut masquer ces choix. On retrouve quelque part un certain discours gestionnaire, dépolitisant, celui qui dit qu’il n’y a qu’une seule version de l’économie qui doit gérer les choses suivant de bonnes pratiques en laissant de côté les inégalités sociales ou économiques que cela crée.
Ce sont de grandes plateformes capitalistes qui organisent les réseaux sociaux, donc une large part de la possibilité de discuter aujourd’hui. Cela se réalise à l’aide d’algorithmes et suivant des logiques qui leur sont propres et qui visent le profit : garder des gens en ligne le plus longtemps possible, capter leur attention, récolter leurs données, les cibler publicitairement, etc. Cette logique probusiness dans l’expression publique perturbe-t-elle la délibération, la discussion, le débat démocratique ?
Oui certainement, mais il n’a pas fallu attendre le numérique pour constater que des grands groupes de médias porteurs d’intérêts économiques perturbaient l’espace public et ne poursuivent pas spécialement le bien commun. Rappelons-nous de cette fameuse phrase du directeur de la chaine TF1 qui déclarait qu’il vendait avant tout du « temps de cerveau disponible » pour les annonceurs. Ce n’est donc pas du tout nouveau cette idée qu’il y ait des opérateurs qui n’ont pas d’intérêts démocratiques. La question s’est déjà posée avec les médias presse puis audiovisuels. Ne mythifions pas l’avant…
Ce qui a pu être nouveau avec internet, c’est que ça s’est cette fois accompagné d’une utopie selon laquelle on allait libérer les expressions, permettre l’échange citoyen sur des forums, créer plus de débat public, que tout cela serait plus démocratique et plus transparent… La désillusion a été importante. Au-delà du rôle des acteurs industriels, évidemment important, on peut aussi soulever un autre enjeu : on avait sans doute une fausse idée du débat public démocratique comme quelque chose d’immédiat (c’est-à-dire sans médiations) et de transparent, qui s’opérerait pour ainsi dire tout seul. Qu’il suffirait de permettre à des gens de se retrouver sur des espaces en ligne pour que la discussion démocratique se produise.
Le débat public, ça a pourtant toujours été quelque chose qui se construit, quelque chose d’organisé dans certaines sphères, où les personnes parlent avec un certain intérêt, avec certaines médiations. C’est-à-dire à la fois que c’est quelque chose qui n’est pas spontané, mais aussi que ces sphères ont toujours comporté des exclusions. On ne peut pas attendre des réseaux sociaux qu’ils réalisent spontanément ce qu’on ne peut pas faire dans la vraie vie, ce qui n’a jamais existé. Ce n’est donc pas nécessairement la faute du numérique…
Après, il faut tout de même bien constater la forte concentration de pouvoir aux mains de ces acteurs, de ces plateformes. Et du fait des logiques algorithmiques, de valorisation des données, d’une certaine accélération du phénomène. Ainsi, on voit la généralisation de la valeur marchande à des contenus qui ne valent plus seulement pour eux-mêmes, mais pour leur capacité à s’échanger, à susciter des clics, à capter de l’attention… Là-encore, ce n’est pas nouveau, mais cela parait s’intensifier.
Est-ce que n’intervient pas aussi dans la manière dont on s’exprime en ligne la question du projet politique que portent souvent ces plateformes ?
En effet, on fait souvent passer les GAFAM ou autre pour des sortes de vilains très cyniques mais ils sont en fait profondément animés par une vision du monde, une éthique pourrait-on même dire, ce qui ne veut pas dire qu’on la partage ou qu’elle soit bonne. Le cas paradigmatique, c’est Elon Musk [magnat de la Silicon Valley qui possède entre autres Tesla et le réseau X (ex-Twitter) NDLR]. Elon Musk a une vision du monde basée sur le déclin dont il s’agirait de sauver l’humanité – c’est la mission qu’il s’assigne. Il s’agit donc de quelqu’un qui pense connaitre le bien, et qui, pour poursuivre cette idée, s’autorise à passer outre ce qu’il conçoit comme des barrières. Mais son idée du bien s’enracine dans des idéologies bien spécifiques – en l’occurrence, il est proche de courants réactionnaires.
Cette vision du monde s’articule aussi à une importance accordée à une liberté d’expression absolue, dans l’idée que le bien commun vient de l’expression de tout, sans freins. Il faut rappeler l’opposition entre l’Europe où on accepte, pour des motifs démocratiques, une limitation de liberté d’expression (les discours diffamatoires, l’incitation à la haine raciale, etc. peuvent être poursuivis) tandis qu’aux États-Unis, on est dans un autre paradigme, celui du freedom of speech qui protège tout type de discours, y compris d’extrême droite très radicale, notamment nazie, etc. Musk se situe dans ce paradigme d’une façon très extrême. En prenant le contrôle du réseau social Twitter qu’il a rebaptisé X, il a mis fin aux suspensions de compte en vertu de cette idée selon laquelle tout pourrait être dit. Des utilisateur·rices dénoncent depuis la prolifération de messages haineux. On est donc très loin de toute idée de discussion ou de délibération… Mais c’est intéressant de noter que ce n’est pas seulement nié au profit d’une logique de rentabilité, mais aussi d’une certaine vision du monde.
Il y a également l’apparition de nouveaux outils, comme ChatGPT, qui produisent du discours de façon automatique. Cet agent conversationnel produit une sorte de langue de bois qui se rapproche souvent de déclarations de politicien·nes…
ChatGPT produit en tous cas des discours très standardisés. Il fait l’objet de beaucoup d’effroi pour cette raison. Mais il me semble qu’il faut réfléchir cette production machinique de textes dans un contexte plus large. On est dans une époque où on est de plus en plus amenés à produire des discours standardisés. Par exemple, dans la recherche scientifique, les mondes culturels, beaucoup d’entreprises, on doit sans arrêt faire des programmes ce qu’on va faire, annoncer nos activités dans des formats très définis, et puis une fois que c’est fait, évaluer ce qu’on a fait suivant des grilles préétablies. On doit alors se plier à une sorte de mécanique d’écriture technique. Il faut réfléchir ChatGPT dans le cadre de ce mouvement, dont il est symptôme plutôt que la cause – ce qui ne veut pas dire qu’il soit dépourvu d’effets. Il faudrait se demander très soigneusement ce qu’on attend de ces différents textes. Qu’est-ce qui est forcément standardisé – et ce n’est pas toujours un problème ? Où peut-on justement pointer la réduction d’un propos, une perte de complexité ou de particularité ?
Par ailleurs, il y a beaucoup plus de choses que l’on pense dans le langage qui sont normalisées et standardisées. Notre langage n’est pas seulement une sorte de prolifération libre de signifiants, mais il s’inscrit dans des formes préétablies – c’est même la condition de ce qui se rapproche de la compréhension et du commun. Encore une fois, il ne faut pas mythifier un langage non technique, exempt de toute mécanique, ni penser que cette standardisation incarne la mort de tout processus de signification, mais déterminer ce qui fait la valeur du langage – par exemple dans nos productions critiques, et dans ce que nous voulons enseigner.
Une piste est, encore une fois, celle du conflit, y compris sur la connaissance et ce qui tient lieu de connaissance. C’est bien cela qui est masqué dans les discours autour du Big Data comme solution à tout, mais aussi dans ceux que produit ChatGPT.
Retrouvez de nombreuses interventions sur les enjeux sociaux, politiques et environnementaux des intelligences artificielles dans notre grand chantier en ligne "Sortir du vertige artificiel"