L’IA menace-t-elle la démocratie ? Dans le cadre du sommet de l’IA des 7 et 8 février, sommet mondial à Paris, nous avons analysé le lien entre l’intelligence artificielle et la démocratie. Quelles sont les opportunités de l’intelligence artificielle pour améliorer nos communs démocratiques, nos services publics, mais aussi quels en sont les dangers ? Quelles sont les mesures de protection que nous devons prendre ? Et surtout, quels sont les acteurs qui réfléchissent à ce lien IA et démocratie ? Je m’appelle Yann Algan, je suis professeur d’économie à HEC et doyen associé des programmes pré-expérience, c’est-à-dire de l’ensemble des programmes de formation initiale, dont la Grande École. Nous avons mis en place une étude totalement inédite. Avec Gilles Babinet, nous avons recensé les 100 initiatives de par le monde qui réfléchissent à ce lien entre IA et démocratie. Trois chiffres clés. Premièrement, l’essentiel des initiatives sont soit dominées par la société civile et les fondations, soit par des entreprises privées. Les États et les universités sont très minoritaires. Deuxième grand message : la réflexion se fait surtout aux États-Unis, malheureusement plus qu’en Europe ou dans les autres pays. Troisième grand enseignement : ce sont surtout les grands géants de la tech qui investissent de façon disproportionnée dans ces enjeux de l’IA sur la démocratie, ce qui pose naturellement des problématiques de souveraineté, mais aussi de privatisation de la démocratie. C’est le moment de reprendre le pouvoir. Il n’y a pas de fatalité sur les technologies. Elles peuvent être une opportunité, mais seulement si les citoyens et les pouvoirs publics s’en saisissent. Notre recherche démontre trois grands ensembles d’initiatives qui représentent, d’une certaine façon, trois visions du monde de la civilisation en marche, de la civilisation qui vient. Le premier ensemble concerne surtout la protection de la démocratie. Ce sont des initiatives, surtout initiées par la société civile ou par les États, qui soulignent les dangers que fait porter l’intelligence artificielle sur la démocratie : en termes de deepfake, de polarisation des débats, de montée en émotion de l’ensemble des citoyens plutôt que de réflexion, avec des questions aussi de santé mentale. Sommes-nous à l’aube du prochain crétin digital et de pouvoirs politiques qui jouent uniquement sur les émotions ? Il faut donc des garde-fous, et vous avez tout un ensemble d’initiatives qui essayent justement de proposer des dispositifs pour protéger la démocratie de l’intelligence artificielle. Le deuxième grand ensemble, plus optimiste, consiste à essayer de tirer parti des opportunités extraordinaires de l’intelligence artificielle. Les êtres humains sont aussi victimes de biais lorsqu’ils prennent des décisions dans le secteur public, comme dans des secteurs régaliens tels que la justice. L’intelligence artificielle représente des opportunités de communautés collaboratives pour prendre des décisions beaucoup plus efficaces et pour partager l’ensemble des recommandations de citoyens à des échelles très larges. Ce sont potentiellement des avancées. On a vu, en plus, récemment qu’on peut avoir aussi de l’intelligence artificielle à bas coût et en open source — même si cela pose des problèmes, puisque c’est une intelligence artificielle chinoise — mais voilà le champ des opportunités possibles. Et puis vous avez une troisième vision, surtout dominée par les géants de la tech américaine, qui est celle d’une démocratie beaucoup plus libertarienne. Il faut vraiment avoir à l’esprit le substrat idéologique de personnes comme Thiel, le grand penseur associé à Elon Musk, qui vous dit que, finalement, la liberté est plus importante que la démocratie. L’intelligence artificielle, c’est la preuve d’efficacité, et il ne faut surtout pas avoir de garde-fous politiques. On est là dans une vision de la Silicon Valley. Dans cette note, avec Gilles Babinet, nous proposons une position équilibrée : il s’agit bien sûr de tenir compte des dangers potentiels de l’intelligence artificielle, mais aussi des opportunités. Il faut que la démocratie prenne soin de l’intelligence artificielle, et il faut que l’intelligence artificielle prenne soin de la démocratie. Nous proposons donc quelques recommandations. J’en citerai juste quelques-unes. Premièrement, la problématique de la crise des démocraties représentatives n’a rien à voir avec l’intelligence artificielle. Elle vient de la colère des citoyens, et il faut y répondre concrètement. Face au dérèglement de notre système, on a aussi une montée en émotions de nos citoyens. Nous sommes dans des sociétés post-industrielles d’individus isolés, seuls. Il faut retrouver des processus de socialisation, il faut recréer une démocratie en chair et en os, pas uniquement une démocratie algorithmique. Troisième recommandation : il faut que les citoyens profitent de ces opportunités, mais se ressaisissent aussi du pouvoir sur ces algorithmes. Ils doivent être open source, ils doivent être auditables. On peut créer des parlements de citoyens sur l’ensemble de ces algorithmes. Et puis, ma quatrième recommandation, c’est l’éducation. C’est la mère des batailles. Il s’agit absolument d’acculturer à l’intelligence artificielle l’ensemble des citoyens, et ce dès le plus jeune âge. Mais il faut aussi, dès le plus jeune âge, apprendre à travailler ensemble, à travailler en groupe pour recréer de la confiance et une démocratie résiliente. Quelles que soient les révolutions technologiques, HEC apporte sa pierre à ce débat dans de très nombreux domaines, mais aussi dans celui de la réflexion sur la gouvernance et sur la démocratie. Dans nos enseignements, nous formons l’ensemble de nos étudiants sur les questions d’intelligence artificielle : comprendre comment les algorithmes fonctionnent, en quoi ils consistent, en quoi ils représentent de véritables opportunités dans les systèmes de gouvernance, mais aussi quelles doivent être les garde-fous. Nous avons également énormément investi dans la recherche sur ces problématiques, dont l’une des traductions est ce rapport.