L’IA est appelée à devenir un moteur de l’économie mondiale : les entreprises et les pays qui la contrôleront en tireront un soft power considérable.
Débridée par le lancement tonitruant de ChatGPT en novembre 2022, l’intelligence artificielle (IA) est au centre d’une formidable lutte de pouvoir. Ses promesses en matière de productivité et d’emploi aiguisent les appétits commerciaux et géopolitiques : cette technologie se profile déjà comme un redoutable amplificateur des stratégies numériques et des positions de force qui en découlent.
La ruée vers l’IA s’explique d’abord par la taille potentielle du marché que cette technologie représente en elle-même : plus de 300 milliards de dollars en 2027 selon le cabinet IDC, 200 milliards de dollars d’investissements dès 2025 selon Goldman Sachs. D’après cette banque d’investissement, toujours, l’IA générative pourrait ajouter 7 % au PIB mondial d’ici à 2033. Pour que de telles prédictions se réalisent, il faut néanmoins que les entreprises adoptent massivement la technologie, et que celle-ci s’impose au cœur des activités, tous secteurs confondus.
À ce compte-là, elle deviendrait de facto une sorte de système d’exploitation de l’économie tout entière, intermédiant toutes les interactions, et bientôt indispensable du transport à la santé en passant par la finance et l’industrie. Si tel est le cas, les entreprises qui contrôleront la technologie auront tout pouvoir sur l’économie et leurs pays de tutelle en tireront un soft power considérable, sans compter ses applications fondamentales dans les domaines de la cybersécurité, de la défense et de la surveillance de masse.
Qui contrôle l’IA ?
C’est que l’IA ne se limite pas aux activités économiques. Comme le rappelle Nathalie Smuha, juriste et philosophe à l’Université de Leuven (KUL), le pouvoir des algorithmes d’IA s’étend à la manière et à l’ordre dans lequel l’information nous est présentée, à la manière dont les contenus sont filtrés sur les réseaux sociaux, aux données qui servent à entraîner les modèles et au contrôle de toutes sortes d’activités. On touche ici à des choses aussi sensibles que la liberté d’expression, les fake news, la vie privée ou les droits d’auteur. L’influence de l’IA sur l’espace public et le dialogue social est majeure et celles et ceux qui la contrôlent ont déjà acquis un pouvoir analogue à celui d’un législateur.
Or, cette technologie qui envahit le monde est aux mains de quelques entreprises américaines. Derrière les grands modèles de langage qui sous-tendent la déferlante de l’IA générative, on retrouve les suspects habituels : Microsoft s’est rapproché d’OpenAI, concepteur de ChatGPT, jusqu’à prendre possession de 49 % de son capital et faire de Microsoft Azure son fournisseur cloud exclusif ; Amazon aussi, qui investit lourdement dans Anthropic, tout comme Google d’ailleurs, qui s’appuie aussi sur sa filiale DeepMind pour doper son modèle Gemini. Meta prétend jouer la carte du logiciel libre en ouvrant son modèle Llama. Au grand damne de Microsoft, Apple a également passé un accord avec OpenAI.
Pour expliquer cette concentration des modèles commerciaux, celle des talents ne suffit pas. Pour entraîner et faire tourner l’IA – surtout générative –, il faut des données toujours plus nombreuses et une puissance de calcul colossale. Or, ces éléments sont aux mains des quatre mêmes géants numériques. Même le Français Mistral AI, que l’on croyait fer de lance de la souveraineté européenne, s’est acoquiné avec Microsoft, cédant aux chants de sa sirène Azure et externalisant ses ressources informatiques. Le coût de la puissance de calcul nécessaire à l’IA générative pousse inexorablement les entreprises d’IA petites et grandes dans les bras des géants du cloud.
Il faut dire que ces derniers ne ménagent pas leurs efforts. Microsoft prévoit d’investir à elle seule plus de 50 milliards de dollars par an à partir de 2024 dans ses infrastructures de centres de données à travers le monde pour permettre de faire tourner les applications d’IA. À ce rythme-là, en quelques années, Amazon et Microsoft investiraient chacune dans leurs infrastructures propres l’équivalent de tout le programme Apollo. Il n’y probablement pas de précédent à une telle débauche d’investissements d’infrastructure.
Une grande partie de ces montants colossaux profite à Nvidia, l’entreprise américaine qui conçoit les processeurs nécessaires à l’entraînement des modèles. Vendue autour de 40 000 euros l’unité, la puce H100 représente la Ferrari que tout le monde s’arrache. Enfin, pas tout le monde. Les ventes de Nvidia sont très concentrées sur deux régions : Asie et États-Unis représentent plus de 90 % des ventes, et une poignée de clients, 4 ou 5 entreprises, représentent plus de la moitié de son chiffre d’affaires. Celui-ci connaît une croissance vertigineuse depuis quelques années.
Où est l’Europe ?
Qui s’étonnera que toutes les entreprises nommées soient américaines ? Les géants de la tech s’emploient sans relâche à creuser des douves dignes de la Fosse des Mariannes tout autour de leur écosystème, dont l’IA est appelée à devenir le réacteur principal. Cette ambition autour de l’IA, en Chine comme aux États-Unis, précipite des torrents d’argent.
Les géants chinois Alibaba, Tencent et Baidu par exemple ont investi 7 milliards de dollars rien que sur la première moitié de 2024, essentiellement dans les processeurs et l’infrastructure nécessaires à l’entraînement de grands modèles de langage. Des montants certes plus modestes que les géants américains, mais rappelons que des sanctions édictées par Washington interdisent aux entreprises chinoises d’acheter les puces les plus performantes (et onéreuses) de Nvidia. De plus, forte des gigantesques volumes de données provenant de son système de contrôle social, la Chine est particulièrement bien armée dans la course au développement de l’IA.
La réaction de l’Europe n’est pas à la hauteur des enjeux. Malgré ses 43 milliards d’euros (dont seuls 3 représentent en réalité de nouveaux moyens), le Chips Act, approuvé en 2023 pour doper l’autonomie européenne dans les semi-conducteurs, fait pâle figure.
Du CHIPS and Science Act à l’Inflation Reduction Act, l’administration Biden a, elle, déjà libéré 76 milliards de dollars d’argent public, auxquels sont venus s’ajouter 231 milliards d’investissements privés, soit plus de 300 milliards de dollars pour financer recherche, production et formation dans ce même domaine. On ne parle ici encore que des puces, et souvenons-nous que celles qui animent l’IA sont majoritairement conçues par Nvidia en Amérique et produites par TSMC à Taïwan.
En juillet dernier, la Commission a toutefois évoqué le montant de 100 milliards d’euros étalés sur une période de 5 à 7 ans pour créer un « CERN (Centre européen de recherche nucléaire) de l’IA » et doper la recherche européenne dans le domaine. Mais on ne peut dissocier la recherche en IA des questions d’infrastructure et de données. Le budget conséquent proposé par la Commission ira-t-il à la recherche, à l’infrastructure, ou aux deux ? Dans tous les cas, cela risque fort de ne pas suffire.
Les moyens mis en œuvre par la Chine comme les États-Unis dans et autour de l’IA donnent à la fois le tournis et des sueurs froides… À l’heure d’écrire ces lignes, l’Europe est déjà en train de rater le train : moins de 4 % des capacités mondiales de calcul pour l’IA sont situées en Europe, ce qui correspond approximativement à la part de l’Europe dans les ventes de Nvidia. 92 % des données européennes sont stockées dans des centres de données américains et moins de 6 % des investissements privés dans les start-up en IA ont été réalisés dans l’UE.
Pilote ou arbitre ?
Que reste-t-il à l’Europe, sinon la régulation ? Cela tombe bien, Sam Altman, le directeur général d’OpenAI, et ses confrères de Microsoft, IBM et Google appellent justement à réguler l’IA de toute urgence.
La méthode est connue : d’abord brandir la menace d’un péril imminent pour l’humanité (en raison de leur propre innovation, soit dit en passant), ensuite supplier pour qu’on régule, puis influencer la réglementation la plus favorable possible. Comme le législateur « n’a pas la moindre idée de ce qu’il fait » (dixit le sénateur américain Ted Cruz), celui-ci n’a d’autre choix que s’en remettre aux experts… de l’industrie. La capture règlementaire n’est jamais bien loin.
D’ailleurs, le lobbying des géants américains a rarement été si intense qu’au long de la rédaction de l’IA Act européen. Dans quel but ? Celui, par exemple, d’éviter à tout prix que les modèles génériques comme ChatGPT fussent considérés par défaut comme des applications à haut risque et d’en faire porter la responsabilité sur les utilisateurs. Ou, mieux encore, pointer le logiciel libre comme la pire source de risque incontrôlé et militer pour qu’il fût déclaré intrinsèquement suspect. En définitive, l’IA Act prend certes quelques précautions pour éviter d’entraver le logiciel libre, mais soumet celui-ci à des obligations en matière d’audit qui pourraient s’avérer impraticables à terme. À travers sa réglementation innovante, l’Europe n’est-elle pas en train d’attacher aux pieds de son industrie, un lourd boulet bleu et jaune ? La Chine en tout cas ne s’embarrasse pas de tant de précautions quand il s’agit par exemple de déployer la voiture autonome.
Pendant ce temps les velléités réglementaires fleurissent aux quatre coins du monde. Dès novembre 2023, le Royaume-Uni avait accueilli le premier sommet mondial sur la sécurité de l’IA, à Bletchley Park. Entourés d’Elon Musk et Sam Altman, Chine et États-Unis s’étaient engagés avec l’UE à coopérer pour encadrer cette technologie aux possibilités effrayantes.
En parallèle, le G7 avait déjà lancé son processus d’Hiroshima sur l’IA générative tandis que la Chine entamait son initiative mondiale de gouvernance de l’IA dans le cadre de sa stratégie « Belt and Road ». Sur le grand échiquier mondial, l’IA et ses infrastructures sont devenues les nouveaux pions clés et chacun tâche d’imposer ses propres règles à cette nouvelle version du jeu.
Les approches divergent fortement. À travers l’IA Act, l’Europe a opté pour un cadre régulatoire global et transversal fondé sur le niveau de risque posé par l’IA. L’objectif principal est de préserver les droits fondamentaux des citoyens européens. La Chine a choisi de soumettre tous les algorithmes au contrôle de l’État et de les mettre au service des objectifs fixés par le gouvernement, contrôle social en tête. Pékin compte du reste sur « Belt and Road » pour exporter ses technologies de surveillance et de villes intelligentes autant que possible.
Les États-Unis, quant à eux, abordent les choses d’une manière plus décentralisée, se contentant d’arrêtés exécutifs ciblés sur la transparence et la traçabilité plutôt que d’une législation transversale risquant de brider l’innovation.
L’heure des choix
À l’instar du RGPD, peut-être l’IA Act européen s’imposera-t-il comme une sorte de standard international, mais il est périlleux de jurer de quoi que ce soit face à une technologie qui repousse toujours plus vite et loin les limites du possible. Surtout, dans la grande course à l’IA, l’Europe devrait résolument aspirer à mieux qu’au rôle d’arbitre.
Pour influencer le futur, il vaut mieux être acteur de la technologie. Et pour cela, l’Europe va devoir poser des choix. Il ne paraît pas réaliste de rattraper les deux autres grands blocs dans le gigantisme des infrastructures. Pour récupérer un peu de souveraineté, il lui faudra donc opter pour des approches moins gourmandes en calcul, en données et en énergie. C’est d’ailleurs la voie suivie par le Français Mistral AI et l’Allemand Aleph Alpha.
L’heure pour l’Europe est à la formation, à la mutualisation des infrastructures et des efforts, et à la libération de l’innovation et du plein potentiel de nos cerveaux, présents et futurs, pour créer les modèles et les applications de l’IA en phase avec sa vision du futur et ses valeurs.
Nous proposons cet article dans le cadre du Forum mondial Normandie pour la Paix organisé par la Région Normandie les 26 et 27 septembre 2024 et dont The Conversation France est partenaire. Pour en savoir plus, visiter le site du Forum mondial Normandie pour la Paix.