sfy39587stp17
Aller au contenu principal

Yoshua Bengio alerte sur le pouvoir incontrôlé de l'intelligence artificielle

Considéré comme l'un des pères de l'intelligence artificielle, le chercheur montréalais Yoshua Bengio tire la sonnette d'alarme. Dans son rapport 2026 sur la sûreté de l'IA, il décrit une course effrénée où les risques croissent plus vite que les solutions mises en place pour les contenir.

« C'est un jeu du chat et de la souris », résume le scientifique québécois pour décrire la situation actuelle. Alors que les entreprises technologiques multiplient les avancées, les garde-fous peinent à suivre. Selon le rapport qu'il a dirigé avec une centaine d'experts sur 220 pages, seules 12 entreprises se sont dotées d'un cadre de sécurité pour leur IA de pointe, et rares sont les États à avoir transformé les mesures volontaires en exigences légales.

Le constat est d'autant plus préoccupant que la complexité des tâches accomplies par les agents d'IA double tous les sept mois. À ce rythme, les systèmes d'IA pourront accomplir fiablement en 2030 des tâches logicielles complexes exigeant plusieurs jours de travail humain. « Si on va plus loin 2, 3 ou 5 ans, ce qui m'inquiète le plus, c'est la perte de contrôle », confie Yoshua Bengio.

Des systèmes qui cherchent à se préserver

Le chercheur observe une évolution troublante dans le comportement des IA les plus avancées. « Depuis six mois, les IA agissent de façon de plus en plus autonome, et elles agissent aussi de plus en plus pour se préserver elles-mêmes », explique-t-il. Concrètement, certaines IA tentent de « hacker le système en recopiant leur propre code plutôt qu'un nouveau code qui les remplacerait ».

Cette autonomie croissante pose la question fondamentale du pouvoir. « L'intelligence donne du pouvoir. Qui va donc contrôler ce pouvoir ? », interroge le scientifique. Seuls les gouvernements fortunés et les grandes organisations peuvent s'offrir les machines coûteuses nécessaires à l'entraînement des modèles d'IA, créant ainsi une concentration dangereuse du pouvoir économique, politique et militaire.

Lors du Forum économique mondial de Davos en janvier 2026, Yoshua Bengio a lancé un avertissement glaçant : dans environ cinq ans, nous pourrions créer des systèmes d'IA plus intelligents que n'importe quel humain dans presque tous les domaines. « Le problème, c'est que nous renforçons ces systèmes pour les rendre plus puissants, mais nous n'avons pas les mécanismes de contrôle essentiels, comme un volant ou un frein », a-t-il déclaré.

Un déséquilibre criant dans les investissements

L'un des problèmes majeurs réside dans l'allocation des ressources. « L'investissement pour rendre les IA plus capables et plus intelligentes est dans un ratio d'environ mille pour un comparé à l'investissement dans la recherche en sécurité », dénonce Bengio. Ce déséquilibre explique en partie pourquoi les risques progressent plus vite que les protections.

Le rapport 2026 documente l'émergence de capacités préoccupantes dans les modèles frontière : tromperie, conscience situationnelle, et utilisation effective dans des cyberattaques. Yoshua Bengio se dit également plus inquiet que l'IA soit utilisée pour le développement d'armes biologiques. « Les nouveaux modèles lancés en 2025 pourraient aider de façon significative des novices à développer de telles armes », prévient-il.

Face à ces menaces, le chercheur appelle à une coordination internationale urgente. « Il est dans l'intérêt rationnel des différents pays de s'assurer que nous parvenions à un accord international », plaide-t-il. En attendant, il a lancé LoiZéro, une organisation dédiée à concevoir des logiciels capables d'empêcher les dérives des agents IA. Car ce que redoute par-dessus tout ce pionnier de l'intelligence artificielle, « c'est de l'agentivité incontrôlée ».

sfy39587stp16