San Francisco — Une avancée majeure dans le domaine de l'intelligence artificielle (IA) se profile à l'horizon. Anthropic, l'un des laboratoires les plus influents en matière de sécurité et d'éthique de l'IA, affirme observer les premiers signes d'une technologie capable non seulement de développer ses propres produits, mais aussi de se perfectionner elle-même.
Selon Jack Clark, cofondateur d'Anthropic et directeur de l'Anthropic Institute, il existe désormais plus de 60 % de chances qu'un modèle d'IA soit capable d'entraîner son successeur d'ici la fin de l'année 2028. « Ce que j'observe, c'est une tendance technologique où, au contraire, l'accélération ne fera que s'intensifier », a-t-il déclaré lors d'un entretien exclusif.
Dans son dernier rapport de recherche, rendu public ce jeudi, Anthropic détaille les prémices d'un phénomène appelé amélioration récursive : l'IA contribuerait à accélérer sa propre recherche et développement. Une première dans l'histoire de la technologie.
« D'ici la fin 2028, il est plus probable qu'improbable que nous disposions d'un système d'IA auquel on pourrait dire : *‘Crée une version améliorée de toi-même’* — et qui le ferait de manière totalement autonome », explique Clark depuis le siège d'Anthropic à San Francisco. « Jusqu'à présent, les idées d'amélioration devaient émaner d'humains en dehors du système. Mais si une technologie peut générer elle-même des idées pour s'améliorer, cela change radicalement la donne. »
Le rapport de cinq pages, intitulé « Intelligence Explosion : Early Signs and Implications », alerte sur les risques et les opportunités d'un tel scénario. Une explosion d'intelligence, terme jusqu'alors confiné aux cercles spécialisés en sécurité de l'IA, devient soudainement un sujet d'étude officiel.
Pour Clark, une explosion d'intelligence survient lorsque les systèmes d'IA s'améliorent à un rythme vertigineux. Les conséquences pourraient être à la fois catastrophiques — cyberattaques massives, manipulations biologiques — et bénéfiques, comme une accélération sans précédent dans des domaines scientifiques variés.
« Comment gérer une croissance exponentielle dans de nombreux champs scientifiques simultanément ? », s'interroge-t-il. « Aujourd'hui, les institutions disposent de canaux étroits pour tester de nouveaux médicaments. Comment élargir ces canaux à l'échelle de cette abondance future ? »
L'Anthropic Institute, à la fois bras de recherche et système d'alerte précoce, publie aujourd'hui son agenda de recherche, élaboré en collaboration avec le Long-Term Benefit Trust d'Anthropic. Ce document se structure autour de quatre axes principaux :
- Diffusion économique : impact sur l'emploi, la productivité et la répartition des gains.
- Menaces et résilience : risques cyber, biologiques et de surveillance.
- Systèmes d'IA dans la nature : agents autonomes et gouvernance.
- Recherche et développement pilotés par l'IA : l'enjeu de l'amélioration récursive.
Anthropic s'engage à publier des analyses détaillées sur l'impact de ses outils d'IA sur ses propres processus de recherche, ainsi que sur les implications d'une amélioration récursive autonome. En d'autres termes, le laboratoire promet de tenir le public informé dès que la machine commencera à se construire elle-même.
Face à cette perspective, une question se pose : les entreprises spécialisées en IA seront-elles encore nécessaires si l'IA devient capable de s'auto-améliorer ? « Notre rôle, ainsi que celui des autres acteurs du secteur, consiste à utiliser cette technologie pour œuvrer en faveur du bien commun », répond Clark. « Aider à faire progresser la biologie, la médecine ou d'autres domaines essentiels. »