Dans une salle d'audience fédérale de Californie, Elon Musk a témoigné jeudi que sa startup d'intelligence artificielle, xAI, a utilisé les modèles d'OpenAI pour perfectionner son propre système, Grok.
La question centrale porte sur la distillation de modèles, une méthode largement répandue dans le secteur. Elle consiste à faire appel à un grand modèle d'IA, jouant le rôle de « professeur », pour transmettre ses connaissances à un modèle plus petit, qualifié de « élève ». Bien que cette technique soit couramment employée en interne par les entreprises pour entraîner leurs propres modèles, elle est aussi parfois détournée par des laboratoires d'IA plus modestes cherchant à reproduire les performances des géants du secteur.
Interrogé sur le stand, Musk a été questionné sur sa connaissance de cette pratique. Bien que les détails précis de l'implication d'OpenAI dans le développement de Grok restent flous, cette révélation éclaire sous un nouveau jour les liens entre les acteurs majeurs de l'IA.
La distillation de modèles soulève des questions éthiques et techniques. D'un côté, elle permet aux petites structures d'accéder à des technologies de pointe sans investir des ressources colossales. De l'autre, elle pose des problèmes de dépendance envers les leaders du marché et de propriété intellectuelle.
Cette annonce intervient dans un contexte de tensions croissantes entre les acteurs de l'IA, où la course à l'innovation s'accompagne de rivalités juridiques et commerciales. Les révélations de Musk pourraient avoir des répercussions sur les procédures en cours, notamment celles opposant xAI et OpenAI.