L’intelligence artificielle (IA) suscite des craintes croissantes, non seulement dans l’imaginaire collectif avec des scénarios catastrophiques comme Skynet ou HAL 9000, mais aussi dans des réalités plus concrètes : risques pour les infrastructures, la vie privée, la sécurité ou encore la frontière entre sphère publique et privée. Pendant des années, les géants de la tech ont privilégié l’accélération à la régulation, malgré les débats houleux sur leurs conséquences. Pourtant, une tendance nouvelle émerge : certaines entreprises commencent à dire non.

Des modèles trop dangereux pour être rendus publics

Anthropic, une entreprise spécialisée dans l’IA, a récemment annoncé qu’elle ne rendrait pas accessible au grand public Claude Mythos Preview, un modèle de pointe qu’elle qualifie de particulièrement puissant. Selon ses propres évaluations, ce système a déjà identifié des milliers de vulnérabilités critiques, touchant tous les principaux systèmes d’exploitation et navigateurs web.

Plutôt que de le diffuser largement, Anthropic a choisi de le réserver à un consortium restreint. Parmi ses membres figurent des acteurs majeurs comme Amazon Web Services, Apple, Google, Microsoft, NVIDIA et d’autres entreprises clés de l’infrastructure logicielle critique. L’objectif affiché est défensif : utiliser ce modèle pour détecter et corriger des failles catastrophiques avant que des acteurs malveillants ne s’en emparent.

Cette décision, baptisée Project Glasswing, relève en partie de l’intérêt bien compris. En contrôlant l’accès à ce modèle, Anthropic se positionne comme un acteur responsable plutôt qu’un simple fournisseur de technologies non régulées. De plus, cette approche limite la course à l’innovation entre concurrents, ralentissant ainsi la diffusion de capacités potentiellement dangereuses.

Dans une industrie où la règle était autrefois : « tout ce qui est techniquement possible doit être déployé », le fait qu’un acteur majeur juge un modèle trop puissant pour être libéré marque un tournant significatif.

L’IA militaire : où tracer la ligne rouge ?

Cette prudence s’est également manifestée lors d’un conflit récent entre Anthropic et le Pentagone. L’entreprise a clairement défini deux exceptions majeures à l’utilisation militaire de ses modèles : la surveillance de masse sur le territoire national et les armes autonomes.

Sur le premier point, Dario Amodei, PDG d’Anthropic, a mis en garde contre le risque de voir l’IA transformer des données commerciales en « une image exhaustive de la vie de n’importe quel individu, automatiquement et à grande échelle ». Concernant les armes autonomes, il a souligné que les systèmes actuels « ne sont pas assez fiables pour automatiser entièrement la sélection et l’engagement de cibles sans intervention humaine ».

Si Anthropic accepte de collaborer avec le gouvernement sur des missions conventionnelles, son refus de supprimer ces garde-fous a provoqué une réaction hostile. Le secrétaire à la Défense, Pete Hegseth, a qualifié l’entreprise de « menace pour la sécurité nationale », illustrant les tensions croissantes entre innovation technologique et éthique militaire.

Un changement de paradigme dans la tech ?

Cette prise de position d’Anthropic reflète une évolution plus large dans le secteur. Après des années de développement effréné, certains acteurs commencent à reconnaître les dangers systémiques de l’IA. En limitant volontairement l’accès à des outils trop puissants, ces entreprises cherchent à éviter des scénarios où la technologie échapperait à tout contrôle.

Cependant, cette approche soulève des questions : jusqu’où doit aller la régulation ? Qui décide quels modèles sont trop risqués ? Et comment concilier innovation et sécurité sans étouffer le progrès ? Une chose est sûre : l’ère où l’IA était déployée sans frein semble toucher à sa fin.

Source : Reason