L’intelligence artificielle, souvent présentée comme la révolution technologique la plus prometteuse de notre époque, peine à convaincre le grand public américain. Selon les dernières enquêtes du Pew Research Center, une majorité de citoyens reconnaissent son importance, mais expriment davantage de craintes que d’enthousiasme, notamment concernant son impact sur la créativité et les relations humaines.

Les sondages de Quinnipiac confirment cette tendance : malgré une adoption croissante, l’opinion se dégrade. Les craintes portent sur la perte d’emplois, la triche, les conseils douteux, la consommation énergétique excessive, voire des scénarios catastrophiques, incluant l’extinction de l’humanité. En mars 2024, 57 % des Américains interrogés par NBC estimaient que les risques de l’IA dépassaient largement ses avantages.

Plusieurs facteurs expliquent cette défiance, mais l’un des plus marquants réside dans la communication des leaders du secteur. Prenez l’exemple d’Anthropic, qui a récemment restreint l’accès à son nouvel outil de cybersécurité Mythos, jugé trop puissant pour une diffusion massive, au risque de tomber entre de mauvaises mains. Sam Altman, PDG d’OpenAI, a qualifié cette décision de « marketing basé sur la peur ». Pourtant, quelques semaines plus tard, OpenAI a lancé son propre outil de sécurité… en limitant également son accès.

Cette approche paradoxale illustre un phénomène récurrent dans l’industrie : les entreprises d’IA semblent déterminées à rappeler, à chaque nouvelle sortie, les dangers potentiels de leurs produits. Si cette stratégie s’inscrit dans un cycle marketing classique, elle interroge. Peut-être que l’insistance des dirigeants à souligner les risques de l’IA n’est tout simplement pas la meilleure façon de rassurer le public. L’attaque au cocktail Molotov contre la résidence d’Altman en est peut-être le symbole le plus frappant.

Un discours alarmiste récurrent

Cette tendance au pessimisme n’est ni isolée ni récente. En mars 2023, lors du lancement de GPT-4, OpenAI a publié un rapport technique détaillant non seulement les avancées technologiques, mais aussi une section entière dédiée aux risques d’usage malveillant, comme la fabrication de bombes ou de produits chimiques dangereux. Peu après, des centaines de chercheurs et dirigeants du secteur, dont ceux d’Anthropic, Google DeepMind et OpenAI, ont signé une lettre ouverte mettant en garde contre des risques d’extinction comparables à ceux des armes nucléaires.

De nombreux dirigeants, dont Elon Musk, ont plaidé pour une régulation gouvernementale. Pourtant, OpenAI a été fondée en tant qu’organisation à but non lucratif précisément parce que sa technologie était considérée comme trop risquée pour être développée sans contrôle. Si la transparence sur les dangers de l’IA est indispensable, on peut légitimement se demander si les équipes marketing de ces entreprises ne laissent pas la peur et le catastrophisme définir leur image de marque.

Une communication qui peine à convaincre

Malgré l’afflux de publicités liées à l’IA lors du Super Bowl 2024, la plupart des messages restaient trop génériques (« Vous pouvez tout construire »), sans ancrage concret dans le quotidien des utilisateurs. Pourtant, c’est à ce niveau que l’adoption de l’IA pourrait progresser : en mettant en avant des bénéfices tangibles pour les consommateurs, plutôt qu’en alimentant un discours anxiogène.

Les entreprises du secteur semblent prises entre deux impératifs : d’un côté, l’obligation de transparence sur les risques, et de l’autre, la nécessité de rassurer et de séduire. Jusqu’à présent, leur stratégie penche clairement vers le premier point, au détriment de leur image.