OpenAI dépense des millions en relations publiques tandis que le problème de fonds perdure

OpenAI dépense des millions en relations publiques tandis que le problème de fonds perdure

L'achat d'un podcast et l'ouverture d'un bureau à Washington ne règlent pas l'érosion de la confiance déjà documentée par les sondages.

Camila RojasCamila Rojas12 avril 20267 min
Partager

OpenAI dépense des millions en relations publiques tandis que le problème de fonds perdure

Cette semaine, OpenAI a publié un document de 13 pages intitulé Politique industrielle pour l'ère de l'intelligence, a acquis un réseau de podcasts technologiques appelé TBPN et a annoncé l'ouverture d'un bureau à Washington D.C. dédié à ce que les législateurs et les organisations à but non lucratif 'apprennent sur leur technologie'. Tout cela alors que les sondages continuent de documenter une tendance marquée : la désapprobation publique envers l'intelligence artificielle ne cesse de croître.

La lecture superficielle de ces mouvements est celle d'une entreprise mature agissant comme le font les entreprises matures : se doter d'influence, cultiver une narration et gérer la perception. La lecture stratégique est nettement plus inconfortable.

Quand le message devient le produit

Il y a une différence entre communiquer de la valeur et la produire. OpenAI fait la seconde chose, et le marché finira par remarquer la distinction.

Le document sur la politique industrielle qu'ils viennent de publier prône une 'réinvention du contrat social' avec des idées qu'ils qualifient eux-mêmes d'"orientées vers les personnes". C'est le genre de langage qui sonne bien lors d'un panel à Davos et qui ne change absolument rien à l'expérience des utilisateurs dont le travail a été déplacé, ou des créateurs dont le contenu a été utilisé pour entraîner des modèles sans leur consentement. L'écart entre ce que le document proclame et ce que les sondages enregistrent n'est pas un problème de communication. C'est un problème d'architecture de valeur.

Ce qui me semble stratégiquement révélateur, ce n'est pas qu'OpenAI investisse dans une narration, mais ce que cet investissement indique sur sa position compétitive. Les entreprises ayant une proposition de valeur solide n'ont pas besoin de 13 pages pour expliquer pourquoi elles méritent d'exister. Celles qui en ont besoin sont généralement en réponse à une pression que leurs produits n'ont pas réussi à résoudre. L'acquisition de TBPN renforce cette lecture : quand tu achètes l'accès à un public au lieu de le gagner avec ton produit, tu reconnais implicitement que ton produit ne génère pas suffisamment d'adhésion organique.

La mise en avant de Washington D.C. a une logique différente, mais tout aussi symptomatique. Un espace physique pour que les législateurs 'discutent de la technologie de l'entreprise' est, en termes pratiques, une infrastructure de lobbying avec un meilleur design intérieur. Ce n'est pas mauvais en soi —toute industrie ayant un impact réglementaire a besoin d'une présence dans les centres de décision politique—, mais le positionner comme un geste d'ouverture et d'éducation alors que les sondages montrent déjà une méfiance active est un pari qui pourrait mal tourner. Les législateurs lisent aussi les sondages.

La variable que personne n'élimine

Le problème structurel de l'industrie de l'IA en ce moment n'est pas la perception publique. C'est que la plupart des entreprises du secteur sont en compétition sur les mêmes variables —vitesse de traitement, volume de paramètres, capacité multimodale— tout en ignorant systématiquement les variables qui comptent pour les segments qui n'ont pas encore adopté ces outils.

Les sondages de désapprobation ne sont pas un bruit aléatoire. Ce sont des signaux d'une demande non satisfaite. Il existe des segments entiers d'utilisateurs, de professionnels et d'organisations qui seraient prêts à adopter des outils d'IA si la proposition s'accompagnait d'une transparence sur les données d'entraînement, de mécanismes de compensation pour les créateurs de contenu original, de garanties légales sur les droits d'auteur, et d'une courbe d'apprentissage qui ne nécessite pas d'avoir un doctorat en ingénierie pour bien calibrer les résultats.

Aucune de ces variables n'apparaît dans le document de politique industrielle d'OpenAI. Ce qui y figure, c'est un appel à 'réinventer le contrat social', qui est une façon élégante de demander à la société d'ajuster ses attentes plutôt que d'ajuster le produit.

La Dr Rebecca Swift, de Getty Images, l'articule avec précision depuis la tranchée du contenu visuel : lorsque tout commence à se ressembler, les audiences cessent de regarder. Ce n'est pas seulement un problème esthétique. C'est un problème de rétention, et la rétention est le moteur de tout modèle d'abonnement ou plateforme de données. L'homogénéisation des résultats de l'IA n'est pas un bug, c'est le résultat prévisible d'une optimisation pour la vitesse et l'échelle sans rien sacrifier dans la colonne des coûts. Et la réponse de l'industrie jusqu'à présent a été de générer plus de résultats, plus rapidement, avec moins de friction. Le cycle se renforce.

Le coût de valider trop tard

Il existe une mécanique financière que les grandes entreprises technologiques ont tendance à ignorer jusqu'à ce qu'il soit trop tard : le coût de repositionner une marque qui a déjà suscité des anticorps sur le marché est exponentiellement plus élevé que le coût de construire une confiance dès le départ.

OpenAI n'en est pas encore à ce stade, mais la trajectoire est importante. Chaque euro dépensé en podcasts, documents de politique et espaces de lobbying au design sophistiqué est un euro qui n'a pas été consacré à résoudre les problèmes concrets générant une désapprobation. Et contrairement à l'infrastructure technique, qui génère des actifs amortissables, les dépenses de narration ont une durée de vie très courte lorsqu'elles ne sont pas soutenues par des changements substantiels dans le produit ou dans la conduite d'entreprise.

L'analyste Brittany Ellich anticipe que le sentiment anti-IA pourrait probablement s'aggraver avant d'améliorer, et que la récupération viendra par le chemin de l'honnêteté pratique : reconnaître ouvertement ce qui ne fonctionne pas et à quoi sert la technologie. Cette thèse a une solidité empirique. Les marchés répondent bien à la spécificité honnête et très mal aux promesses larges qui ne se maintiennent pas dans l'usage quotidien.

Ce que l'industrie a devant elle n'est pas un problème d'image. C'est une occasion de redessiner sa proposition à partir des variables qui sont aujourd'hui délibérément ignorées parce qu'elles semblent coûteuses à mettre en œuvre. La transparence dans les données d’entraînement, la compensation des créateurs, les garanties légales pour les entreprises adoptant ces outils : chacune de ces variables a un coût réel, mais elle a aussi un marché qui paierait pour elle. Un marché qui, aujourd'hui même, choisit de ne pas adopter l'IA parce que personne dans le secteur n'a eu la discipline d'éliminer les frictions qui importent plutôt que d'accumuler des capacités que personne ne peut distinguer.

Le leadership que la situation exige n'est pas d'éditer un document de 13 pages sur le contrat social. C'est d'avoir la conviction de changer les variables de la proposition avant que le marché ne l'oblige à le faire, et de le faire à partir d'engagements concrets validés avec des utilisateurs réels, pas avec des législateurs dans un bureau bien décoré à Washington. Brûler du capital dans la narration pour défendre une position que le produit ne justifie pas encore n'est pas une stratégie ; c'est une gestion du temps avant l'ajustement inévitable.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer