OpenAI veut régler la facture du chaos qu'elle crée elle-même
Le 6 avril 2026, OpenAI a publié un document de 13 pages intitulé Politique industrielle pour l'ère de l'intelligence : Idées pour placer les personnes au centre. Dans ce rapport, l'entreprise qui mène le développement vers la superintelligence propose d'augmenter les impôts sur les gains en capital, de taxer les revenus générés par le travail automatisé, de tester une semaine de travail de quatre jours sans réduction de salaire et de créer un fonds de richesse publique pour que tous les citoyens américains puissent participer à la croissance économique de l'IA. Ce n'est pas rien. Et cela ne vient pas d'un sénateur progressiste ou d'un think tank syndical : cela vient de l'entreprise qui, de l'avis même de ses dirigeants, construit des systèmes capables de surpasser les humains les plus intelligents, même lorsque ces derniers sont assistés par l'IA.
La paradoxe est structurel, pas accidentel. Et en termes de conception de portefeuille d'entreprise, cela révèle quelque chose de plus inconfortable qu'une contradiction politique.
Le document que personne n'attendait de Silicon Valley
Ce qui est le plus remarquable dans ce texte n'est pas son contenu, mais son auteur. OpenAI n'est ni une ONG ni un laboratoire académique. C'est une entreprise qui concurrence directement pour capturer la valeur économique que ses propres propositions de politique publique chercheraient à redistribuer. Le PDG Sam Altman reconnaît dans le document avoir discuté avec un sénateur républicain de haut rang, qui lui a signalé quelque chose qu'on entend rarement dans ce spectre politique : le capitalisme a toujours dépendu d'un équilibre entre le travail et le capital, et l'IA brise cet équilibre de manière rapide et irréversible.
Cette phrase n'est pas simplement rhétorique. C'est un diagnostic opérationnel sur ce qui se passe lorsque la technologie déplace la source de revenus de la majorité tout en concentrant la rentabilité parmi ceux qui possèdent l'infrastructure qui la fait fonctionner. La proposition d'OpenAI tente de répondre par une reconfiguration du système fiscal : moins de dépendance aux impôts sur les salaires — vulnérables aux déplacements de main-d'œuvre — et une plus grande charge sur les bénéfices des entreprises, les plus-values dans les tranches les plus élevées et les rendements soutenus propulsés par l'automatisation. De plus, des incitatifs pour que les entreprises retiennent et requalifient les travailleurs, améliorent les couvertures de santé et de retraite, et expérimentent la semaine de quatre jours liée aux gains de productivité.
Ce n'est pas une proposition négligeable. Et le PDG de JPMorgan Chase, Jamie Dimon, est parvenu à des conclusions similaires : il prédit que l'IA réduira la semaine de travail à trois jours et demi et a demandé un système d'incitation publique et privée pour la reconversion des travailleurs et la retraite anticipée. Lorsque les dirigeants des deux secteurs les plus influents du capitalisme moderne — technologie et finance — convergent vers le même diagnostic, il vaut la peine de prendre au sérieux la mécanique derrière la proposition.
La stratégie de portefeuille derrière la philanthropie politique
Vu de l'extérieur, cela semble de l'altruisme corporatif. Vu du point de vue de la conception organisationnelle, c'est quelque chose de plus calculé : une manœuvre de gestion des risques sur le portefeuille d'activités à long terme.
OpenAI sait que son modèle de revenus actuel dépend d'une adoption massive de ses outils par des entreprises et des individus. Mais cette adoption massive a une limite politique : si le déplacement de la main-d'œuvre provoque une réaction législative incontrôlée, le résultat peut être une réglementation punitive, des tarifs sur les services IA ou des restrictions d'utilisation que personne dans le secteur ne souhaiterait. En proposant elle-même les termes de la redistribution, OpenAI tente de se positionner comme l'interlocuteur raisonnable qui définit le périmètre de la conversation avant que d'autres ne le fassent.
Cela a une logique de portefeuille très claire. Le cœur de métier d'OpenAI — ses modèles commerciaux, les licences d'entreprise, les APIs — est aujourd'hui le moteur de trésorerie qui finance la course vers la superintelligence. Protéger ce moteur implique d'éviter que le contexte politique ne l'étouffe. La proposition de politique publique fonctionne, dans ce sens, comme un bouclier réglementaire pour le cœur des revenus : si Altman appelle à taxer les entreprises comme la sienne, il est beaucoup plus difficile de l'accuser de fuir sa responsabilité sociale.
Le problème est que proposer un impôt sur les gains en capital est facile lorsque votre entreprise n'a pas encore généré les bénéfices que cet impôt frapperait. OpenAI est encore une entreprise en phase d'investissement massif, pas un générateur stable de flux de trésorerie. La proposition a un coût politique actuel presque nul pour ses actionnaires actuels et un bénéfice narratif immédiat considérable. Cela ne la rend pas nécessairement hypocrite, mais rend son architecture fiscale incomplète.
La semaine de quatre jours comme expérimentation de portefeuille, pas comme concession salariale
Il y a un élément dans le document qui mérite une analyse séparée : la proposition de tester une semaine de travail de quatre jours sans réduction de salaire, liée aux augmentations de productivité générées par l'IA. Sur le papier, cela ressemble à une concession généreuse. Mais, en termes de conception d'incitation corporative, c'est autre chose.
Si une entreprise adopte l'IA et que ses employés produisent l'équivalent de cinq jours en quatre, le quatrième jour de congé ne coûte rien à l'employeur en termes de production. Il ne lui coûte en structure salariale fixe que si cette productivité ne se matérialise pas. C'est pourquoi le document ne propose pas la semaine de quatre jours comme un mandat universel, mais comme un projet pilote conditionné à des mesures de productivité. C'est une expérience de validation, pas une concession. L'entreprise conserve le travailleur, réduit la friction politique et maintient ou augmente la production. Si le pilote échoue, il est abandonné. S'il fonctionne, il est étendu.
C'est exactement ainsi qu'une innovation interne réussie devrait être exécutée : avec une autonomie limitée, des mesures d'apprentissage propres et sans étendre les critères d'évaluation d'une opération mature à l'expérimentation. Le problème est que la plupart des entreprises qui adopteront ces recommandations — si un jour elles deviennent politique — n'ont pas l'infrastructure d'IA ou la capacité analytique pour mesurer cet échange avec précision. Pour elles, le projet pilote peut devenir un coût sans retour mesurable.
Le document d'OpenAI suppose implicitement que toutes les entreprises vont capturer de la valeur de l'IA à la même vitesse que celle projetée par OpenAI elle-même. C'est une hypothèse de portefeuille qui n'est pas validée par le marché.
Le portefeuille d'OpenAI a un problème de légitimité, pas d'idées
Les propositions du document ne sont pas techniquement déraisonnables. Taxer le capital plutôt que le travail lorsque ce dernier est automatisé a une logique fiscale cohérente. Créer des fonds de richesse publique avec les retours de l'IA est une idée que des économistes de divers horizons ont explorée pendant des années. La requalification massive des travailleurs est un besoin opérationnel, pas seulement éthique.
Mais il y a un problème de gouvernance dans la conception de tout cela. OpenAI est à la fois le développeur de la technologie disruptive, l'auteur du diagnostic sur les dommages qu'elle cause et le proposeur du remède réglementaire. Cette concentration de rôles au sein d'un seul acteur — sans contrepoids institutionnels indépendants qui valident l'analyse — est exactement le type de goulot d'étranglement organisationnel qui affaiblit toute proposition de politique publique, quels que soient ses mérites techniques.
L'administration Trump a signé en décembre 2025 un décret visant à réduire la réglementation étatique sur l'IA. OpenAI opère dans ce contexte de dérégulation tout en publiant une feuille de route pour se réguler elle-même et réguler ses concurrents. Le cadre bipartisan du document — citant à la fois des républicains et construisant un consensus avec des figures de l'establishment financier comme Dimon — suggère une lecture politique sophistiquée du moment. Mais aucune habileté narrative ne résout le problème de fond : une entreprise ne peut pas être à la fois le principal bénéficiaire d'un processus et l'arbitre le plus fiable de ses conséquences.
La viabilité du portefeuille à long terme d'OpenAI dépend moins de ses propositions fiscales et plus de la question de savoir si le marché et les régulateurs acceptent ce double rôle. Jusqu'à présent, il n'y a aucun signe clair qu'ils le feront.










