La computation IA entre dans la paie et change le recrutement
L'idée fait son chemin à Silicon Valley : payer une partie de la rémunération des ingénieurs avec de la "compute" IA, c'est-à-dire un accès garanti à la capacité de GPU et à l'inférence. Business Insider a résumé cela par l'expression "AI compute as compensation", et l'élément clé n'est pas tant que ce soit une idée innovante, mais plutôt le contexte opérationnel qui la rend plausible. La demande pour les talents en IA a explosé, enregistrant une croissance de 257% des offres d'emploi depuis 2015, et les rémunérations sont recalibrées autour des spécialités et de la rapidité d'exécution : le salaire médian pour les talents en IA aux États-Unis approche 160.000 dollars par an, avec d'importantes primes pour les profils LLM, MLOps ou en matière de sécurité et d'alignement. Parallèlement, le coût des infrastructures devient moins un enjeu technique qu'un facteur financier déterminant pour établir quel produit peut être vendu avec quelle marge.
Dans ce choc entre talents coûteux et infrastructures très onéreuses, l'accès à la computation se transforme en monnaie d'échange. Pour un ingénieur, disposer d'un "budget" de GPU peut signifier itérer plus rapidement, entraîner ou évaluer des modèles sans files d'attente internes et transformer des idées en livrables. Pour l'entreprise, c'est un moyen de rivaliser pour des candidats sans alourdir immédiatement ses coûts ou son capital. La nouvelle indique que Greg Brockman, président et cofondateur d'OpenAI, a été impliqué dans ces discussions. Ce détail est important car il révèle : quand une entreprise dont le cœur de métier est l'IA évoque la computation comme compensation, elle admet que la ressource rare n'est plus seulement l'ingénieur, mais le droit d'utilisation de la machine.
La "compute" comme salaire face à deux raretés
La première rareté est celle du talent. Les chiffres du marché décrivent une économie de primes : les rôles en IA paient 28% de plus que les postes technologiques traditionnels ; les spécialistes en LLM gagnent 25% à 40% de plus que les généralistes en ML ; les MLOps ont un surcoût de 20% à 35% ; et la sécurité/aligne¬ment a subi une augmentation de 45% depuis 2023. Dans ce contexte, la compensation ne se limite plus à la base + prime + actions, mais devient toute levier qui augmente la valeur perçue par le candidat. Si le travail de l'ingénieur dépend d'un accès à un GPU, cet accès lui-même devient une partie intégrante du package.
La seconde rareté réside dans les infrastructures. OpenAI, selon le briefing, doit faire face à 80 milliards de dollars d'engagements différés avec des échéances en 2026 et un accord de computation avec Microsoft évalué à 250 milliards, avec des paiements potentiels de plusieurs centaines de milliards d'ici 2030. Il est également mentionné qu'en 2026, une année de tension financière se profile à cause du poids des comptes d'infrastructure, même avec 20 milliards de revenus en 2025 et une levée de 41 milliards dirigée par SoftBank à l'horizon 2026. Bien que toutes les entreprises ne se trouvent pas à ce stade extrême, le schéma se reproduit à moindre échelle : pour faire de l'IA, les dépenses en computation peuvent rivaliser avec les salaires et absorber les marges.
Lorsque ces deux raretés coexistent, apparaît l'incitation à re-étiqueter ce qui était auparavant un coût de plateforme en avantage pour l'employé. Ce n'est pas qu'une question cosmétique. C'est une manière d'attribuer une ressource rare avec des règles explicites, et de l'utiliser comme mécanisme d'attraction et de rétention.
La mécanique économique derrière le paiement en GPU
Payer avec de la computation ne signifie pas que le coût disparaît. Cela signifie qu'il change de place dans le modèle et, surtout, change la conversation de recrutement : l'entreprise promet un input qui accélère les résultats. Ce mouvement a trois implications opérationnelles.
D'abord, transforme un goulet d'étranglement interne en argument commercial pour les RH. Dans de nombreuses organisations, l'accès aux GPU est centralisé, avec des files d'attente, des approbations et des frictions. Un candidat compétent, qui peut se rendre dans une entreprise avec de meilleurs outils ou plus de liberté, apprécie l'autonomie. Offrir de la compute affectée à un rôle est offrir une autonomie productive. Étant donné que l'IA amplifie l'impact individuel, cela s'inscrit dans le tournant observé dans la Big Tech vers un paiement basé sur l'impact : Meta avec son programme ``Checkpoint`` et des bonus atteignant 300% de l'objectif, Google augmentant les bonus et les actions pour les meilleurs performeurs, Amazon permettant de dépasser les plafonds des échelles de salaires. La computation comme compensation est en accord avec ce même principe : récompenser ceux qui produisent plus en leur donnant plus de capacité.
Ensuite, transforme un coût difficile à prédire en un budget attribuable. Les dépenses en inférence et formation peuvent exploser en raison de l'utilisation, de l'expérimentation et d'une discipline d'évaluation déficiente. Si l'entreprise définit la computation comme partie intégrante du package, elle est contrainte de la mesurer, de la budgétiser et d'auditer son retour. Cela peut sembler positif, mais cela requiert une maturité financière : sans contrôle, le "bénéfice" se transforme en subvention ouverte.
Enfin, redéfinit le risque lié à la trésorerie. Pour une startup sans ressources financières robustes, promettre de la computation équivaut à promettre un coût variable futur. Cela peut permettre de conclure une embauche sans augmenter le salaire aujourd'hui, mais crée un passif opérationnel. En cas de stress, la première coupe se fait généralement au niveau de l'accès à la computation, ce qui impacte la productivité et l'ambiance. C'est pourquoi, si la compute est offerte dans le cadre de la compensation, elle doit être considérée comme une obligation contractuelle interne avec des règles claires.
Ce que cela révèle sur la gouvernance et le design organisationnel
Ce phénomène ne concerne pas seulement le recrutement ; il soulève la question de la gouvernance du travail dans les équipes IA. Lorsque la computation devient un salaire, le CFO et le leader technique partagent une nouvelle frontière : définir qui a le droit de consommer quelle quantité de capacité et selon quels critères.
Dans la pratique, cela pousse vers des modèles d'organisation plus plats et orientés vers la contribution individuelle. Le briefing cite Zuhayeer Musa (Levels.fyi) concernant la montée des "player-coach", des profils qui livrent des résultats tout en mentorant sans avoir besoin de gérer une grande équipe. L'IA rend ce profil plus rentable : une personne avec de solides outils, un bon jugement et un accès à la computation peut couvrir une part importante du travail qui nécessitait auparavant plus de personnel. Dans cet environnement, l'entreprise cherche des mécanismes pour attirer ce profil sans gonfler ses structures. La computation attribuée est un mécanisme qui augmente le potentiel de l'individu sans ajouter de nouvelles couches.
Mais le coût est celui de la gouvernance. Lorsque la computation est "dans la paie", des tensions internes prévisibles apparaissent : iniquité perçue entre les rôles, disputes pour les attributions, et la tentation d'utiliser la computation comme un prix politique plutôt que comme un budget de production. La solution pour éviter cela n'est pas culturelle, mais comptable et opérationnelle : règles d'attribution par projet, mesure de la consommation, et connexion explicite avec les livrables.
Il y a aussi un deuxième ordre : si la compute est attribuée aux individus, l'entreprise doit se protéger contre une utilisation qui ne correspond pas aux priorités commerciales. Pas par défiance, mais par souci économique. L'expérimentation est précieuse, mais à grande échelle, elle peut représenter une fuite de marge. Un design sain a tendance à séparer la "compute de production" de la "compute d'exploration", avec des limites et un reporting.
L'impact sur le modèle commercial des startups et des grandes entreprises tech
Pour les grandes entreprises technologiques, cela s'inscrit dans une stratégie de concentration des talents : payer plus à moins de personnes, leur fournir de meilleurs outils, et exiger un impact. On observe déjà des structures où les meilleures peuvent dépasser les échelles salariales ou recevoir des bonus exceptionnels. Si l'on ajoute à cela une computation garantie, le package devient plus défendable : ce n'est pas seulement de l'argent, c'est une capacité d'exécution.
Pour les startups, la lecture est plus délicate. Dans des marchés où Meta peut offrir des packages proches de sept chiffres pour des profils seniors et où des startups en Série D proposent 2 à 4 millions en actions pour des chercheurs de haut niveau, il est difficile de rivaliser seulement avec des actions. Offrir de la computation peut faire la différence, mais seulement si la startup a une thèse produit claire et une économie unitaire disciplinée. Si le produit ne monétise pas rapidement, la computation “offerte” peut devenir un accélérateur de la consommation de capital.
On voit ici l’importance des ventes dès le premier jour : lorsque le coût variable dominant est la computation, l'entreprise qui ne facture pas rapidement subventionne chaque utilisateur et chaque expérience interne. Le briefing mentionne des projections de trous financiers liés à des subventions d'utilisation et à des engagements de data centers de grande envergure. Il n'est pas nécessaire d'être à la taille d'OpenAI pour subir les mêmes défis proportionnellement.
La conséquence probable est un marché du travail où une partie de la rémunération se négocie en unités non salariales : accès à des modèles, à des données et à de la computation. Cela peut améliorer la productivité, mais durcit également la compétition : les entreprises disposant de meilleures infrastructures recrutent mieux, tandis que les autres se retrouvent à payer plus en espèces pour moins de capacité d'exécution.
La direction que prend le marché de l'emploi en IA
Ce changement anticipe une réalité : l'infrastructure fait partie du poste, et non seulement du stack technologique. À court terme, il deviendra plus courant de voir des offres d'emploi spécifiant des budgets de computation, un accès à des clusters internes ou des crédits auprès de fournisseurs. Non pas parce que c'est une "tendance", mais parce que c'est un langage qui se connecte à la productivité.
Pour le niveau C, le critère n'est pas de savoir si cela sonne moderne. Le critère est de savoir si le package de rémunération est en adéquation avec l'architecture financière et le mécanisme de livraison. Si on propose de la computation comme salaire, il doit exister une discipline minimale :
- Budget par rôle et par projet, avec une visibilité mensuelle sur la consommation.
- Séparation entre la compute pour la production et la recherche, car les retours attendus diffèrent.
- Règles de priorité, pour éviter que la ressource ne devienne un outil de politique interne.
- Connexion avec les revenus, car la compute est un coût variable qui pèse sur la marge.
La computation comme compensation ne résout pas la guerre des talents ; elle la formalise comme un actif rare déterminant déjà la rapidité des produits. L'entreprise qui l'implémentera correctement transformera les coûts de plateforme en productivité mesurable, tandis que celle qui l'utilisera comme un simple maquillage salarial héritera d'une dépense variable sans contrôle et d'un retour flou.












