अधिकतम वेतन वाले नौकरियां AI के प्रति सबसे अधिक संवेदनशील हैं
15 मार्च 2026 को, आंद्रे कार्पैथी — ओपनएआई के सह-संस्थापक और टेस्ला में पूर्व AI शोधकर्ता — ने एक इंटरैक्टिव मानचित्र प्रकाशित किया, जिसमें अमेरिका के श्रम विभाग से 342 नौकरियों की AI के प्रति संवेदनशीलता को अंक दिए गए। इस मानचित्र की स्केल 0 से 10 तक थी। भौतिक कार्य जैसे कि छत बनाने वाले या निर्माण श्रमिक 0 या 1 के आसपास थे। वहीं सॉफ्टवेयर डेवलपर्स, वित्तीय विश्लेषक, वकील, लेखक और गणितज्ञ 9 से 10 के बीच थे। यह प्रोजेक्ट कुछ घंटे बाद हटा दिया गया क्योंकि कार्पैथी का कहना था कि इसे "बुरी तरह से गलत समझा गया"। लेकिन तब तक यह मानचित्र पहले ही प्रसार में आ चुका था।
इस अध्ययन का मुख्य निष्कर्ष यह नहीं है कि AI नौकरियों को खतरे में डालती है। यह पहले से ही ज्ञात था। लेकिन कार्पैथी ने एक ऐसी दृश्यता प्रदान की, जिसे कोई भी कार्यकारी 30 सेकंड में पढ़ सकता था: वेतन और संवेदनशीलता के बीच एक सीधा संबंध। जिन पदों का वार्षिक वेतन 100,000 डॉलर से अधिक था, उनकी औसत संवेदनशीलता को 6.7 अंकित किया गया, जो सभी वेतन श्रेणियों में सबसे ऊँचा था। वहीं, 35,000 डॉलर से कम कमाने वालों की औसत संवेदनशीलता 3.4 थी। अमेरिका में लगभग 60 मिलियन नौकरियों को उच्च संवेदनशीलता वाला पाया गया, जिनका कुल वार्षिक वेतन लगभग 3.7 ट्रिलियन डॉलर था।
यह आंकड़ा मानव संसाधन का नहीं, बल्कि संगठनात्मक संरचना का संकेत है।
वह मानचित्र जिसे किसी ने ज़ोर से पढ़ने का साहस नहीं किया
कार्पैथी के इस विश्लेषण को समझने के लिए पहला कदम यह है कि इसे किसी फैसले के रूप में डिज़ाइन नहीं किया गया था। उसने इसे एक खोज उपकरण के रूप में वर्णित किया, जिसका उद्देश्य अन्य लोगों को BLS के डेटा को विभिन्न दृष्टिकोण से देखने में मदद करना था। यह न तो एक भविष्यवाणी मॉडल था और न ही बड़े पैमाने पर छंटनी का एक रोडमैप।
हालाँकि, प्रतिक्रिया जिस प्रकार की थी, वह अनुपातहीन थी, क्योंकि इसने उन चीज़ों को छुआ जो संगठन सालों से स्पष्ट रूप से नामित करने से बच रहे थे: महान बौद्धिक और वेतन वाले पद वही हैं जिन्हें बड़े पैमाने पर भाषा मॉडल आसानी से दोहराते हैं। डेटा का विश्लेषण, संरचित लेखन, कानूनी समीक्षा, वित्तीय मॉडलिंग, कोड का उत्पादन, ये सभी स्क्रीन-आधारित, अनुक्रमिक और दस्तावेजीकृत गतिविधियाँ हैं।
एलन मस्क ने उसी दिन X पर अपनी सामान्य भविष्यवाणी के साथ प्रतिक्रिया दी: "सभी नौकरियां वैकल्पिक होंगी। उच्च सार्वभौमिक आय होगी।" यह वाक्यांश प्रसिद्ध है। मस्क ने इसे विभिन्न मंचों से कई बार दोहराया है। एक महत्वपूर्ण बिंदु यह है कि कार्पैथी के मानचित्र पर उनकी प्रतिक्रिया तात्कालिक और बिना किसी संकोच के थी, जो कार्यकारी बहस की स्थिति के बारे में अधिक बताता है। C-लेवल फ़ैटलिज़्म और "यह हमारे कोर बिजनेस को प्रभावित नहीं करता" के बीच झूलता है।
इनमें से कोई भी स्थिति रणनीति नहीं है। दोनों निर्णय न लेने के तरीके हैं।
समस्या स्वचालन नहीं है, चुनावात्मक पैल्सिस है
ऐन्ट्रोपिक द्वारा शुरूआत में मार्च 2026 में प्रकाशित अध्ययन — कार्पैथी के मानचित्र से कुछ सप्ताह पहले — ने एक अतिरिक्त आयाम जोड़ा जो कई मीडिया ने अनदेखा किया: AI के प्रति अधिक संवेदनशील श्रमिक आम तौर पर उम्र में बड़े, अधिक शिक्षित और बेहतर भुगतान प्राप्त करने वाले होते हैं, और कई क्षेत्रों में ये महिलाएँ होती हैं। हालांकि 2022 के अंत से बेरोजगारी में कोई प्रणालीगत वृद्धि नहीं देखी गई, लेकिन इसने उच्च संवेदनशीलता वाले भूमिकाओं में युवा श्रमिकों की भर्ती में मंदी का संकेत दिया। यह कोई समग्र छंटनी नहीं है। यह मौन प्रतिस्थापन है, जहां रिक्तियों का न भरना हो रहा है।
इस भिन्नता का महत्व बहुत अधिक है। एक कंपनी जो जूनियर विश्लेषकों को भर्ती नहीं कर रही है क्योंकि उनके AI मॉडल वही रिपोर्ट तैयार कर रहे हैं, वह कोई विशिष्ट कटौती नहीं कर रही है। बल्कि, वह अपनी प्रतिभा की पिरामिड को बिना सूचना दिए फिर से बना रही है।
सिटाडेल सिक्योरिटीज ने 2026 में सॉफ़्टवेयर इंजीनियरों की मांग में 11% सालाना वृद्धि की सूचना दी है, जो संकेत करता है कि स्वचालन तुरंत विशिष्ट श्रमिक बाजारों को प्रभावित नहीं कर रहा है। लेकिन यह आँकड़ा ऐन्ट्रोपिक के साथ सह-अस्तित्व में है: वरिष्ठ पदों की मांग बनी हुई है जबकि उन भूमिकाओं में नई पीढ़ियों का निर्माण धीमा हो गया है। बाजार समाप्त उत्पाद खरीद रहा है; इसे बनाने वाली आपूर्ति श्रृंखला में निवेश करना छोड़ रहा है।
एक CFO के लिए जो तिमाही पर नजर रखता है, यह दक्षता जैसी लगती है। लेकिन एक CEO के लिए जो पांच वर्षों में अपनी कंपनी को देखता है, यह भविष्य की क्षमताओं को खा जाने का एक तरीका है।
क्या मांग करता है कार्पैथी का मानचित्र C-लेवल से आज
AI के प्रति संवेदनशीलता के विश्लेषण को एक प्रतिभा या प्रौद्योगिकी की समस्या के रूप में पढ़ने की एक समझदारी की प्रवृत्ति है। लेकिन यह ऐसा नहीं है। यह संसाधनों के आवंटन और दांव की परिभाषा की समस्या है। जब एक संगठन के सबसे अधिक बौद्धिक पूँजी वाले पद साथ-साथ AI मॉडलों द्वारा आसानी से दोहराए जाते हैं, तो नेतृत्व को यह सवाल करना आवश्यक है: "हम मानव कार्य के किन आयामों में ऐसी विशेषज्ञता बनाएंगे जो स्वचालित नहीं की जा सकती?"
यह एक निर्णय है जिसमें वास्तविक बलिदान शामिल है। इसका मतलब है कि उन प्रक्रियाओं में निवेश बंद करना जो AI लागत के अंश पर निष्पादित कर सकती है और उन क्षमताओं की ओर संसाधनों को पुनर्निर्देशित करना जो वर्तमान मॉडल नहीं पूरा कर सकते: गंभीर अस्पष्टता के अधीन निर्णय, समय के साथ विकसित विश्वास, उच्च अनिश्चितता के संदर्भ में नेतृत्व, ऐसे ढांचे को डिजाइन करना जहां स्वयं AI मॉडलों के पास प्रशिक्षण डेटा की कमी होती है।
यही कारण है कि संगठन जो अपनी सर्वश्रेष्ठ प्रतिभा को प्रणालियों की गतिविधियों पर लगाएंगे जो एक मॉडल सेकंडों में पूरा कर सकता है, वे विवेकपूर्ण नहीं हो रहे हैं। वे सक्रिय रणनीतिक मूल्य चुकता रहे हैं जो अब वस्तुओं में परिवर्तित हो रहे हैं। और बाजार अंततः इस भिन्नता को पूर्वाग्रह के बिना समायोजित कर देगी।
विश्लेषित सभी नौकरियों में औसत संवेदनशीलता 5.3 रही। यह कोई दुनिया का अंत नहीं है, लेकिन आरामदायक भी नहीं है। यह एक संक्रमण का संकेत है जो पहले ही शुरू हो चुका है और अगले बजट चक्र की प्रतीक्षा नहीं करता।
वह प्रणाली जो उन संगठनों को अलग करती है जो इस संक्रमण को नेविगेट करते हैं और उन जो इसे सहते हैं, वह तकनीक को अपनाने की गति नहीं है। यह स्पष्टता है कि बिना अस्पष्टता के वे कौन सी भूमिकाएँ होंगी जिन्हें वे अद्वितीय लाभ के स्रोत के रूप में बचाना चाहते हैं और कौन सी जानबूझकर स्वचालन के लिए सौंपने वाले हैं। इन दोनों को आधे-अधूरे करना, चुनाव के नतीजों को लेकर चिंतित रहना, यही एकमात्र दांव है जो अप्रासंगिकता की गारंटी देता है।










