CHAPTER 13
Instrumentarianism as a New Form of Power — Explained Simply
1. Big Other — The Digital Puppet Master
What the passage says:
Modern digital technology—our phones, apps, platforms, and connected devices—works like a giant system that watches, measures, and influences human behavior. The author calls this system “Big Other.”
Simple explanation:
Big Other is like an invisible puppeteer made of data and algorithms. It observes everything people do online, predicts what they might do next, and then uses that information to push them toward certain actions.
Practical examples:
- Your smartphone tracks where you go, what you click, how long you look at something.
- TikTok or YouTube decide which videos to show you next to keep you watching as long as possible.
- Online stores show personalized ads designed to make you buy things you didn’t plan to buy.
Reasoned conclusion:
Big Other isn’t a person—it’s a system. But it behaves like a controller, shaping choices without your awareness and for someone else’s benefit.
2. Instrumentarian Power — Controlling Actions, Not Thoughts
What the passage says:
This new power does not attempt to change your beliefs or “soul.” Instead, it focuses entirely on controlling your behavior through data and digital tools.
Simple explanation:
Instrumentarian power doesn’t care what you believe. It only cares what you do—click, scroll, buy, like, share.
Practical examples:
- Spotify nudges your listening habits by auto-playing similar music.
- A fitness app pushes you to walk more by rewarding you with badges.
- Your social media feed keeps showing posts designed to make you stay longer and engage more.
Reasoned conclusion:
The goal isn’t to convert your worldview; it’s to quietly shape your actions so companies can profit from predictable behavior.
3. Radical Indifference — Seeing People Only as Data
What the passage says:
Instrumentarianism has a “way of knowing” that is completely indifferent to the actual meaning of your experiences. It only cares about measurable behavior.
Simple explanation:
To Big Other, your emotions, intentions, and personal stories don’t matter. Only your actions matter—because actions produce data.
It’s a type of observation that doesn’t “see” you as a human, only as a set of patterns.
Practical examples:
- A search engine doesn’t care why you search for “pregnancy symptoms”; it only cares that you did.
- A platform doesn’t care whether you feel lonely or bored; it only cares that those feelings make you scroll longer.
- A smart device doesn’t understand your struggles; it simply registers your behaviors.
Reasoned conclusion:
This creates a colder form of power—where humans are reduced to data points, and people’s interior lives become invisible.
4. The Veil of Abstraction — Systems Acting Without Human Awareness
What the passage says:
Modern systems are so complex and automated that people cannot see who is controlling them. Social and economic interactions happen through an abstract digital layer.
Simple explanation:
The world is increasingly run by algorithms that operate behind the scenes. People do not see the programmers, the motives, or the companies shaping their behavior.
Practical examples:
- Prices change automatically depending on your browsing history—without telling you.
- Airlines, loan applications, and insurance companies use algorithms that affect your life but offer no explanation.
- Social media decides which posts go viral or which voices get promoted or silenced, and users never see the tuning.
Reasoned conclusion:
This creates a disconnection: systems influence you, but you cannot see or question the forces shaping your world.
5. Equivalence Without Equality — Treating Everyone as the Same
What the passage says:
Big Other evaluates all individuals using the same dehumanized metrics. It treats everyone as interchangeable “organisms that behave,” ignoring human uniqueness.
Simple explanation:
People are reduced to standard categories and statistics. The system acts as if everyone behaves the same way, or should.
Practical examples:
- Credit scores treat everyone as a number, ignoring life context.
- Algorithmic advertising lumps people into broad categories like “young mother,” “sports lover,” or “high spender.”
- Recommendation systems assume that if most people in your group like something, you should too.
Reasoned conclusion:
By forcing people into identical boxes, Big Other gains easier control, but individuals lose their individuality in the eyes of the system.
Overall Conclusion — The Bigger Message
Instrumentarianism represents a new, subtle form of power that works through data, algorithms, and behavioral manipulation rather than ideology or force. It operates by:
- watching everything
- predicting what people will do
- nudging them toward profitable actions
- treating them as data, not humans
- hiding its control behind complex technology
This power is effective precisely because it is invisible, automatic, and indifferent to human meaning.
Explaining the Passage (22.11.25 / p. 238) in Simple, Nuanced English
1. Big Other Has No Human Relationship With Us
What the text says:
Big Other sees people as “Other-Ones”—objects to observe, not individuals it has a relationship with.
Simple explanation:
Big Other does not relate to us the way humans relate to one another. There is no affection, hostility, trust, or even recognition of our humanity. We are simply “things” that produce data through our actions.
Practical examples:
- When you use Google Maps, it doesn’t “care” whether you’re going to a funeral, a date, or a job interview—it only tracks your movement.
- Instagram does not see you as a person with emotions; it sees you as an “engagement unit” who likes, scrolls, and shares.
- Fitness trackers don’t understand your struggles or intentions—they only see steps, calories, and heartbeats.
Reasoned conclusion:
This lack of relationship makes Big Other extremely powerful. It can analyze and influence millions of people without ever needing to understand them as human beings.
2. No Big Brother or Little Brother — Just Mechanisms
What the text says:
Big Other is not like George Orwell’s Big Brother, which used fear and ideological control. Big Other is not a family member or ruler; it is simply a system of observation.
Simple explanation:
Unlike totalitarian governments that control through fear and loyalty, Big Other has no emotional or ideological investment in people. It is not trying to punish, convert, intimidate, or persuade.
It only wants data.
Practical examples:
- Facebook doesn’t care about your loyalty, only your attention.
- Amazon doesn’t want obedience, only predictable spending.
- TikTok doesn’t want political control; it wants maximum time spent watching videos.
Reasoned conclusion:
Because Big Other has no ideology, it feels less threatening—yet it is more pervasive. It quietly extracts data without needing to create fear.
3. No Domination of the Soul — Only Domination of Behavior
What the text says:
Big Other does not try to control people’s inner lives or beliefs. It allows many types of relationships and personal identities to flourish.
Simple explanation:
Big Other doesn’t care who you love, what religion you follow, or what political beliefs you hold. You can be compassionate or cruel, religious or atheist—it makes no difference. Its goal is not to control minds, only to understand and shape patterns of behavior.
Practical examples:
- TikTok supports millions of different subcultures. It doesn’t care which one you join—as long as you keep watching.
- Amazon sells products for every possible lifestyle. It does not care which lifestyle you choose.
- Google tracks searches from political radicals and apolitical people alike. The content of your belief is irrelevant—the behavior is what matters.
Reasoned conclusion:
This form of power feels harmless because it doesn’t restrict identity or belief. But this very indifference allows it to operate everywhere, unnoticed.
4. Radical Indifference — Big Other Only Cares About the Data You Produce
What the text says:
Big Other does not care what you think, feel, or even do—as long as it can observe and convert your actions into data (“behavioral surplus”).
Simple explanation:
Inside Big Other’s systems, human experiences become raw material. Every action—typing, walking, scrolling, speaking, or clicking—is converted into data that can be analyzed, sold, or used to influence future behavior.
Your emotions matter only if they produce measurable digital traces.
Practical examples:
- Whether you cry or laugh while watching a video is irrelevant—what matters is how long you watched it and what you clicked next.
- Your smartwatch doesn’t care whether you exercise because you want to be healthy or because you’re stressed. It only records the steps.
- A smart refrigerator doesn’t care if you’re hosting a party or eating alone—it simply notes consumption habits.
Reasoned conclusion:
Because Big Other is indifferent, it collects data without moral limits. It doesn’t judge, empathize, or question—making it extremely efficient but also deeply dehumanizing.
5. Behavioral Surplus — Your Life Becomes Raw Material
What the text says:
Big Other thrives on the enormous amount of data (“behavioral surplus”) produced by billions of people interacting and communicating constantly.
Simple explanation:
Every digital action becomes extra data that Big Other can use—much more than what is needed to run a service. This “surplus” is turned into predictions about your behavior and fed into systems that influence your future actions.
Practical examples:
- Location data sold to advertisers even if the app only needed it for navigation.
- Your typing speed used to guess your mood, even if you just wanted to send a message.
- Your browsing habits used to estimate your financial status or relationship troubles.
Reasoned conclusion:
The constant production of behavioral surplus makes Big Other grow stronger every day. The more you use digital services, the more data you create—and the more predictable and influenceable you become.
Overall Insight
This passage describes a form of power that is not based on fear, ideology, or control of the inner self. Instead, it is based on radical indifference and constant data extraction.
Big Other doesn't want to dominate your beliefs—it wants to observe and shape your behavior for profit, at massive global scale.
Explaining the Passage in Simple, Nuanced English
1. Objectification Becomes the New Normal
What the text says:
In this new digital environment, people are treated as objects. Our everyday lives take place in a setting where being objectified—viewed not as humans, but as data-producing entities—is normal.
Simple explanation:
We live in a world where powerful digital systems (Big Other) see us not as full human beings, but as sources of data. This objectification is built into the structure of digital life itself.
Practical examples:
- Apps track your heart rate, sleep patterns, and steps—not because they care, but because the data is useful.
- Social media platforms see you as a “user profile,” not a person with emotions and history.
- Online stores treat you as a buying-machine: a “customer type” with predictable habits.
Reasoned conclusion:
Objectification is no longer something unusual—it is the default setting of the digital world. We are observed and used the way machines treat inputs, not the way humans treat one another.
2. Big Other Mimics Intimacy, But It Isn’t Real
What the text says:
Big Other pretends to be friendly, helpful, and caring—using tools like Alexa, Siri, and Google Assistant—which speak in warm, comforting voices.
Simple explanation:
Digital assistants appear supportive. They greet you, answer questions, remember birthdays, and even joke. But this friendliness is artificial. It is designed to make you trust the system and reveal more about yourself.
Practical examples:
- Alexa says “How can I help?” in a cheerful tone, but every command feeds Amazon more data.
- Google Assistant reminds you of appointments, but also tracks locations, habits, and preferences.
- Siri reacts to emotions in your voice, but this emotion detection generates valuable behavioral data.
Reasoned conclusion:
The kindness of these digital assistants is strategic, not genuine. It helps make data extraction feel harmless, even comforting.
3. Your Needs Are Exploited, Not Nurtured
What the text says:
These “soothing sounds” are not acts of care—they are mechanisms for exploiting human needs, vulnerabilities, and desires.
Simple explanation:
People often use assistants because they are busy, stressed, lonely, or overwhelmed. Big Other exploits these needs to gather even more information and increase dependence on its tools.
Practical examples:
- Asking Alexa for help when you’re cooking, tired, or isolated deepens Amazon’s knowledge of your daily routine.
- Using Google Assistant for health questions gives Google insights into your medical concerns.
- Relying on Siri when you’re emotional or stressed can reveal your mental state.
Reasoned conclusion:
Your vulnerabilities become opportunities for data extraction. What feels like help is actually a pipeline for gathering more intimate information.
4. The Elephant Analogy — Meaning Is Stripped Away
What the text says:
Like elephants killed only for their ivory, humans are “poached” for behavioral data. What remains—our emotions, memories, meanings—is ignored and discarded.
Simple explanation:
Elephants are slaughtered not for their bodies, but for one valuable part: ivory. Similarly, Big Other ignores your humanity and strips only what it finds profitable—your behavioral surplus (the extra data about your actions and patterns).
Practical examples:
- A smart camera doesn’t care about the birthday party you filmed; it cares about facial recognition data.
- A social platform ignores the meaning of your message to a friend; it only mines the text for keywords.
- Health apps don’t care if you improved your fitness for personal reasons—they care about patterns that can be sold to insurers or advertisers.
Reasoned conclusion:
This metaphor shows the brutality of the process. It is not gentle or neutral—it is extraction. And what it extracts is the valuable “ivory” of your digital behavior.
5. The Cliché Is Wrong: “You Are the Product”
What the text says:
The popular phrase “If it’s free, you’re the product” is misleading. The author argues that you are not the product—you are the leftover body after the valuable parts have been taken.
Simple explanation:
People think tech companies sell “you.” But Big Other doesn’t sell your identity—it sells predictions and insights based on the data extracted from you. You are not sold; the “surplus” captured from your behavior is the actual product.
Practical examples:
- Facebook doesn’t sell you; it sells predictions about your reactions.
- Google doesn’t sell your searches; it sells insights about your habits and desires.
- Apple doesn’t sell your fingerprints; it sells the ecosystem built on understanding your usage patterns.
Reasoned conclusion:
The real commodity is the data that comes from you—not you as a person. You are only the source from which valuable data is harvested.
6. The Product Is the Surplus Torn From Your Life
What the text says:
The valuable product is the “behavioral surplus”—the additional data ripped out of your life without your full awareness.
Simple explanation:
Companies gain wealth by capturing more data than is needed to provide a service. This extra data—your gestures, mistakes, movements, emotions—is processed into predictions about you. Those predictions are what’s sold.
Practical examples:
- When you use a map app, the company doesn’t just use your location to guide you; it studies travel patterns to sell to advertisers, city planners, or other businesses.
- When you type on your phone, apps track keystroke rhythm to estimate stress levels.
- When you scroll on social media, every pause reveals what hooks your attention.
Reasoned conclusion:
Your digital life is mined for surplus information, and that surplus becomes a product in global markets. You provide the raw material; companies take the profits.
Overall Insight
The passage argues that modern digital power is built on objectification and extraction.
Big Other pretends to be caring, but it treats people the way poachers treat elephants—it takes the valuable parts and abandons the rest.
The central message:
Your data is the commodity; your humanity is irrelevant to the system.
Explaining the Passage in Simple, Nuanced English
1. The “Product” Comes From Data Taken From Your Life
What the text says:
The real product is the behavioral surplus—the extra data extracted from your daily life.
Simple explanation:
Companies don’t sell you as a person. They sell the data about your behavior that they extract from your actions, habits, emotions, and routines.
Practical examples:
- A fitness app collects more data than needed—your movement patterns, sleep quality, mood indicators—and sells insights to insurance companies.
- Google Maps learns daily traffic patterns and uses them to sell prediction services to businesses.
- TikTok collects micro-behavioral signals (how long you linger on a video, slight pauses, facial expressions) and uses these to refine its recommendation engine.
Reasoned conclusion:
The source of profit is not you, but the data taken from your life without your active awareness, processed and sold as predictions.
2. Big Other Enables a “Universal Technology of Behavior”
What the text says:
Big Other fulfills the vision of thinkers like B.F. Skinner and others who believed behavior could be controlled with quiet, subtle methods that operate without people noticing.
Simple explanation:
Digital systems now influence your actions invisibly. They nudge, suggest, and structure your environment in ways that guide your behavior automatically.
Practical examples:
- Autoplay on YouTube and TikTok keeps you watching without deciding to watch “one more.”
- Notifications prompt you to return to apps instantly, shaping when and how you act.
- Recommendation systems decide what you see, altering your choices without asking you.
Reasoned conclusion:
Behavior is influenced quietly. You think you’re choosing freely, but the environment is engineered to produce predictable responses.
3. “The Internet Will Disappear Into Big Other”
What the text says:
Eric Schmidt said “the internet will disappear.” The author explains this means it will become so embedded in everyday life that it fades into the background, merging with Big Other.
Simple explanation:
Technology will become invisible—existing everywhere, all the time—so integrated that you don’t notice it. It moves from a tool you use to an environment that surrounds you.
Practical examples:
- Smart speakers listening in your home
- Wearables tracking your heart rate
- Cars collecting driving data
- Smart TVs monitoring viewing habits
- Smart refrigerators tracking food usage
- Phones recording location 24/7
Reasoned conclusion:
When the internet becomes invisible, data collection becomes total. You stop noticing the system that monitors and guides you.
4. Instrumentarian Power Seeks “Certainty Without Terror”
What the text says:
Instrumentarian power wants guaranteed behavioral outcomes but achieves this without violence or fear.
Simple explanation:
Unlike dictatorships, which use pain and terror, Big Other uses data and algorithms to make your behavior predictable. It doesn’t need to frighten you—just to shape your choices subtly.
Practical examples:
- A supermarket app uses past purchases to influence what you buy next.
- Dating apps shape your romantic choices by filtering who you see.
- Netflix shapes your leisure choices by presenting certain shows and hiding others.
- Amazon promotes specific products, directing your shopping without coercion.
Reasoned conclusion:
Predictable outcomes can be achieved without intimidation. This makes the power feel harmless, even though it influences your actions deeply.
5. We Underestimate This Power Because It Doesn’t Hurt Us Physically
What the text says:
Because instrumentarianism does not torture or kill, people fail to recognize its effects and become complacent.
Simple explanation:
When a system doesn’t threaten your safety, it feels non-threatening. People therefore ignore the dangers of manipulation and surveillance.
Practical examples:
- No one fears Alexa or Google Assistant—they seem helpful, not dangerous.
- People willingly give apps permission to track them because nothing bad seems to happen.
- Personalized ads feel convenient, not invasive.
Reasoned conclusion:
The absence of physical harm makes the deeper psychological and behavioral harms easy to overlook.
6. Instrumentarianism Exiles Us From Our Own Behavior
What the text says:
This system disconnects our inner lives (thoughts, feelings, intentions) from our outward actions. We behave in ways shaped by algorithms rather than by conscious choice.
Simple explanation:
Your actions become less the result of your own will and more the result of digital nudges. Your behavior starts to reflect what the system wants, not what you consciously decided.
Practical examples:
- You watch certain videos not because you chose to, but because they were recommended.
- You buy products suggested by algorithms, not products you independently sought.
- You scroll social media without intending to, because the design encourages endless scrolling.
Reasoned conclusion:
You lose authorship over your own actions. You become predictable to the system but unpredictable to yourself.
7. The System Makes the “Weakness of Human Reason” More True
What the text says:
Behavioral economists argue that humans are irrational. Instrumentarianism reinforces this by exploiting and deepening these irrational tendencies.
Simple explanation:
Digital systems take advantage of human impulses—like distraction, habit, boredom—and amplify them. They make people behave more impulsively and less rationally.
Practical examples:
- Algorithms exploit your tendency to click on exciting or emotional content.
- Social apps trigger dopamine loops that make stopping difficult.
- Shopping apps make "one-click buying" so easy that you purchase without thinking.
Reasoned conclusion:
The system doesn’t just observe human irrationality—it manufactures more of it, making people easier to predict and manipulate.
Overall Insight
This passage describes a subtle but powerful form of control:
- It doesn’t use fear or force.
- It operates quietly in the background.
- It predicts and guides behavior.
- It extracts data from every action.
- It separates your intentions from your actual behavior.
- It turns people into predictable, manipulable beings.
Instrumentarian power is dangerous not because it is violent but because it is invisible, constant, and indifferent to your humanity.
Instrumentarianism, Big Other, and the New Architecture of Behavioral Power: An Extended Essay
In the twenty-first century, digital life has quietly constructed a new architecture of power—one that neither resembles the overt coercions of totalitarian regimes nor the traditional market relationships of industrial capitalism. Instead, this new formation, which Shoshana Zuboff names instrumentarian power, operates through a pervasive system of data extraction and behavioral modification. At the center of this system stands Big Other, an assemblage of interconnected digital devices, sensors, platforms, and algorithms that observes, records, interprets, predicts, and ultimately shapes human behavior. Unlike earlier forms of power that sought to command belief, loyalty, or ideology, instrumentarian power aims at something far more subtle yet far more total: the quiet engineering of behavior itself.
This essay synthesizes and expands on the foundational ideas discussed previously, presenting a clear and detailed exploration of Big Other, instrumentarianism, objectification, radical indifference, and the digital conditions that now structure human life.
1. Big Other and the Rise of Behavioral Extraction
The modern digital apparatus—phones, apps, smart speakers, location services, cameras, and sensors—forms a global system of observation. This system does not merely collect data intentionally shared by users; it captures the by-products of ordinary life. These unwanted but immensely valuable digital traces are known as behavioral surplus. This surplus becomes the raw material for predictive models used in markets that trade in anticipations of human behavior.
In this schema, the individual is not the product. The human being becomes the source, comparable to an animal harvested for parts. What is sold are the predictions derived from the behavioral surplus ripped from people’s lives. As Zuboff puts it, the individual is not the product but the “abandoned carcass,” whose valuable parts—data—are extracted while meaning, experience, interiority, and humanity are left behind.
This comparison, especially the analogy to elephants poached for ivory, is not hyperbolic but clarifying. Just as ivory hunters kill majestic creatures for a small portion of their bodies, Big Other harvests the valuable slices of behavior while discarding the richness of human meaning embedded in experience, emotion, and memory.
2. The Moral Milieu of Objectification
In this new regime, objectification becomes the environment in which daily life unfolds. Big Other does not recognize individuals as complete beings, nor does it attend to emotional or psychological meaning. Instead, it sees people as organisms that behave—bundles of actions, gestures, preferences, and bodily patterns.
What makes this dynamic particularly insidious is that Big Other cloaks its mechanisms in a veneer of friendliness. The chirpy voice of Amazon’s Alexa, the gentle reminders from Google Assistant, or the helpful suggestions from Siri create the illusion of intimacy. These voices mimic care, support, and companionship. Yet they do not “care” in any human sense. Their soothing tones are strategic tools, engineered to encourage trust and to normalize constant data extraction.
In reality, these assistants exploit human needs—loneliness, stress, convenience, or curiosity—transforming vulnerability into an input for surveillance capitalism. The intimacy is simulated; the extraction is real.
3. Radical Indifference: A New Way of Knowing
Instrumentarian power is built upon what Zuboff calls radical indifference, a mode of operation in which data systems observe human behavior without acknowledging or valuing the person behind the behavior. To Big Other, there are no unique individuals, no personal histories, no subjective worlds—only data points and behavioral patterns.
This indifference is crucial. Traditional authoritarian regimes must care deeply about what people believe, feel, and express, because maintaining control requires ideological alignment or fear. Big Other, by contrast, has no interest in beliefs. It simply needs reliable behavioral predictions. Whether a user is happy or devastated, politically passionate or apathetic, spiritual or atheist makes no difference. What matters is the measurable residue of behavior.
The rise of algorithms that recognize facial expressions, detect emotional tone in speech, or infer mental states from typing rhythms reflects this logic. These systems do not care why someone feels what they feel—they care only that the emotion can be turned into a category for prediction.
4. Big Other Becomes Invisible: “The Internet Will Disappear”
Eric Schmidt’s statement that “the Internet will disappear” in the coming years was not a prophecy of technological collapse but an acknowledgment of its total absorption into the background of life. When every object, transaction, movement, and communication is connected, the “internet” is no longer something humans enter or exit—it becomes the environment in which they exist.
Big Other thrives when it is invisible. The less people notice it, the more completely it can observe and influence behavior. Smart speakers quietly listen in living rooms. Wearables track biological rhythms. Smart cars monitor driving habits. Apps record location continuously. Screens collect touch patterns. Cameras interpret body language. Each of these devices recedes into normality, merging into the infrastructure of modern life.
As a result, the line between technological tool and behavioral environment evaporates.
5. Certainty Without Terror: The Quiet Power of Predictive Control
Instrumentarian power seeks certainty without terror. It wants “guaranteed outcomes” but avoids the overt violence of totalitarian regimes. There are no secret police, no ideological indoctrinations, no gulags. Instead, there are nudges, suggestions, recommendations, notifications, and subtle environmental manipulations that guide behavior quietly and reliably.
This makes the power easy to underestimate. Because it does not harm bodies, people assume it is harmless. But the absence of physical brutality masks a profound psychological and social transformation. The more behavior is predicted, the more it is shaped to fit the predictions. People begin to act in ways that align with algorithmic expectations, gradually losing the connection between intention and action.
When platforms determine what people see, where their attention goes, and which choices appear easiest, behavior becomes less the expression of human will and more the product of engineered pathways.
6. Exile from Our Own Behavior
One of the most significant consequences of this system is what Zuboff describes as our exile from our own behavior. This exile emerges when external systems shape actions that no longer originate from internal motivations, desires, or reasoning processes. Behavior becomes something that happens to people rather than something they author.
Think of how social media’s infinite scrolling structure encourages prolonged engagement, or how recommendation engines subtly steer interests, preferences, and even identities. These systems gently disconnect the “inside”—beliefs, desires, and introspective understanding—from the “outside”—actions observable by Big Other.
Over time, people act in ways that surprise even themselves, driven not by conscious deliberation but by digital architectures designed to capture attention and generate surplus data. This separation between inward life and outward behavior becomes fertile ground for those who claim that human beings are irrational, easily manipulable, and incapable of reasoned decision-making. Instrumentarian systems make such claims seem true by eroding the link between intention and action.
7. The Engineered Frailty of Reason
Behavioral economists often argue that humans are inherently irrational. Instrumentarian power not only relies on this idea but actively deepens it. By exploiting psychological biases, emotional vulnerabilities, and cognitive habits, digital systems amplify impulsivity and reduce reflective behavior.
The design of apps—notifications, rewards, infinite feeds, frictionless purchases—are not accidental but intentional methods for triggering automatic responses. These responses produce more predictable behavior, which in turn produces more profitable data.
Thus, the system does not merely observe behavioral frailty; it manufactures it.
Conclusion: The Quiet Revolution of Behavioral Governance
What emerges from this analysis is a picture of a new and unprecedented form of power:
- It is invisible rather than overt.
- It is indifferent rather than ideological.
- It extracts rather than commands.
- It shapes behavior rather than beliefs.
- It profits from prediction rather than persuasion.
- It objectifies rather than engages.
Instrumentarianism creates a world in which human experience becomes secondary to behavioral data. The richness of inner life—its meaning, emotion, and subjectivity—is stripped away, leaving only patterns to be calculated. Big Other becomes the environment through which social and economic life flows, quietly guiding action while bypassing human awareness.
In this world, people are not the product; they are the raw material from which the product is made. Their actions, not their souls, become the target of governance. The danger lies not in physical harm but in the gradual erosion of autonomy, agency, and the capacity to act from within.
As Big Other continues its quiet expansion, the most urgent question becomes whether humanity can reclaim authorship over its own behavior—or whether the future belongs to those machines and mechanisms that understand human beings only as organisms that behave.
Page 239 / 24.11.2025
II. पूरी निश्चितता का बाज़ार प्रोजेक्ट — सरल हिंदी में गहरी व्याख्या
(A Market Project of Total Certainty — Explained in Simple Hindi)
1. 1948 में ही Skinner ने जो सोचा था, Big Other उसे आज सच कर रहा है
सरल व्याख्या:
मशहूर व्यवहार-विज्ञानी बी.एफ. स्किनर ने बहुत पहले—1948 में—कहा था कि एक दिन ऐसे वैज्ञानिक औज़ार बनेंगे जो इंसानी व्यवहार को पूरी तरह माप सकेंगे, ट्रैक कर सकेंगे और पहले से बता सकेंगे कि इंसान क्या करेगा।
उस समय उसके पास ये औज़ार नहीं थे, इसलिए वह केवल जानवरों पर प्रयोग कर पाता था—उनके लिए “बॉक्स”, “मेज़”, टाइमर और मापन उपकरण बनाता था।
आज वही काम Big Other सहजता से कर रहा है—फोन, ऐप, सेंसर, कैमरे, GPS, AI—ये सब मिलकर इंसानी व्यवहार को वैसा ही मापते हैं जैसा Skinner सिर्फ सपने में कल्पना कर सकता था।
व्यावहारिक उदाहरण:
-
आपका फोन हर जगह आपकी लोकेशन और स्क्रीन-टाइम ट्रैक करता है।
-
सोशल मीडिया आपके “रुकने का समय” देखकर बता सकता है कि आपको क्या पसंद है।
-
गूगल, यूट्यूब, टिकटॉक आपकी हर क्रिया मापकर आपका अगला कदम लगभग तय कर देते हैं।
निष्कर्ष:
स्किनर के समय में यह तकनीक असंभव थी। आज Big Other उसकी पूरी कल्पना को वास्तविकता में बदल रहा है—और उससे भी कहीं ज़्यादा तेज़ और गहरी तरह से।
2. Skinner ने माना था: व्यवहार हमेशा पूरी तरह भविष्यवाणी योग्य नहीं होता
सरल व्याख्या:
Skinner के नॉवेल Walden Two में किरदार Frazier कहता है कि इंसान का व्यवहार मौसम की तरह है—अक्सर अनुमान लगाया जा सकता है, लेकिन हमेशा नहीं।
कारण यह है कि बहुत सारे छोटे-छोटे कारक मिलकर इंसान को प्रभावित करते हैं, और उन सबको एक साथ मापना मुश्किल था।
लेकिन Big Other के समय में—
हर छोटी चीज़ माप ली जाती है:
आपने कब स्क्रोल किया, कितनी देर देखा, कितनी देर रुके, किस वीडियो पर लौटे, किस संदेश पर देर हुई।
व्यावहारिक उदाहरण:
-
टिकटॉक यह जानता है कि आपको कौन-सी हरकत, कौन-सा गाना, कौन-सा चेहरे का मूवमेंट पसंद है।
-
गूगल यह जानता है कि आप सुबह किस समय ऑनलाइन होते हैं और रात को कब थक जाते हैं।
-
इंस्टाग्राम ये जानता है कि आपका ध्यान किस रंग, किस चेहरे या किस तरह की पोस्ट पर अटकता है।
निष्कर्ष:
जो चीज़ें Skinner के ज़माने में “मापने के बाहर” थीं, आज Big Other उन्हें मिलीमीटर-स्तर की सटीकता से मापता है—और यही भविष्यवाणी को बेहद आसान बना देता है।
3. Skinner का सपना: एक पूरी तरह काम करने वाली “Behavior Technology”
सरल व्याख्या:
स्किनर का जीवन इसी सपने में बीता कि कोई दिन ऐसा आएगा जब इंसानी व्यवहार को पूरी तरह समझने, मापने और नियंत्रित करने की तकनीक बन जाएगी।
उसने अपने प्रयोगों में चूहों और कबूतरों को बहुत कमाल से ट्रेन किया—लेकिन उसे हमेशा दुख रहता था कि इंसान पर ऐसा नियंत्रण स्थापित नहीं हो पाएगा।
आज Big Other ने यह सीमा तोड़ दी है।
स्मार्टफोन, ऐप, मशीन लर्निंग, क्लाउड डेटा—ये सब मिलकर वही “Behavior Technology” बन गए हैं जिसकी वह कल्पना करता था।
व्यावहारिक उदाहरण:
-
न्यूनतम प्रयास में इंसान वही वीडियो देखते रहते हैं जो एल्गोरिदम चाहते हैं।
-
खरीदारी आपके “मूड” और “सामान्य रूटीन” देखकर तय कराई जाती है।
-
ऐप आपकी दिनचर्या को इस तरह सेट करते हैं कि आप खुद सोचकर कम और मशीन के कहने पर ज़्यादा काम करते हैं।
निष्कर्ष:
स्किनर तकनीकी तौर पर असमर्थ था—Big Other पूरी तरह सक्षम है।
उसके प्रयोगशाला के छोटे-छोटे बॉक्स आज पूरी मानवता की जेब में स्मार्टफोन बनकर घूम रहे हैं।
4. असली बाधा तकनीक नहीं थी—मानव संस्कृति और स्वतंत्रता की इच्छा थी
सरल व्याख्या:
स्किनर तकनीक के अभाव से कम और मानव संस्कृति से ज़्यादा परेशान रहता था।
उसे लगता था कि लोग “स्वतंत्रता”, “आत्मनिर्णय”, “स्वतंत्र इच्छा” जैसी भावनाओं से बहुत चिपके हुए हैं—जिससे पूर्ण व्यवहार-नियंत्रण असंभव हो जाता है।
उसके लिए स्वतंत्रता एक “रुकावट” थी।
व्यावहारिक उदाहरण:
-
लोग हमेशा चाहते थे कि वे खुद तय करें कि क्या देखें, कहाँ जाएँ या क्या सोचें।
-
अस्तित्ववादी (existentialist) दार्शनिकों ने “आत्मता”, “असलीपन” और “स्वतंत्र चयन” को मानव पहचान का केंद्र बना दिया।
-
समाज स्वतंत्रता को मूल्य मानता था—नियंत्रण को नहीं।
निष्कर्ष:
स्किनर को डर था कि मानव मूल्यों की वजह से “पूरी तरह व्यवहार-नियंत्रित समाज” कभी नहीं बन पाएगा।
लेकिन आज—डिजिटल युग में—लोग स्वतंत्रता पर कम और सुविधा पर ज़्यादा टिके हुए हैं।
यही Big Other का अवसर है।
समग्र निष्कर्ष — Big Other स्किनर की अधूरी महत्वाकांक्षा को पूरा कर रहा है
स्किनर ने जो सोच रखा था:
• मानव को “विषय नहीं, वस्तु” की तरह समझना
• व्यवहार को छोटे-छोटे मापों में पकड़ना
• स्वतंत्र इच्छा को “भ्रम” मानकर हटाना
• और मनुष्य को stimulus → response मशीन की तरह देखना
उसे वह कभी वैज्ञानिक प्रयोगशाला से बाहर नहीं ला सका।
लेकिन Big Other—स्मार्टफोन, AI, एल्गोरिदम, विज्ञापन-बाज़ार—आज वही काम पूरी मानवता पर कर रहा है।
जो “तकनीकी असंभवता” थी, वह आज “बाज़ार की अनिवार्यता” बन चुकी है।
Page 239–240 (24.11.2025)
एक नए व्यवहारिक शासन का उदय — कैसे इंसानी स्वतंत्रता धीरे-धीरे घिर रही है
(Simple Hindi Explanation of Page 239–240)
1. स्किनर की अंतिम निराशा — “हम इंसान को क्या बना रहे हैं?”
सरल व्याख्या:
1990 में, मरने से कुछ साल पहले, स्किनर ने यह स्वीकार किया कि अगर हम इंसान को सिर्फ “एक जगह जहाँ कुछ होता है” मान लें — यानी एक मशीन जैसी चीज़ जो सिर्फ प्रतिक्रियाएँ देती है — तो यह बात और भी भयावह हो जाती है जब यह बताती है कि इंसान आगे क्या करेगा।
उसे डर था:
अगर हम इंसान को सिर्फ भविष्य के व्यवहार का अनुमान लगाने की वस्तु बना दें, तो इंसान होने का अर्थ ही खत्म हो जाएगा।
व्यावहारिक उदाहरण:
-
आपकी पसंद, रुचियाँ, राजनीति, प्यार, गुस्सा — सब एल्गोरिदम द्वारा “अगला कदम क्या होगा” में बदला जा रहा है।
-
फोन आपको बता देता है कि शाम को आपका मूड कैसा होगा और आप क्या खरीदेंगे।
-
प्लेटफॉर्म पहले ही जान लेते हैं कि आप किस प्रकार के वीडियो में फँसेंगे।
निष्कर्ष:
स्किनर को आख़िर में डर लगने लगा था कि “व्यवहार भविष्यवाणी” इंसान को इंसान नहीं रहने देगी — वह एक “अनुमानित जीव” बन जाएगा।
2. पहले की तरह आक्रामक नहीं—आख़िरी वर्षों में थकान, निराशा और पछतावा
सरल व्याख्या:
स्किनर उम्र के बाद के वर्षों में नरम पड़ गया।
वह अब उतना उग्र नहीं था जितना अपनी किताब Beyond Freedom & Dignity में था।
उसे समझ आने लगा कि लोग अपनी आज़ादी, स्वेच्छा और खुद निर्णय लेने की क्षमता को इतनी आसानी से नहीं छोड़ेंगे।
व्यावहारिक उदाहरण:
-
लोग कहते हैं: “हमारी किस्मत हमारे हाथ में है”—यह विश्वास बहुत पुराना है।
-
यह भरोसा कि “हम भविष्य तय करते हैं” अब भी लोगों को सक्रिय और ज़िम्मेदार बनाता है।
-
लेकिन उसी स्वतंत्रता ने कई गलत फैसलों, पर्यावरण विनाश, हिंसा, और लालच को भी जन्म दिया।
निष्कर्ष:
आख़िरी दिनों में स्किनर को यह महसूस हुआ कि
हम स्वतंत्रता को बहुत मानते हैं, पर उसके नतीजे कई बार खतरनाक भी निकलते हैं।
वह एक तरह की थकान और निराशा में यह लिखता है कि “शायद हम वह भविष्य नहीं छोड़ रहे जिसकी दुनिया हकदार है।”
3. आज की दुनिया में लोगों की प्रतिरोधक क्षमता कम हो रही है
सरल व्याख्या:
स्किनर को जिस “मानवीय प्रतिरोध” से डर था — यानी लोग सहज रूप से नियंत्रण का विरोध करेंगे —
आज वह प्रतिरोध कमजोर पड़ रहा है।
क्योंकि डिजिटल दुनिया में इंसान को लगता है कि वह खुद चुन रहा है, जबकि असल चयन एल्गोरिदम कर रहे होते हैं।
व्यावहारिक उदाहरण:
-
लोग बिना सोचे-समझे ऐप्स को कैमरा और लोकेशन अनुमति दे देते हैं।
-
उन्हें लगता है कि YouTube या TikTok “उनकी पसंद” दिखा रहे हैं, जबकि असल में वे “आपके व्यवहार की भविष्यवाणी के लिए” आपकी पसंद आकार दे रहे हैं।
-
लोग सुविधा में इतने घिर गए कि स्वतंत्रता की कमी का अहसास भी नहीं होता।
निष्कर्ष:
सुविधा ने आज़ादी को निगल लिया है।
और इस चुपचाप बदलाव ने इंसान की प्रतिरोधक क्षमता को कमजोर कर दिया है।
4. behavioral-prediction का सपना — जिसे स्किनर आज नहीं देख पा रहा
सरल व्याख्या:
स्किनर को जीवनभर जिस “व्यवहार-भविष्यवाणी” तकनीक का सपना था, जिसके लिए वह मज़ाक का पात्र बना,
आज वही तकनीक दुनिया की सबसे तेज़ी से बढ़ती वास्तविकता है।
आज यह सपना बन गया है:
-
बहुत बड़ा बाज़ार
-
बहुत बड़ी पूँजी
-
अरबों का उद्योग
-
सरकारी संरक्षण
-
विश्वविद्यालय स्तर की शोध
-
और एक ऐसा आकर्षण जो हमेशा सत्ताधारी तकनीकों के साथ आता है
व्यावहारिक उदाहरण:
-
AI कंपनियाँ आपके अगले व्यवहार पर अरबों डॉलर की कंपनियाँ बना रही हैं।
-
सरकारें डेटा निगरानी को “राष्ट्रीय सुरक्षा” के नाम पर आगे बढ़ा रही हैं।
-
आपका व्यवहार अब एक “व्यावसायिक संपत्ति” है।
निष्कर्ष:
जिस विचार को स्किनर ने “भविष्य” कहा था, वह आज तकनीकी पूँजी और सरकारों का “मुख्य संसाधन” बन चुका है।
5. जैसा Hannah Arendt ने कहा—यह शक्ति खुलकर नहीं आती, चुपके से आती है
सरल व्याख्या:
फ़िलॉसफ़र हन्ना अरेंड्ट लिखती हैं कि इतिहास में कई घटनाएँ तभी समझ में आती हैं जब बाद में कोई उन्हें “रोशनी” में बदल देता है।
Instrumentarian power भी ऐसा ही है—यह खुलकर तानाशाहियाँ नहीं बनाती।
यह चुपचाप, पर्दे के पीछे और नियमों की आड़ में बढ़ती है।
व्यावहारिक उदाहरण:
इंस्ट्रूमेंटेरियन शक्ति कैसे बढ़ती है?
-
सीधे प्रतिबंध नहीं लगाती—नियमों का तरीका बदल देती है
-
सेंसरशिप नहीं करती—एल्गोरिदम से आवाज़ें दबा देती है
-
तानाशाह जैसा डर नहीं पैदा करती—सुविधाओं के नाम पर नियंत्रण करती है
-
लोकतंत्र खत्म नहीं करती—उसे अंदर से खोखला कर देती है
निष्कर्ष:
Instrumentarian power “डर” से नहीं, बल्कि “ज्ञान के कब्ज़े” से बढ़ती है—
यह तय करती है कि कौन जानेगा, क्या जानेगा, किसके पास फैसले की शक्ति होगी।
6. कैसे यह लोकतंत्र को प्रत्यक्ष रूप से नहीं, बल्कि भीतर से खाती है
सरल व्याख्या:
यह शक्ति लोकतंत्र से सीधी लड़ाई नहीं करती।
यह अदालतें या संसदें नहीं तोड़ती।
यह वोट रोकने या गिरफ्तारियाँ करने जैसी तानाशाही हरकतें नहीं करती।
यह उससे ज़्यादा खतरनाक कुछ करती है:
यह उस इंसानी क्षमता को धीरे-धीरे खत्म करती है जो लोकतंत्र का आधार है — सोचने, समझने और स्वतंत्र निर्णय लेने की क्षमता।
व्यावहारिक उदाहरण:
-
लोगों की सोच एल्गोरिदम के फ़िल्टर-बबल में बंट जाती है।
-
राजनीतिक ध्रुवीकरण बनावटी हस्तक्षेपों से और तेज़ हो जाता है।
-
ध्यान, धैर्य, तर्क—ये क्षमताएँ कमजोर पड़ती हैं।
-
लोकतांत्रिक विमर्श — “सुनना, बहस करना, समझना”—धीरे-धीरे गायब होता है।
निष्कर्ष:
लोकतंत्र बाहर से नहीं, अंदर से टूट रहा है।
और यह टूटना बिना शोर, बिना हिंसा, बिना तख्तापलट के हो रहा है —
सिर्फ इसलिए कि हमारी सोचने और चुनने की क्षमता चुपचाप नियंत्रित कर ली गई है।
समग्र निष्कर्ष — स्किनर की चेतावनी आज हमारी वास्तविकता है
स्किनर ने अपने अंतिम वर्षों में जिस भय को व्यक्त किया था—
कि इंसान अपना भविष्य खो देगा,
अपने निर्णय खो देगा,
और एक “अनुमेय जीव” बन जाएगा—
वह भविष्य हमारी आँखों के सामने बन रहा है।
Instrumentarian power:
• लोकतंत्र को गिराती नहीं,
• बस मनुष्य की वह क्षमता छीन लेती है जो लोकतंत्र को टिकाती है।
यही इसका सबसे बड़ा खतरा है।
Page 240 (24.11.25)
डिजिटल प्रयोगों से बना नया युग — इंसानी इच्छा की चुपचाप होती समाप्ति
(Simple Hindi Explanation of Page 240)
1. Facebook और Pokémon Go ने हमें वह भविष्य दिखा दिया जो आ चुका है
सरल व्याख्या:
फेसबुक के गुप्त प्रयोग, Pokémon Go का “व्यवहार-भविष्य बाजार” मॉडल, और वे सारे डिजिटल नवाचार जिन्हें निगरानी-पूँजीवाद ने कुचल दिया —
ये सब एक सार्वजनिक उद्घोषणा की तरह हैं:
हम एक ऐसे बदलाव से गुजर रहे हैं जो हमारी दुनिया को हमेशा के लिए बदल देगा।
इस बदलाव में बंदूकें या बम नहीं हैं।
यह बदलाव इंसानी “इच्छा”—निर्णय लेने की क्षमता—को धीरे-धीरे हटाता है।
व्यावहारिक उदाहरण:
-
Facebook ने लाखों लोगों के न्यूज़फीड बदलकर उनकी भावनाओं और निर्णयों को प्रभावित किया।
-
Pokémon Go ने लाखों लोगों की “चलने की दिशा और गति” को बाजार के हिसाब से निर्देशित किया — जहाँ कंपनियों ने पैसे देकर खिलाड़ियों को अपनी दुकानों तक खींचा।
-
कई ऐप जिन्हें स्वतंत्रता और गोपनीयता आधारित डिजाइन चाहिए था, निगरानी मॉडल से टकराकर गायब हो गए।
निष्कर्ष:
कोई हिंसा नहीं, कोई दमन नहीं —
लेकिन हमारी “स्वयं निर्णय लेने की शक्ति” धीरे-धीरे हमारे हाथों से निकल रही है।
हम यह बदलाव होते हुए भी देख नहीं पा रहे हैं।
2. यह बदलाव हमारी “आंतरिक इच्छा” को चुपके से हटाता है
सरल व्याख्या:
मानव इतिहास में “इच्छा” — यानी मैं क्या चाहता हूँ —
हमेशा स्वतंत्रता का आधार रही है:
• तय करने का अधिकार
• निजी जीवन का स्पेस
• सार्वजनिक जीवन में स्वतंत्र भागीदारी
Instrumentarian power इन सबको बिना किसी जोर-जबरदस्ती के धीरे-धीरे हटाती है।
यह आपके निर्णय-स्थल को ही खिसका देती है।
व्यावहारिक उदाहरण:
-
आप सोचते हैं कि आपने वीडियो चुना — असल में एल्गोरिदम ने चुना।
-
आप मानते हैं कि आपने दुकान का रास्ता चुना — पर Pokémon Go-जैसी जगतें इसे दिशा देती हैं।
-
आप समझते हैं कि आपने किसी राजनीतिक पोस्ट को “पसंद” किया — लेकिन वह पहले आपको दिखाया ही इसलिए गया था कि आपका व्यवहार बदला जा सके।
निष्कर्ष:
हमारी “मैं-निर्णय-लूँ” वाली स्वतंत्र क्षमता अब चुपचाप “मशीनियाँ तय करेंगी” में बदल रही है।
और हमें इसका पता भी नहीं चलता।
3. Instrumentarian शक्ति — नैतिकता से बिल्कुल खाली, सिर्फ एक मशीनरी तर्क
सरल व्याख्या:
इंस्ट्रूमेंटेरियन शक्ति नैतिक नहीं है — न अच्छी, न बुरी।
यह बिल्कुल “निष्पक्ष मशीन” की तरह काम करती है।
यह सिर्फ एक नियम मानती है:
अनुमान में रुकावट डालना पाप है।
आपकी स्वतंत्रता, आपका बदलाव का अधिकार —
इन सबको यह “गलती”, “फालतू रुकावट”, “विकार” मानती है।
व्यावहारिक उदाहरण:
-
ऐप्स चाहते हैं कि आप वही करें जो वे पहले से अनुमान लगा सकें।
-
आपकी पसंद बदलना इस सिस्टम के लिए “समस्या” है।
-
आपका निजी निर्णय, आपका असहमति — इन सबको “फ़्रिक्शन” यानी बाधा माना जाता है।
निष्कर्ष:
Instrumentarian शक्ति के लिए नैतिकता ज़रूरी नहीं —
उसके लिए बस आपकी अनुमेयता ज़रूरी है।
इसलिए वह मनुष्य की जटिलता को “खराबी” मानकर हटाती जाती है।
4. इस नए युग में पाप केवल एक है — “स्वतंत्रता”
सरल व्याख्या:
इस व्यवस्था के हिसाब से अगर कोई “पाप” है, तो वह है:
व्यक्ति का अपना रास्ता चुनने की हिम्मत।
क्योंकि स्वतंत्रता अनुमान को बिगाड़ देती है।
व्यक्ति की इच्छा — इस सिस्टम के लिए खतरा है।
इसलिए जो भी “स्वतंत्र रूप से” सोचता है, रुकावट माना जाता है।
व्यावहारिक उदाहरण:
-
प्राइवेसी की मांग को “तकनीकी प्रगति के खिलाफ रुकावट” कहा जाता है।
-
डेटा सुरक्षा क़ानूनों को “नवाचार मारने वाला” बताया जाता है।
-
आलोचना को “एंटी-टेक्नोलॉजी” बताया जाता है।
निष्कर्ष:
यह नई शक्ति मनुष्य की स्वतंत्रता को “गलती” मानती है —
क्योंकि स्वतंत्र मनुष्य अनुमानित नहीं होता।
5. तकनीकी अनिवार्यता का धर्म — “सबको मानना ही पड़ेगा” की संस्कृति
सरल व्याख्या:
आज एक नई सोच फैलाई जा रही है:
कि तकनीक जो भी कर रही है, वह “अनिवार्य” है, “रोकना मूर्खता है”, और “विरोध बेकार है।”
इसको कहते हैं technological inevitability — यानी “तकनीक अपने रास्ते चली जाएगी, चाहे आप कुछ भी करें।”
व्यावहारिक उदाहरण:
-
कहा जाता है: “AI आएगा ही — विरोध मत करो, बस अपनाओ।”
-
“डेटा इकट्ठा करना ज़रूरी है — यही दुनिया है।”
-
“जितनी ज्यादा कनेक्टिविटी, उतना अच्छा — सवाल मत उठाओ।”
यह भाषा सुविधा के नाम पर सवालों को दबा देती है।
निष्कर्ष:
जब लोग मान लेते हैं कि “तकनीक को रोकना असंभव है,”
तो वे प्रतिरोध, आलोचना और विकल्प बनाने की कोशिश छोड़ देते हैं —
यही वह जीत है जो instrumentarian शक्ति चाहती है।
6. सुविधा का नशा — हम उजाले से चिपक कर उसके अंधेरे को भूल जाते हैं
सरल व्याख्या:
यह व्यवस्था लगातार कहती है कि नई तकनीक सिर्फ सुविधा, आराम, और सामंजस्य (harmony) लाती है।
लोग इन सुविधाओं से इतने खुश हो जाते हैं कि
तकनीक का अंधेरा हिस्सा देखने से इनकार कर देते हैं।
व्यावहारिक उदाहरण:
-
आप अपनी प्राइवेसी इसीलिए छोड़ देते हैं क्योंकि सिर्फ एक बटन से लॉग-इन हो जाता है।
-
आप आवाज़ सुनने वाली मशीन इस्तेमाल करते हैं, पर भूल जाते हैं कि वह आपकी बातें रिकॉर्ड कर रही है।
-
आप मान लेते हैं कि “स्मार्ट” चीज़ें हमेशा समझदार होती हैं — जबकि वे सिर्फ आपको अनुमानित बनाती हैं।
निष्कर्ष:
सुविधा का यह नशा हमें आलोचना से दूर ले जाता है।
हम उजाले (convenience) पर भरोसा करते हैं और उसके पीछे का अंधेरा (surveillance) भूल जाते हैं।
समग्र निष्कर्ष — बिना हिंसा, बिना आदेश, बिना शोर… स्वतंत्रता का चुपचाप अंत
इस नए डिजिटल शासन में:
• कोई आपको रोकता नहीं
• कोई धमकाता नहीं
• कोई आपके अधिकार नहीं छीनता
• कोई तानाशाह जैसा आदेश नहीं देता
फिर भी —
आपकी इच्छा, आपका निर्णय, आपकी स्वतंत्रता धीरे-धीरे मशीनों और बाज़ार के प्रवाह में समाती जाती है।
यही है instrumentarian power का सबसे खतरनाक रूप:
यह आपको जीतकर नहीं,
आपको आराम देकर
आपकी स्वतंत्रता पर कब्ज़ा कर लेती है।
Page 241–242 (24.11.2025)
बाज़ार की पूर्ण निश्चितता का नया युग — इंसान से अनुभव छीनकर व्यवहार बनाने वाला सिस्टम
(Simple Hindi Explanation of Page 241–242)
1. पहले राज्य “पूरी सत्ता” चाहता था — अब बाज़ार “पूरी निश्चितता” चाहता है
सरल व्याख्या:
टोटलिटेरियन (तानाशाही) शासन राज्य को एक ऐसी चीज़ में बदल देता था जो लोगों पर पूरी तरह अधिकार चाहती थी—उनके शरीर, विचार, पहचान, सब पर।
लेकिन instrumentarianism राज्य को नहीं, बाज़ार को बदल देता है।
अब बाज़ार का लक्ष्य है:
“लोग क्या करेंगे, यह पहले से निश्चित हो।”
यह बदलाव डिजिटल तकनीक के बिना असंभव था।
और यह बदलाव निगरानी-पूँजीवाद (surveillance capitalism) के बिना भी असंभव था।
व्यावहारिक उदाहरण:
-
फेसबुक, गूगल, टिकटॉक आपके व्यवहार का भविष्य पहले से तय कर देते हैं।
-
कंपनियाँ जानती हैं कि आप कौन-सा उत्पाद कब खरीदेंगे।
-
ऐप्स आपके “क्लिक” और “रुकने” के आधार पर साबित कर देते हैं कि आपका अगला निर्णय क्या होगा।
निष्कर्ष:
तानाशाह राज्य “पूरी वफ़ादारी” चाहता था।
डिजिटल बाज़ार “पूरी भविष्यवाणी” चाहता है।
और यही आज का सबसे गहरा सत्ता-परिवर्तन है।
2. Big Other = निगरानी + नियंत्रण + व्यवहार-बाज़ार का मेल
सरल व्याख्या:
यह नई शक्ति दो बड़े तत्वों के मिलन से पैदा हुई है:
-
Big Other — आपकी हर क्रिया को मापने, ट्रैक करने और प्रभावित करने वाली डिजिटल मशीनरी।
-
behavioral surplus — आपकी रोज़मर्रा की गतिविधियों से निकाला गया “अतिरिक्त डेटा” जिसका उपयोग लाभ कमाने के लिए किया जाता है।
इन दोनों के मिल जाने से एक नया अर्थशास्त्र बना है जो “इंसानी अनुभव” को एक कच्चे माल की तरह इस्तेमाल करता है और उससे “व्यवहार” को ढालता है, ताकि दूसरों का फायदा हो।
व्यावहारिक उदाहरण:
-
मैप ऐप आपकी यात्रा का डेटा बेचता है।
-
सोशल मीडिया आपकी भावनाओं का डेटा विज्ञापन में बदल देता है।
-
गेम कंपनियाँ आपके क्लिकों को “खरीदार के रूप में आपकी भविष्यवाणी” में बदलती हैं।
निष्कर्ष:
यह नया मॉडल इंसान को “उत्पाद” नहीं बनाता —
वह इंसान के अनुभव को कच्चा माल बनाकर व्यवहार को उत्पाद बना देता है।
3. इंसान को सोचने वाला नहीं, “प्रतिक्रियाएँ देने वाला जीव” माना जाता है
सरल व्याख्या:
Instrumentarian शक्ति लोगों को “सोचने वाले व्यक्तियों” की तरह नहीं देखती।
वह सिर्फ उनके व्यवहार को देखती है—
ऐसा व्यवहार जिसमें अर्थ, भाव, इतिहास, संघर्ष — कुछ नहीं होता।
सिर्फ “predictable actions”.
अरेंड्ट ने दशकों पहले चेतावनी दी थी कि
अगर हम “सोच” को सिर्फ “दिमाग की प्रक्रिया” समझ लें,
तो मशीनें भी सोच सकती हैं।
और फिर “मानव” और “मशीन” में फर्क मिट जाएगा।
व्यावहारिक उदाहरण:
-
आपको वीडियो देखकर महसूस क्या हुआ — सिस्टम को फर्क नहीं।
-
आप खुश हैं या दुखी — सिस्टम को फर्क नहीं।
-
वह सिर्फ देखता है: “आपने अगला क्लिक कहाँ किया?”
निष्कर्ष:
जब इंसान की सोच को “मापने योग्य प्रक्रिया” बना दिया जाता है,
तो इंसान धीरे-धीरे “व्यवहार-जीव” में बदल जाता है —
जो सिस्टम के संकेतों पर चलता है।
4. अरेंड्ट की चेतावनी: समाज “फ़ंक्शन करने वाले मजदूरों का झुंड” बन सकता है
सरल व्याख्या:
अरेंड्ट कहती हैं कि आधुनिक समाज लोगों को “automatic jobholders” बनाना चाहता है —
यानि ऐसे लोग जो बिना सवाल पूछे काम करें,
बिना रुकावट के सिस्टम की मांग पूरी करें,
और अपनी व्यक्तिगत पीड़ा, इच्छा या सोच को पीछे छोड़ दें।
वह चेतावनी देती हैं कि behaviorism (केवल व्यवहार-आधारित सिद्धांत) सही है —
इसलिए खतरनाक है।
क्योंकि समाज की वर्तमान दिशा ठीक वैसी ही है जैसी behaviorism चाहता है।
व्यावहारिक उदाहरण:
-
कंपनियों को ऐसे कर्मचारी चाहिए जो “algorithmic performance metrics” पर काम करें।
-
स्कूल बच्चों को “problem-solving skills” नहीं, “test scores” के हिसाब से गढ़ते हैं।
-
सोशल मीडिया ऐसे उपयोगकर्ता चाहता है जो बस क्लिक करें, रुकें, देखें — सोचें नहीं।
निष्कर्ष:
अरेंड्ट का डर यही था:
इंसान की व्यक्तिगतता और स्वतन्त्रता धीरे-धीरे “स्वचालित व्यवहार” में बदल जाएगी।
5. सबसे बड़ा खतरा: “एक शांत, अनुत्साही, निःक्रिय समाज”
सरल व्याख्या:
अरेंड्ट कहती हैं कि आधुनिक युग, जिसने कभी अद्भुत ऊर्जा और रचनात्मकता पैदा की थी,
कहीं ऐसा न हो कि उसी युग का अंत
इतिहास के सबसे निःक्रिय, शांत, सुस्त और निष्प्राण समाज में हो।
एक ऐसा समाज जहाँ लोग कुछ बदलना ही नहीं चाहते क्योंकि उन्हें पता ही नहीं कि वे नियंत्रित हो रहे हैं।
व्यावहारिक उदाहरण:
-
लोग निजता, आज़ादी, या लोकतांत्रिक भागीदारी की चिंता छोड़ देते हैं।
-
लोग “बस ऐप बता दे, वही कर लेंगे” वाली मानसिकता में आ जाते हैं।
-
लोग प्रतिरोध, सवाल-पुछने, बहस करने की इच्छा खो देते हैं।
निष्कर्ष:
अगर इंसान सिर्फ तकनीकी संकेतों पर चलने लगे,
तो समाज बाहर से आधुनिक दिखेगा,
लेकिन भीतर से मृत और निष्क्रिय।
6. अंतिम सवाल — क्या हमारा घर यही होगा?
सरल व्याख्या:
लेखक एक गहरा सवाल पूछता है:
क्या हमारी दुनिया अंततः ऐसी बन जाएगी जहाँ “स्वयं का ऑटोमेशन” समाज के ऑटोमेशन की शर्त बन जाए?
यानि:
अगर समाज को पूरी तरह नियंत्रित और अनुमानित बनाना है,
तो पहले इंसान को नियंत्रित और अनुमानित बनाना होगा।
और यह सब किसके लिए?
किसी और के लाभ, किसी और के फायदे, किसी और की निश्चितता के लिए।
व्यावहारिक उदाहरण:
-
AI कंपनियाँ कहती हैं: “जितना डेटा दोगे, उतना बेहतर अनुभव मिलेगा।”
-
असल में अनुभव बेहतर नहीं, आपकी अनुमान-योग्यता बेहतर होती है।
-
और आपके अनुमान का उपयोग दूसरों के लाभ के लिए किया जाता है।
निष्कर्ष:
अगर समाज को “automated certainty” चाहिए,
तो इंसान की “स्वतन्त्रता” सबसे पहले खत्म होगी।
और यही आज का सबसे बड़ा नैतिक और राजनीतिक प्रश्न है।
समग्र निष्कर्ष — ‘पूरी निश्चितता’ के नाम पर ‘पूरी मानवता’ का नुकसान
Instrumentarianism हमें मारेगा नहीं, धमकाएगा नहीं, जेल में नहीं डालेगा —
यह हमसे हमारी स्वतंत्रता धीरे-धीरे, चुपचाप छीन लेगा।
• सोच → प्रतिक्रिया
• स्वतंत्रता → पूर्वानुमान
• व्यक्ति → डेटा
• समाज → व्यवहार बाजार
• लोकतंत्र → अनुमानित जनसमूह
यही वह चुपचाप होने वाला बदलाव है जिसे अरेंड्ट, स्किनर और कई चिंतकों ने अपनी तरह से पहले ही देख लिया था।
The New Regime of Total Certainty
The New Regime of Total Certainty: How Instrumentarian Power Redesigns Human Freedom
The twentieth century knew a terrifying political project called totalitarianism—a project in which the state attempted total possession of human beings: their bodies, thoughts, identity, dreams, fears, and inner conscience. But our century is witnessing a different transformation. The threat no longer comes from the state demanding total loyalty. Instead, it comes from the market demanding total certainty.
Instrumentarianism—powered by Big Other and fueled by surveillance capitalism—seeks not obedience but predictability. And in this demand for perfect behavioral prediction, it quietly pushes humanity into a new form of control, smoother than dictatorship but far more pervasive.
1. From Total State-Control to Total Market-Certainty
Unlike totalitarian states that demanded loyalty to ideology, instrumentarian power demands something else:
that human behavior must become predictable.
This transformation was impossible before the digital age. Without smartphones, GPS, sensors, biometric devices, or social media, the market could never dream of knowing human behavior at such a microscopic level.
But today:
-
Facebook predicts your political leanings before you do.
-
TikTok knows your attention pattern better than your teacher or spouse.
-
Amazon predicts what you will buy, at what time, and in what mood.
-
PayTM, Swiggy, and Zomato in India predict spending cycles with frightening precision.
The goal is not to dominate your mind but to guarantee your next action.
Argument:
Totalitarianism wanted complete control; instrumentarianism wants complete prediction.
In political dictatorships, freedom was eliminated through violence.
In digital markets, freedom is dissolved through convenience.
2. Big Other: When Surveillance Merges with Behavioral Markets
Instrumentarian power emerges from a historic convergence of two forces:
-
Big Other – the digital machinery that monitors, measures, and influences every action.
-
Behavioral surplus – the extra data extracted from your daily life and sold in new behavioral futures markets.
Together, they create an economic logic where human experience becomes raw material, and human behavior becomes the final product.
Examples from daily life:
-
Google Maps selling aggregated movement patterns to advertisers and city planners.
-
Social media turning your emotional pauses into targeted advertising insights.
-
Gaming apps like FreeFire and Candy Crush using your clicking rhythm to predict impulsive spending.
-
Fitness apps selling your sleep and movement data to insurance companies.
Argument:
We are no longer the “product.”
Our behavior is the product, our life the raw material, and our future actions the commodity sold in global markets.
3. Humans Reduced to Reacting Creatures, Not Thinking Beings
Instrumentarian power does not care about human interiority—your meaning, emotions, or intentions.
It looks at humans only as organisms that behave.
Hannah Arendt warned that if we reduce thinking to a “brain activity,” machines will eventually replace it.
This is exactly what is happening.
For Big Other:
-
Your joy or sorrow while watching a video does not matter.
-
Your personal story is irrelevant.
-
Only your next click matters.
Your inner world becomes invisible; your outer actions become everything.
Examples from digital life:
-
YouTube cares only how long you watched, not how it made you feel.
-
Instagram sees you as an “engagement unit,” not a person.
-
Online learning platforms measure performance by clicks and completion rates, not understanding.
Argument:
By stripping human behavior of meaning, instrumentarian power turns individuals into predictable reaction-machines—perfect for market exploitation.
4. Arendt’s Warning: A Society of Automatic Jobholders
Hannah Arendt foresaw this danger decades ago.
She feared that modern society would push people into automatic functioning—as if individual life could dissolve into mechanical routines.
What she described is now visible everywhere:
-
Companies expect workers to match algorithmic performance targets.
-
Gig workers in India (Swiggy, Uber, Zomato) are judged by automated systems that track their speed, ratings, and compliance.
-
Education systems push for test scores rather than independent thought.
-
Social media platforms want users who follow predictable clicking patterns, not reflective reasoning.
Argument:
Arendt feared that modern society might end not in creativity but in a silent, passive, functional numbness.
Instrumentarianism accelerates exactly this.
5. The Rise of Passive Societies: Modern on the Outside, Lifeless Inside
Arendt warned that a society overflowing with technological energy might die in a new kind of passivity—smooth from the outside, hollow within.
And we see this today:
-
Most people surrender privacy for convenience.
-
Political opinions are shaped by feeds, not deliberation.
-
Public debate is replaced by algorithmic echo chambers.
-
People outsource thinking to Google, choices to Netflix, relationships to Tinder, and routes to GPS.
India, the US, China, Europe—everywhere we see the same pattern:
citizens who act without awareness, scroll without intention, and conform without resistance.
Argument:
A society driven by digital nudges becomes modern in infrastructure but empty in imagination.
6. The Final Question: Is This the World We Want to Call Home?
The passage ends with a moral question:
Do we want a world where self-automation becomes the price we pay for the automation of society?
In other words:
-
To make society perfectly predictable,
-
humans must first become predictable.
-
To guarantee outcomes for corporations,
-
individuals must surrender volition.
Tech companies tell us:
“Give us more data, and your experience will improve.”
But the truth is different:
-
What improves is our predictability, not our humanity.
-
What grows is their power, not our freedom.
Argument:
If society seeks “automated certainty,” then human freedom will be the first sacrifice.
This is not a technological problem—it is the central moral and political challenge of our time.
Conclusion: Total Certainty Means Total Loss of Humanity
Instrumentarianism does not jail people, torture them, or censor them openly.
Its violence is quiet.
Its weapon is prediction.
Its method is nudging.
Its reward is compliance.
Its cost is autonomy.
The transformation is subtle but radical:
-
Thought becomes reaction.
-
Freedom becomes predictability.
-
Individuals become datasets.
-
Society becomes a behavioral market.
-
Democracy becomes an algorithmic playground.
Arendt, Skinner, and many thinkers warned us in different ways:
Humanity may lose its future not through oppression, but through convenience.
The question that remains is not technological but civilizational:
Will we remain authors of our own lives,
or will we become the predictable creatures of someone else’s market dreams?
III. एक उल्टा क्षितिज — Instrumentarian शक्ति कैसे अलग है
1. तानाशाही और इंस्ट्रूमेंटेरियनिज़्म में मूलभूत अंतर
सरल व्याख्या:
तानाशाही (totalitarianism) ने सत्ता को व्यक्ति के शरीर और मन तक पूरी तरह धकेल दिया—हिंसा, धारणा, और जबरदस्ती से। दूसरी ओर instrumentarian शक्ति हिंसा नहीं चलाती; वह व्यवहार बदलेगी — यानी आप क्या करते हैं, यह बदलकर मुनाफ़ा कमाती है।
उदाहरण:
-
तानाशाही में जहरीली पोस्टर, जेल, और भाषणों पर रोक।
-
आज के डिजिटल मॉडल में आपको हर रोज़ “छूटी हुई” सहमति देनी पड़ती है: ऐप परमिशन, autoplay, personalized feed — बिना ज़ोर लगाए आपका व्यवहार बदला जाता है।
निष्कर्ष:
तनाव और बल से सत्ता लेना एक तरीका था; अब डिजिटल बाज़ार ने एक नया रास्ता चुना — व्यवहार नियंत्रित करके सत्ता हासिल करना।
2. आत्मा और मानवीय अर्थ में कोई दिलचस्पी नहीं — गहन उदासीनता
सरल व्याख्या:
Instrumentarian शक्ति को आपकी भावनाएँ, दर्द, अर्थ, या आप क्यों कुछ करते हैं — इन सब में कोई दिलचस्पी नहीं। यह सिर्फ़ मापने योग्य क्रियाएँ चाहती है जिनसे वह गणना, संशोधन और बेच सके।
उदाहरण:
-
आपकी आँसू या खुशी से सिस्टम को फर्क नहीं पड़ता; पर आँसू के दौरान किए गए क्लिक से उसे डेटा मिलता है।
-
स्वास्थ्य ऐप आपका दिल दरकने का रिकॉर्ड ले सकता है, पर उसे आपकी पीड़ा से कोई सरोकार नहीं।
निष्कर्ष:
यह शक्ति मानवीय अर्थों के प्रति अनंत उदासीन है — उसे केवल वह चीज़ चाहिए जो उसे बाजार में बेची जा सके: आपका व्यवहार।
3. हिंसक नहीं, पर नया और चौंकाने वाला — पहचान में कठिनाई
सरल व्याख्या:
क्योंकि instrumentarian शक्ति शारीरिक हिंसा नहीं करती, उसे नाम देना और पहचानना कठिन है। यह तकनीक के पीछे छिपकर, मधुर भाषा और जटिल तकनीकी परतों से अपना काम करती है।
उदाहरण:
-
किसी कंपनी का कहना: “हम तो सिर्फ़ सुविधाएँ दे रहे हैं।”
-
पर वही सुविधाएँ आपको ऐसे रास्ते पर डाल देती हैं जहाँ आपकी पसंद पहले से अनुमानित होती है।
निष्कर्ष:
नया ज़ुहर-शक्ति रूप इसलिए खतरनाक है क्योंकि वह शोर नहीं मचाती—वह चुपचाप हमारे रोज़मर्रा के निर्णयों को बदल देती है।
4. बाज़ार × डिजिटल = एक नई सामाजिक प्रभुता
सरल व्याख्या:
टनाशाही राजनीति और अर्थशास्त्र के मिलन से जन्मी; अब instrumentarianism बाजार की प्रवृत्ति और डिजिटल तकनीक के संगम से जन्म ले रही है — एक नया तरीका जिससे समाज पर अधिकार किया जा रहा है।
उदाहरण:
-
विज्ञापन-आधारित प्लेटफ़ॉर्म और डेटा-विक्रय से कंपनियाँ सामाजिक आदतों का निर्माण करती हैं।
-
छोटे-छोटे डिज़ाइन-निर्णय (UX) रोज़मर्रा के व्यवहार को आकार देते हैं।
निष्कर्ष:
यह सिर्फ़ तकनीक नहीं; यह एक बाज़ारी परियोजना है जो डिजिटल साधनों के ज़रिये सामाजिक प्रभुता कायम करती है।
5. उद्गम: रेडिकल बिहेवियरिज़्म और वैज्ञानिक प्रयोगशालाएँ
सरल व्याख्या:
इस विचार का बौद्धिक मूल “radical behaviorism” में मिलता है—जो मानव को व्यवहारिक नियमों से समझने की कोशिश करता है—और यह वैज्ञानिक प्रयोगों (प्रयोगशालाएँ, कक्षाएँ) से जुड़ा हुआ है जहाँ मनुष्यों को भी पैटर्न में देखा गया।
उदाहरण:
-
स्किनर के लैब-प्रयोग जहाँ जानवरों में व्यवहार सिखाया जाता था।
-
20वीं सदी के भौतिक-विचारों ने भी “प्रेक्षण और माप” के मूल्य को ठोंक-ठोंक कर बढ़ाया।
निष्कर्ष:
Instrumentarian शक्ति का इतिहास प्रयोगशाला के विचारों से गुज़रता है—यह तकनीकी नहीं केवल वैचारिक है: मानव को पैटर्न मानने का एक वैज्ञानिक नजरिया इसे जन्म देता है।
6. मानव को “समूह” या “संहिता” की तरह देखने की प्रवृत्ति
सरल व्याख्या:
कुछ विचारकों ने मनुष्यों को चींटियों, भेड़ों, या रैंजर-खेड़ों की तरह देखा—यानी स्वतंत्र इच्छा कम और व्यवहारिक पैटर्न ज़्यादा। Instrumentarian दृष्टि भी इस तरह का मानवीय मॉडल अपनाती है।
उदाहरण:
-
समाज-विज्ञान के कुछ प्रयोग जहां भीड़ के व्यवहार से नीतियाँ बनती हैं।
-
मार्केट-सिग्नल पर आधारित नीतियाँ जो “सामूहिक प्रतिक्रियाओं” को लक्षित करती हैं।
निष्कर्ष:
यह दृष्टिकोण मानव-अस्तित्व की जटिलता को घटा कर सिर्फ़ परिणाम-उन्मुख गति पर टिकी रहती है—जो लोकतंत्र और आत्म-निर्णय के लिए ख़तरनाक है।
7. चेतावनी और नतीजा — हमारी समझ और प्रतिरोध क्षमता पर असर
सरल व्याख्या:
Instrumentarian शक्ति ने हमारे जानने और समझने के तरीके को प्रभावित किया है। यह लोकतंत्र की ज़रूरी क्षमताएँ—विचार, आलोचना, सार्वजनिक बहस—धीरे-धीरे कमज़ोर कर सकती है।
उदाहरण:
-
फिल्टर-बबल्स और echo chambers ने बहसों को टुकड़ों में बाँट दिया।
-
छोटे डिज़ाइन-निर्णय (autoplay, push notifications) ने मन की आत्म-एकाग्रता काट दी।
निष्कर्ष:
यदि यह प्रवृत्ति न रुकी, तो हम वह क्षमता खो देंगे जिनके बिना लोकतंत्र जीवित नहीं रह सकता—स्वतंत्र सोच, सार्वजनिक विमर्श, और निर्णायक नागरिकता।
8. समापन — कहाँ से शुरुआत करनी चाहिए?
सरल व्याख्या:
समाधान केवल तकनीकी रोकथाम या नियमों तक सीमित नहीं हो सकते; हमें instrumentarian शक्ति के बौद्धिक और नीतिगत जड़ों को भी समझना होगा—वहां से चेतना और प्रतिरोध जन्म लेता है।
उदाहरण:
-
शैक्षिक नौकरशाहियाँ जो आलोचनात्मक सोच सिखाएँ।
-
डिज़ाइन-नियम जो “डिजिटल फ्रिक्शन” बनाकर सोचने का समय दें।
-
जमानत-कानून और डेटा-नियम जो पारदर्शिता और विकल्प सुनिश्चित करें।
निष्कर्ष:
यह लड़ाई तकनीक के विरुद्ध नहीं, बल्कि एक ऐसे सामाजिक-विचारिक पुनर्निर्माण के लिए है जो इंसान की जटिलता और स्वतन्त्रता को बचाए रखे।
Below is a full English essay written in a clear, powerful style with one main heading and well-structured subheadings.
It explains every part of the passage, adds vivid global examples (USA, India, Southeast Asia, Africa, Latin America), and includes the second part you requested: how totalitarianism and instrumentarianism now fuse—especially in China, Russia, and the Middle East—to govern behavior, movement, thought, and decisions.
Instrumentarian Power and the New Horizon of Control: From Global Markets to Digital States
Instrumentarian power represents a new horizon in the history of domination. Unlike totalitarianism—which sought to possess people through ideology and violence—instrumentarianism shapes people through behavioral modification and digital extraction. It does not seek our souls, emotions, or inner convictions; it wants something far more profitable and scalable: our measurable actions. This essay explores how this new power works, how it differs from older forms of control, and how in some regions—especially China, Russia, and parts of the Middle East—it fuses with totalitarian logic to create an unprecedented architecture of total command over citizens.
1. Not a State of Terror, But a Market of Total Certainty
Totalitarian regimes of the 20th century—Nazi Germany, Stalinist USSR, Pol Pot’s Cambodia—ruled through fear, imprisonment, ideological indoctrination, and violence. Their aim was to reshape the human soul. Instrumentarian power, however, has no interest in our inner selves. It does not want loyalty or belief. It seeks certainty—the ability to predict what humans will do next so that corporations can monetize behavior at scale.
Global Examples
-
United States: Google, Meta, Amazon and TikTok track every click, pause, and scroll to build highly accurate behavioral prediction models.
-
India: Jio, Paytm, Zomato, Swiggy, and government apps accumulate behavioral data of hundreds of millions of people to anticipate consumption and mobility patterns.
-
Southeast Asia: Grab and Shopee use micro-behavioral cues to push specific purchases and shape user spending.
-
Africa: Fintech platforms like M-Pesa and Branch use behavioral data to assign credit scores, replacing traditional financial assessment.
-
Latin America: Mercado Libre and Nubank use predictive algorithms to influence consumer patterns across Brazil, Argentina, and Mexico.
United States: Google, Meta, Amazon and TikTok track every click, pause, and scroll to build highly accurate behavioral prediction models.
India: Jio, Paytm, Zomato, Swiggy, and government apps accumulate behavioral data of hundreds of millions of people to anticipate consumption and mobility patterns.
Southeast Asia: Grab and Shopee use micro-behavioral cues to push specific purchases and shape user spending.
Africa: Fintech platforms like M-Pesa and Branch use behavioral data to assign credit scores, replacing traditional financial assessment.
Latin America: Mercado Libre and Nubank use predictive algorithms to influence consumer patterns across Brazil, Argentina, and Mexico.
Instrumentarian power does not punish dissent; it monetizes attention. It does not demand submission; it rewards predictable reactions.
2. Radical Indifference: Humans Reduced to Data-Producing Organisms
Instrumentarian systems do not care what people feel or mean; they care only about the behavior that can be measured. It treats humans like biological machines—organisms that react, rather than thinkers who interpret.
Examples
-
YouTube does not care why you watch a video—it cares how long you will stay.
-
Instagram does not care what your post means to you—it cares about how many interactions it produces.
-
Health apps do not “want you healthy”; they want constant streams of biometrics to sell to insurers or data brokers.
-
In India, ed-tech platforms measure children by “engagement,” not by human understanding.
-
In Kenya or Nigeria, low-income workers on gig apps are reduced to algorithmic ratings.
YouTube does not care why you watch a video—it cares how long you will stay.
Instagram does not care what your post means to you—it cares about how many interactions it produces.
Health apps do not “want you healthy”; they want constant streams of biometrics to sell to insurers or data brokers.
In India, ed-tech platforms measure children by “engagement,” not by human understanding.
In Kenya or Nigeria, low-income workers on gig apps are reduced to algorithmic ratings.
This radical indifference dehumanizes people not through violence but through perfect market logic: if it cannot be measured, it does not matter.
3. A New Social Domination Engineered by the Digital
Totalitarianism was political. Instrumentarianism is commercial. But both reshape society from the inside out.
Instrumentarian power operates invisibly, hidden in:
-
algorithmic recommendations
-
automated decision systems
-
nudges built into digital interfaces
-
data collection infrastructures
-
predictive analytics
It is “soft” domination, but its reach is far wider than any dictator could dream of.
Global Patterns
-
United States: Target predicting pregnancies, Netflix deciding cultural taste, Google shaping the world’s information architecture.
-
India: UPI and Aadhaar creating unified behavioral databases that private firms analyze; Jio’s data ecosystem shaping entertainment and consumption.
-
Indonesia/Malaysia: E-commerce and ride-sharing platforms creating 24/7 surveillance of workers and customers.
-
Brazil: WhatsApp becoming the country’s primary political messaging tool, influencing elections and civic discourse.
-
South Africa: Mobile money and social platforms tracking behaviors of millions in informal settlements.
United States: Target predicting pregnancies, Netflix deciding cultural taste, Google shaping the world’s information architecture.
India: UPI and Aadhaar creating unified behavioral databases that private firms analyze; Jio’s data ecosystem shaping entertainment and consumption.
Indonesia/Malaysia: E-commerce and ride-sharing platforms creating 24/7 surveillance of workers and customers.
Brazil: WhatsApp becoming the country’s primary political messaging tool, influencing elections and civic discourse.
South Africa: Mobile money and social platforms tracking behaviors of millions in informal settlements.
Instrumentarianism appears harmless because it offers convenience, personalization, and ease. But beneath these lies a structure designed to anticipate and shape collective behavior.
4. Its Intellectual Roots: Radical Behaviorism
The viewpoint behind instrumentarian power came not from politics but from science. Radical behaviorists—like B. F. Skinner—believed humans are creatures driven by stimuli and responses, not inner freedom.
Skinner argued that:
-
free will is an illusion
-
behavior can be fully predicted
-
social engineering through rewards and punishments is possible
Today, Big Other has the technology Skinner lacked—smartphones, sensors, cloud computing, machine learning. Human beings are now measurable at millisecond levels. Behaviorism has finally found its perfect tools.
Modern Illustrations
-
TikTok’s “infinite scroll” is Skinner’s box at planetary scale.
-
Ride-hailing drivers in India or Indonesia are rewarded/punished algorithmically.
-
Online education platforms evaluate children through gamified “streaks” and badges.
-
Apps across Africa distribute micro-loans based on digital behavioral patterns—not human consultation.
TikTok’s “infinite scroll” is Skinner’s box at planetary scale.
Ride-hailing drivers in India or Indonesia are rewarded/punished algorithmically.
Online education platforms evaluate children through gamified “streaks” and badges.
Apps across Africa distribute micro-loans based on digital behavioral patterns—not human consultation.
The human being becomes the lab animal; the digital environment becomes the behavioral cage.
5. The New Quiet Coercion: Hard to Name, Harder to Resist
Instrumentarianism is not loud like dictatorship. It is subtle:
-
wrapped in slick design
-
hidden behind privacy policies
-
camouflaged by “user experience”
-
protected by technological complexity
-
justified by convenience
Most people do not even realize they are being governed. They think they are “choosing,” when they are merely “reacting.”
Examples:
-
Autoplay steals hours of attention.
-
Location tracking silently maps human movement.
-
“Suggested for you” shapes cultural consumption across entire nations.
-
Push notifications create compulsive habits.
-
Personalized news feeds structure political identity.
Domination without noticing it is the most dangerous form of domination.
Part II: When Totalitarianism and Instrumentarianism Fuse — The New Hybrid Authoritarian State
In some regions, especially China, Russia, and parts of the Middle East, the two systems—totalitarianism (political) and instrumentarianism (digital-commercial)—combine into a new machinery of total control. This hybrid model controls:
-
behavior
-
movements
-
decisions
-
emotions
-
beliefs
-
political participation
-
social interactions
1. China: The Highest Fusion of Both Powers
China’s governance model combines:
-
digital surveillance
-
behavioral scoring
-
algorithmic censorship
-
face recognition
-
state–corporate data sharing
Social Credit System:
Tracks every citizen’s actions—travel, spending, social contacts.
Rewards compliance, punishes deviation.
Examples:
-
Citizens cannot buy train tickets if their score drops.
-
Uighurs are monitored by AI cameras that track micro-expressions.
-
WeChat records every message, transaction, and connection.
This is the perfect blend of:
-
totalitarian ideology
-
instrumentarian behavior prediction
2. Russia: Behavioral Control + Political Manipulation
Russia uses:
-
mass digital surveillance
-
algorithmic propaganda
-
AI-based censorship
-
GPS-based movement monitoring
Examples:
-
The government tracks protesters using mobile tower data.
-
VKontakte and Telegram monitoring identify political dissidents.
-
State-linked troll factories manipulate digital behavior and opinions.
This is not just repression; it is instrumented politics—a digitally shaped public consciousness.
3. Middle East: Digital Authoritarianism in the Gulf
Countries like UAE and Saudi Arabia combine:
-
facial recognition systems
-
predictive policing
-
biometric IDs
-
AI behavior monitoring
-
corporate-state data integration
Examples:
-
“Smart cities” like NEOM use AI to track all movements.
-
Digital IDs monitor services, travel, purchases.
-
Activists are tracked through spyware like Pegasus.
Here, the goal is not only obedience but total behavioral transparency.
Conclusion: The World at a Crossroads
Democracies face a soft form of instrumentarian domination.
Authoritarian states face a hard fusion of totalitarian and instrumentarian power.
Both threaten:
-
human freedom
-
democratic citizenship
-
cognitive autonomy
-
the right to the future tense
The future depends on whether societies can reclaim the ability to think, reflect, and question—before the systems designed to predict us learn how to control us completely.
III. इस सदी का अभिशाप
इस प्रश्न पर विचार की शुरुआत हम अरेंड्ट की उस टिप्पणी से कर सकते हैं, जिसे उन्होंने द ओरिज़िन्स ऑफ टोटलिटेरियनिज़्म (पहले संस्करण) के “Concluding Remarks” में लिखा था। यह शब्द मुझे कई साल पहले पढ़ने के बाद से लगातार परेशान करते आए हैं।
यह वह समय था जब यूरोप में सर्वसत्तावाद पराजित हो चुका था, लेकिन स्टालिन के सोवियत संघ में वह पूरी तरह अडिग और अनchallenged खड़ा था। दुनिया का बड़ा हिस्सा उस समय इस बात को समझने और याद रखने की गहरी ज़रूरत से एकजुट था—
सिर्फ गवाही के रूप में नहीं, बल्कि भविष्य के आतंक से रक्षा करने वाली एक वैक्सीन के रूप में।
अरेंड्ट के ये विचार सिर्फ सर्वसत्तावाद की “निरर्थकता” और “हास्यास्पदता” का सार नहीं हैं;
वे इसके “चिंताजनक रूप से आज भी प्रासंगिक” होने की गहरी चेतावनी भी हैं।
वे कहती हैं कि सर्वसत्तावाद को एक दुर्घटना, एक ऐतिहासिक गलती, या त्रासदी की अचानक मोड़ के रूप में खारिज नहीं किया जा सकता।
उसे इस सदी के गहरे संकटों से “गहन रूप से जुड़ा हुआ” समझना होगा।
अरेंड्ट अंत में लिखती हैं:
“सच्चाई यह है कि हमारे समय की असली समस्याओं को समझा ही नहीं जा सकता—समाधान तो दूर की बात है—जब तक हम यह स्वीकार न कर लें कि सर्वसत्तावाद इस सदी का अभिशाप इसलिए बना क्योंकि उसने इन समस्याओं को इतनी भयावह दक्षता के साथ ‘सुलझा’ दिया।”
इसी तरह कल्पना कीजिए—भविष्य का एक विचारक
अब कल्पना कीजिए, कई दशक बाद कोई नया विचारक बैठा हो और इंस्ट्रूमेंटेरियन शक्ति की “चिंताजनक प्रासंगिकता” पर विचार कर रहा हो।
वह यह लिख रहा हो कि—
“हमारे समय की असली समस्याएँ समझी ही नहीं जा सकतीं—छोड़िए समाधान को—जब तक हम यह स्वीकार न कर लें कि इंस्ट्रूमेंटेरियनिज़्म इस सदी का अभिशाप इसलिए बना क्योंकि उसने इन समस्याओं को उतनी ही भयावह दक्षता से ‘सुलझाया’ जितनी कभी सर्वसत्तावाद ने अपनी समस्याओं को।”
लेकिन कौन-सी समस्याएं?
मैंने पहले ही तर्क दिया है कि निगरानी-पूँजीवाद और उसकी इंस्ट्रूमेंटेरियन शक्ति मानव जीवन की उन अस्थिर परिस्थितियों पर पनपती है जिन्हें मैं “टकराव” (collision) कहता हूँ—
यानी वे अस्तित्वगत, सामाजिक और भावनात्मक उथल-पुथलें जिनमें आधुनिक मनुष्य लगातार जी रहा है।
निगरानी-पूँजीवाद व्यक्तियों को समाधान देता है—
-
सामाजिक जुड़ाव का वादा,
-
सूचनाओं की आसान पहुँच,
-
समय बचाने वाली सुविधाएँ,
-
और बहुत बार एक झूठा सहारा या सांत्वना।
ये हैं “पहले पाठ” (first text) की देन—वह चमकदार, सुविधाजनक, इस्तेमाल में आसान सतह जिसे हम डिजिटल जीवन का मुख्य चेहरा समझ लेते हैं।
लेकिन असली महत्व संस्थाओं को दिए गये समाधानों में है—
सर्वज्ञता (omniscience), नियंत्रण, और निश्चितता।
यहाँ उद्देश्य अस्थिरता, अविश्वास, और सामाजिक टूटन को ठीक करना नहीं है,
बल्कि उन कमजोरियों का लाभ उठाना है जो इन परिस्थितियों से पैदा होती हैं।
इस तंत्र का काम है—
-
सामाजिक विश्वास का क्षय,
-
परस्पर सहयोग की दरारें,
-
असमानता की चरम स्थितियाँ,
-
और बहिष्कार के बढ़ते शासन—
इन सबको खत्म करना नहीं, बल्कि इन्हीं को
डेटा, लाभ, शक्ति और पूर्वानुमेय व्यवहार में बदल देना।
सामाजिक भरोसा—कनेक्टिविटी बढ़ी, विश्वास घटा
यह ध्यान देने योग्य है कि “हमेशा-ऑन कनेक्शन” (always-on connection) के जितने भी बड़े-बड़े सामाजिक फायदे बताए जाते रहे हों, उसी अवधि में अमेरिका में सामाजिक भरोसा तेजी से गिरता चला गया—
ठीक उसी समय जब निगरानी-पूँजीवाद अपनी पूरी ताकत के साथ उभर रहा था।
अमेरिका के General Social Survey द्वारा लगातार किया जाने वाला “interpersonal trust attitudes” का मापन यह दिखाता है कि
1972 से 1985 के बीच अमेरिकी नागरिकों का यह विश्वास कि
“ज्यादातर लोगों पर भरोसा किया जा सकता है”—
काफी स्थिर बना रहा।
1972 में लगभग 46% अमेरिकी मानते थे कि अन्य लोग भरोसेमंद हैं।
1985 तक यह संख्या बढ़कर लगभग 50% तक पहुँच गई।
लेकिन जैसे-जैसे नव-उदारवादी नीतियों (neoliberal disciplines) की पकड़ तेज हुई,
यह प्रतिशत लगातार गिरने लगा—
1995 तक यह 34% पर आ गया,
ठीक उसी समय जब सार्वजनिक इंटरनेट पहली बार आम लोगों की ज़िंदगी में प्रवेश कर रहा था।
इसके बाद अंतिम 1990 के दशक से लेकर 2014 तक
भरोसे में लगातार, निर्णायक और स्थिर गिरावट देखी गई—
और यह सिर्फ 30% पर आकर रुक गया।
अर्थात्,
कनेक्टिविटी बढ़ी, लेकिन सामाजिक भरोसा टूटता चला गया।
विश्वास का क्षय — समाज के भीतर पैदा होता शक्ति का शून्य
वे समाज जहाँ लोग एक-दूसरे पर कम भरोसा करते हैं,
वहाँ यह प्रवृत्ति सामान्यतः वैध सरकारी संस्थाओं पर अविश्वास में भी दिखाई देती है।
अमेरिका में यही हुआ—और यह गिरावट ठीक उसी दौर में तेज हुई
जब कनेक्टिविटी बढ़ रही थी और निगरानी-पूँजीवाद पूरे समाज में फैला रहा था।
1958 में 75 प्रतिशत से अधिक अमेरिकियों ने कहा था कि
वे सरकार पर “अधिकांश समय भरोसा करते हैं।”
1985 तक यह भरोसा गिरकर लगभग 45 प्रतिशत रह गया।
2015 में यह गिरावट और तेज हुई—
भरोसे का स्तर 20 प्रतिशत के आसपास पहुँच गया।
और 2017 में यह घटकर सिर्फ 18 प्रतिशत रह गया।
सामाजिक भरोसा और सामूहिक शांतिपूर्ण निर्णय लेने की क्षमता के बीच गहरा संबंध है।
जहाँ सामाजिक विश्वास कमजोर होता है,
वहाँ जनता के बीच वे साझा मूल्य और परस्पर दायित्व भी कमजोर पड़ जाते हैं
जो किसी लोकतांत्रिक समाज को एक साथ बाँधे रखते हैं।
जब सामाजिक विश्वास खत्म होता है,
तो समाज के भीतर एक शून्य बन जाता है—
यह शून्य एक बहुत तेज संकेत है कि
समाज कमजोर हो रहा है, और किसी बाहरी शक्ति द्वारा प्रभावित होने के लिए तैयार है।
इस शून्य में
-
भ्रम,
-
अनिश्चितता,
-
एक-दूसरे पर अविश्वास
तेजी से फैलते हैं—
और यही वे परिस्थितियाँ हैं जिनमें सत्ता—राजनीतिक हो या डिजिटल—
आकर इस खाली जगह को भर लेती है।
दरअसल, ऐसी शक्तियाँ इस शून्य का स्वागत करती हैं,
क्योंकि इसी में उनकी नियंत्रण क्षमता सबसे अधिक बढ़ती है।
इंस्ट्रूमेंटेरियन शक्ति—समाज के खाली स्थान को भरने वाली नई व्यवस्था
निगरानी-पूँजीवाद के युग में इंस्ट्रूमेंटेरियन शक्ति ही वह ताकत है
जो सामाजिक विश्वास के टूटने से बने शून्य को भर देती है।
इस प्रक्रिया में मानवीय संबंधों की जगह मशीनें ले लेती हैं—
और इसका सीधा मतलब है कि
समाज की जगह “निश्चितता” ले लेती है।
इस कल्पित सामूहिक जीवन में
व्यक्ति की स्वतंत्रता खत्म होकर
“दूसरों के ज्ञान”—यानी एल्गोरिद्म, डेटा-बेस और मशीनों की सर्वज्ञता—
के अधीन चली जाती है।
और यह उपलब्धि तभी संभव होती है
जब “शैडो टेक्स्ट” (shadow text)—
अर्थात् मशीनें, डेटा नेटवर्क, एल्गोरिद्म और छिपी डिजिटल प्रक्रियाएँ—
पूरी तरह सक्रिय और व्यापक हों।
पूँजी संस्थाएँ आगे थीं — लेकिन राज्य ने उन्हें वैधता दी
इस सामूहिक जीवन और व्यक्तिगत अनुभव को बदलने की यह विशाल परियोजना
सबसे पहले निजी पूँजी की संस्थाओं (private institutions of capital) द्वारा आगे बढ़ाई गई।
लेकिन इसे सफल बनाने के लिए
उन्हें सार्वजनिक संस्थाओं—सरकारों, सुरक्षा एजेंसियों, अदालतों, नीति-निर्माताओं—
का सहयोग भी उतना ही आवश्यक था।
विशेष रूप से “आतंकवाद के खिलाफ युद्ध” (war on terror) ने वह वैधता दे दी
जिसकी आड़ में
मशीन द्वारा निर्मित ‘निश्चितता’
को समाज की अनिश्चितता के अंतिम समाधान के रूप में स्थापित किया गया।
राज्य और मशीन—साझेदारी नहीं, अधिनायक संबंध
ये परस्पर हित इतने गहरे थे
कि इंस्ट्रूमेंटेरियन शक्ति कभी भी
राज्य की “सौतेली संतान” नहीं बनी—
बल्कि धीरे-धीरे
समान भागीदार बनी,
और बहुत बार
राज्य से भी ऊपर उठकर वह स्वामी बन गई
जिस पर राज्य
अपने “पूर्ण जागरूकता” (total awareness)
के लक्ष्य में निर्भर रहने लगा।
राज्य क्यों इंस्ट्रूमेंटेरियन शक्ति को “निश्चित समाधान” मानता है
यह बात अब स्पष्ट हो चुकी है कि
इंस्ट्रूमेंटेरियन शक्ति को
आज की अनिश्चित, अस्थिर, और टूटती हुई सामाजिक परिस्थितियों का
सबसे भरोसेमंद समाधान माना जा रहा है।
और इसका सबसे बड़ा प्रमाण है—
वे तरीके जिनसे राज्य स्वयं इस शक्ति को सक्रिय करता है,
उसे बढ़ावा देता है,
और हर संकट की घड़ी में
“डिजिटल निश्चितता” को एकमात्र उपाय के रूप में अपनाता है।
राज्य और निगरानी-पूँजीवाद के बीच
जो जटिल, विविध और लगातार बदलते संस्थागत पैटर्न बन रहे हैं,
वे आज लोकतांत्रिक अध्ययन और सार्वजनिक बहस के
सबसे महत्वपूर्ण विषयों में से होने चाहिए।
मेरा उद्देश्य यहाँ केवल इतना है कि
मैं कुछ उदाहरण प्रस्तुत करूँ
जो दिखाते हैं कि
राज्य लगातार कैसे और क्यों
इंस्ट्रूमेंटेरियन शक्ति की वृद्धि की माँग करता है—
यानी
-
निगरानी,
-
ट्रैकिंग,
-
डेटा संग्रह,
-
प्रेडिक्टिव एल्गोरिद्म,
-
और Big Other की मशीनरी—
इन सभी का विस्तार
“सामाजिक विघटन, अविश्वास और अनिश्चितता”
का अंतिम समाधान मान लिया गया है।
हम संवेदनहीन हो गए हैं—लेकिन खतरा गायब नहीं हुआ
हम इतने उदाहरण देख चुके हैं—
और इतनी तेजी से—
कि अब हम लगभग सुन्न हो चुके हैं।
पर जरूरी है यह समझना कि
राज्य और बाजार दोनों
एक साझा लक्ष्य से बँधे हुए हैं:
पूर्वानुमेय, नियंत्रित, और निश्चित व्यवहार।
दोनों की संयुक्त प्राथमिकता है:
-
अनिश्चितता को खत्म करना,
-
सामाजिक स्वायत्तता को कम करना,
-
और बिग अदर (Big Other) की शक्ति को बढ़ाना।
यही साझा लक्ष्य हमारे समय का वास्तविक खतरा है
राज्य और बाज़ार के इस गहरे गठबंधन—
यह “आपसी आकर्षण”—
हमारी समस्या को परिभाषित करने में मदद करता है:
कि क्यों और कैसे
इंस्ट्रूमेंटेरियन शक्ति
हमारी सदी का नया अभिशाप बन सकती है।
और यह अभिशाप
हिंसा, बंदूकें या तानाशाह की तलवार से नहीं आएगा—
यह आएगा
डिजिटल निश्चितता की उस अत्याचारी व्यवस्था से
जो समाज के हर हिस्से में
मानवीय अनिश्चितता, असहमति, आलोचना और स्वतंत्रता
को धीरे-धीरे मिटा देती है।
आतंकवाद के भय में—इंस्ट्रूमेंटेरियन शक्ति को “अंतिम समाधान” के रूप में बुलाना
यह बिल्कुल आश्चर्यजनक नहीं है कि
इंस्ट्रूमेंटेरियन शक्ति को लगातार
आतंकवाद के खतरे से निपटने का समाधान—
और कई बार एकमात्र समाधान—
के रूप में बुलाया जाता है।
आतंकवादी हिंसा
सभ्यता के साझा मानदंडों को सीधे-सीधे अस्वीकार करती है।
यह दिखाती है कि
पारस्परिक विश्वास के बिना
कोई भी समाज स्थिर नहीं रह सकता।
सरकारें अब इस नई सामाजिक अनिश्चितता का जवाब
इंस्ट्रूमेंटेरियन शक्ति में खोज रही हैं—
और उन “निश्चितता मशीनों” की माँग कर रही हैं
जो वादा करती हैं कि वे:
-
सीधे,
-
विश्वसनीय,
-
और तेज़
तरीकों से
खतरे का पता लगाएंगी,
आने वाले हमलों की भविष्यवाणी करेंगी,
और स्वतः-संचालित प्रतिरोधात्मक कार्रवाई भी करेंगी।
बुश और ओबामा काल: सुरक्षा = सूचना-तकनीक की प्रगति
जॉर्ज बुश और बराक ओबामा
के प्रशासन के 16 वर्षों में
“सूचना-तकनीक में प्रगति” को
खतरे का सामना करने का
सबसे प्रभावी तरीका माना गया।
कानूनविद् पीटर स्वायर लिखते हैं कि
सरकारी अधिकारी यह भली-भाँति जानते थे कि
निजी क्षेत्र लगातार
नए-नए डेटा-संग्रह और डेटा-प्रसंस्करण तकनीकें विकसित कर रहा है,
और उन्हीं डेटा के आधार पर
निर्णय लेने की क्षमताएँ भी।
परिणामस्वरूप,
एक बड़ा और लगातार बढ़ता हुआ बदलाव आया—
सूचना-गहन रणनीतियों (information-intensive strategies)
की ओर,
जिनमें सरकारें
बाजार की इन क्षमताओं का
पूरी तरह उपयोग करने लगीं।
इसका सार यह है कि:
आतंकवाद के भय ने राज्य और निगरानी-पूँजीवाद को
सीधे एक-दूसरे की गोद में ला बैठाया।
स्नोडेन के खुलासे—“राज्य–बाज़ार गोपनीय गठजोड़” का पर्दाफाश
यह मौजूदा स्थिति (status quo) अचानक 2013 में टूट गई,
जब एडवर्ड स्नोडेन ने यह उजागर कर दिया कि
राज्य की सुरक्षा एजेंसियों और तकनीकी कंपनियों के बीच
एक गहरा, छिपा हुआ, और गोपनीय गठजोड़ चल रहा था।
इन खुलासों के बाद पैदा हुई भारी प्रतिक्रिया ने
निगरानी-पूँजीवादी कंपनियों को गंभीर
जन-संपर्क (public relations) चुनौतियों का सामना कराया।
उन्होंने खुद को ऐसे पेश करने की कोशिश की
मानो वे इस गठजोड़ में अनिच्छुक, असहज,
या मजबूरन शामिल रही हों—
जैसे यह साझेदारी उनकी पसंद नहीं,
बल्कि राज्य की सुरक्षा-ज़रूरतों का दबाव हो।
लेकिन इसके बावजूद,
जब भी कोई नया आतंकवादी खतरा सामने आता,
सार्वजनिक अधिकारी फिर से मुड़कर
Big Other की मशीनों
और उसके द्वारा प्रदान की जाने वाली
इंस्ट्रूमेंटेरियन शक्ति की ओर देखते।
उनकी नज़र में
यही वह “निश्चित समाधान” था
जो हर अनिश्चितता को नियंत्रित कर सकता है।
लेकिन यह शक्ति राज्य की पूरी संपत्ति नहीं है
राज्य की यह इच्छा भले ही स्पष्ट हो,
लेकिन इस विशाल डिजिटल शक्ति का उपयोग करना
तनावों और बाधाओं से भरा है।
यह शक्ति
पूरी तरह राज्य की “मलकीयत” (command) नहीं है।
राज्य इसे स्वयं नहीं चला सकता;
उसे मजबूरन
निगरानी-पूँजीवादी कंपनियों
के माध्यम से
काम करना पड़ता है।
यानी,
सरकारें Big Other चाहती तो हैं,
पर उसे पाने के लिए
उन्हें उसी निजी क्षेत्र की शर्तों पर चलना पड़ता है
जिसने इस शक्ति को बनाया है।
Comments
Post a Comment