CHAPTER 12
निगरानी पूँजीवाद में अब “उत्पादन के साधन” का इस्तेमाल “व्यवहार बदलने के साधन” के रूप में किया जा रहा है।
मशीनें अब इंसानों के बीच के रिश्तों की जगह ले रही हैं, ताकि विश्वास की बजाय निश्चितता (certainty) लाई जा सके।
यह नई व्यवस्था एक बहुत बड़े डिजिटल ढाँचे, उन्नत कंप्यूटर तकनीक और ज्ञान की भारी एकाग्रता, और बड़ी पूँजी पर आधारित है।
लोगों के व्यवहार को बड़े पैमाने पर बदलने की यह प्रक्रिया कई चरणों में चलती है —
हर जगह से डेटा इकट्ठा करना,
लोगों को प्रभावित करना, आदत डालना, या दिशा देना,
व्यवहार से जुड़ी अतिरिक्त जानकारी (behavioral surplus) की आपूर्ति करना,
मशीन बुद्धि (machine intelligence) से बने उत्पादों को तैयार करना,
भविष्य के व्यवहार का अनुमान लगाने वाले बाजार बनाना,
और टार्गेटिंग यानी लोगों पर दोबारा असर डालना, ताकि यह चक्र बार-बार चलता रहे।
यह सब एक बाजार की योजना है — इसका असली उद्देश्य है पूर्वानुमान (prediction) बनाना।
जितना सटीक पूर्वानुमान होगा, उसका बाजार में उतना ही ज्यादा मूल्य होगा।
सबसे अच्छे पूर्वानुमान के लिए संपूर्ण डेटा (total data) की जरूरत होती है।
इसीलिए निगरानी पूँजीपतियों ने समाज में सीखने और जानने की शक्ति पर कब्जा कर लिया है।
वे समाज के सबसे ऊँचे स्तर पर बैठे हैं, जहाँ से वे निश्चितता की छिपी हुई कहानी (shadow text) को संभालते और सुरक्षित रखते हैं।
यही वह बाजार का जाल है, जिसमें हम सब उलझे हुए हैं।
A Return to the Unprecedented: Understanding the Logic of Surveillance Capitalism
1. The New Nature of Power: When Production Serves Behavioral Control
In classical capitalism, factories and machines were the “means of production.” Their purpose was to produce physical goods — cars, clothes, steel, food. But in surveillance capitalism, these tools now serve a new goal — “means of behavioral modification.”
That means the economic system no longer earns profit mainly by selling products. It earns profit by changing or predicting human behavior — by making people act, buy, vote, or feel in certain ways that benefit those in control of data and algorithms.
Practical Example
- Google and Facebook do not sell physical products. They sell predictions about what you will do next — what you will click, buy, or believe.
- Every time you like a post, pause on a video, or use GPS, these platforms collect data to refine future predictions — creating a continuous cycle of behavioral shaping.
- In India, the rapid expansion of digital payment systems (like UPI) and e-commerce platforms has similarly made people’s economic habits observable and modifiable.
The purpose is not just efficiency — it is influence. Production is now psychological, not material.
2. Replacing Relationships with Machines: From Trust to Certainty
Zuboff says: “Machine processes replace human relationships so that certainty can replace trust.”
In earlier times, trust was the foundation of social and economic life — between traders, citizens, and governments. Now, digital systems claim to remove the need for trust by providing measurable, predictable certainty through data.
For example:
- Credit scoring algorithms decide loan eligibility, replacing the personal judgment of a banker.
- Predictive policing tools claim to forecast where crimes might occur, reducing police discretion but also increasing algorithmic bias.
- Health apps promise exact calorie and heart-rate monitoring — making self-trust secondary to machine trust.
Philosophical Implication
When certainty replaces trust, freedom shrinks. Human life becomes governed by probability, not possibility. The open-ended moral relationship — built on empathy and choice — is replaced by automated assurance. This is a shift from human judgment to machine certainty, which might look rational but is deeply dehumanizing.
3. The Assembly Line of Surveillance: How the System Works
The passage lists the components of a vast system — extraction, actuation, surplus, prediction, targeting — that together form the “behavior modification industry.”
Let’s simplify the chain:
-
Extraction – Collecting user data from all possible sources: phones, watches, cameras, even smart TVs.
- Example: Your phone collects data even when idle; your car records your routes.
-
Rendition (Processing) – Turning this raw data into usable digital form.
-
Actuation (Influence) – Subtly nudging your behavior through recommendations, reminders, and ads.
- Example: YouTube’s autoplay keeps you hooked; Amazon suggests products you didn’t plan to buy.
-
Behavioral Surplus – Extra data about your mood, timing, interests — beyond what’s needed to provide the service. This is what companies sell.
-
Prediction Products – Machine-learning models that forecast what you’ll do, buy, or think.
-
Behavioral Futures Markets – Platforms where these predictions are sold to advertisers, political parties, or governments.
-
Targeting – Delivering content that pushes you further in predictable directions, restarting the cycle.
Real-World Illustration
- Cambridge Analytica scandal (2016): Data from Facebook was used to micro-target American and Indian voters with emotional messages, influencing elections.
- TikTok’s “For You” algorithm adapts instantly to what holds your attention — a perfect form of actuation.
This entire system runs without our explicit consent. It is not a conspiracy — it is a new kind of market logic, a silent transformation of capitalism itself.
4. The Market of Predictions: From Profit to Probability
Zuboff calls this structure a “market project.” Unlike older markets, which traded goods or services, this one trades predictions of behavior.
The closer these predictions come to certainty, the more valuable they become.
That’s why companies crave total data — every click, movement, and emotion — to refine the accuracy of their forecasts.
Economic Implications
- Data becomes the new capital, and human experience becomes raw material.
- Power concentrates in a few digital corporations (Google, Meta, Amazon, Tencent, Alibaba).
- Small businesses, which cannot collect or analyze massive data, become dependent on these platforms.
In this sense, surveillance capitalism repeats feudal patterns — a few lords of data control the digital land, and the rest are users, tenants, or data-laborers.
5. Knowledge as Power: The Hijacking of Learning
Earlier, learning and knowledge were distributed across society — through schools, universities, newspapers, and open debate.
But in the digital age, the “division of learning” has been hijacked by tech corporations.
They alone possess:
- The algorithms that process social data,
- The resources to analyze it at scale,
- The power to keep it secret.
Thus, they sit at what Zuboff calls the “decisive pinnacle of the social order.”
Political and Cultural Examples
- China’s Social Credit System: The state uses surveillance to monitor citizens’ behavior and assign scores that affect access to jobs, housing, or travel.
- Western Data Monopolies: In the US and Europe, private firms like Google and Facebook hold more psychological data on citizens than their governments.
- In India, Aadhaar-linked data ecosystems raise similar concerns — about who owns and controls citizens’ personal information.
Philosophical Dimension
Knowledge once liberated human beings. But now, knowledge itself becomes an instrument of domination.
When only a few control how society learns, truth becomes a managed product.
6. The Shadow Text: The Urtext of Certainty
Zuboff’s phrase “shadow text” or “urtext of certainty” is poetic but profound.
It means the hidden script of modern capitalism — a master narrative where uncertainty is the enemy and predictability is god.
Everything — from social media feeds to digital education — is shaped to remove unpredictability.
But unpredictability is what makes human freedom, creativity, and democracy possible.
Philosophical and Cultural Meaning
- The modern digital world is obsessed with control — knowing what people will do, what they’ll think, and how they’ll react.
- This undermines pluralism and authentic individuality.
- The “shadow text” is not written in words but in code, algorithms, and data pipelines — invisible but omnipotent.
Example
Netflix’s algorithmic production strategy — deciding which shows to create based on predicted audience preference — is one form of the “urtext of certainty.”
It minimizes creative risk but also narrows cultural diversity.
7. The Human Cost: The Market Net in Which We Are Snared
Finally, Zuboff warns that we are all trapped in a market net — a web of digital dependency.
From our phones to our workplaces, from healthcare to education, data collection is inescapable.
Opting out means social exclusion; staying in means surveillance.
Social and Ethical Consequences
- Privacy becomes a luxury, not a right.
- Freedom of thought is silently conditioned by algorithmic exposure.
- Democracy risks being hollowed out as public opinion becomes programmable.
In India, rising political polarization through targeted social media campaigns illustrates how easily mass opinion can be engineered.
In the West, similar effects were visible during Brexit and the U.S. elections of 2016 and 2020.
8. Conclusion: Reclaiming the Human in the Age of Machines
The “return to the unprecedented” means humanity is entering a phase unlike any before — where knowledge and prediction replace production and exchange as the central logic of power.
But this system can be challenged — not by rejecting technology, but by demanding transparency, digital rights, and democratic control over data.
Philosophically, the task before us is to reclaim uncertainty — to protect the unpredictability that makes human life moral, creative, and free.
As Rabindranath Tagore once wrote, “Freedom is the soul of man.”
When our behavior is predicted before it is born, the soul is no longer free — it is managed.
The challenge, therefore, is not to destroy machines, but to ensure they serve the flowering of human autonomy, not its algorithmic capture.
A Return to the Unprecedented: Understanding the Logic and Power of Surveillance Capitalism
1. The New Age of Capitalism: From Production to Prediction
In the past, capitalism was about producing goods. Factories, machines, and workers created physical things — food, clothes, cars, tools — which were sold for profit. This was the world Karl Marx described as the world of “means of production.”
But in the 21st century, a new form of capitalism has emerged. Its main resource is not coal, oil, or human labor — it is human experience itself. Every emotion, habit, or decision we make becomes data. This data is then turned into predictions about how we will behave in the future.
This system is called surveillance capitalism, a term coined by American scholar Shoshana Zuboff. She explains that this form of capitalism does not just watch us — it modifies us. The tools of production have now become tools of behavioral control.
Real-world picture
-
When you use Google Maps, it collects information about your routes. This helps Google predict where traffic jams will happen and which ads might interest you on the way.
-
When you scroll through Instagram, your every pause or like tells Meta what kind of content keeps you hooked.
-
When you buy something on Amazon, your next purchase is predicted even before you think about it.
In these examples, your behavior itself becomes the raw material. You are not just a consumer — you are also a source of profit through your data.
2. The Shift from Trust to Certainty: Machines Replacing Human Relationships
Earlier, economic and social life was built on trust — the trust between shopkeeper and customer, teacher and student, doctor and patient, citizen and government.
Trust allowed society to function even when people didn’t have complete information.
Now, this trust is being replaced by certainty, provided by digital systems. The idea is that machines, through data, can remove uncertainty — that algorithms can know better than humans.
How this works in practice
-
Banks now depend on credit scores to decide who is trustworthy, instead of knowing a person personally.
-
Hospitals increasingly use AI-based systems to predict diseases before symptoms appear.
-
Employers use data-driven recruitment tools to judge personality and productivity.
These systems are fast and efficient — but they also dehumanize relationships. They take away the emotional and moral aspects of trust and replace them with mathematical probability.
Philosophical meaning
Trust is a human virtue — it carries uncertainty, risk, and empathy. Certainty, on the other hand, belongs to machines.
When we replace trust with certainty, we gain control but lose humanity.
It is easier to manage people when they behave predictably — and that is exactly what surveillance capitalism wants.
3. How the System Works: The Cycle of Behavioral Modification
Zuboff describes a new assembly line of capitalism — not of steel or cotton, but of behavior.
It includes many steps, each reinforcing the next.
Step 1: Extraction
Data is continuously extracted from our phones, cars, computers, and even smart TVs. Much of this happens without our awareness.
Example: Your smartphone tracks your location even when GPS is off; your TV records viewing habits to improve “recommendations.”
Step 2: Rendition
This raw data is cleaned, categorized, and turned into usable information — what we call “digital profiles.”
Step 3: Actuation
The system then begins to influence behavior — through recommendations, nudges, and suggestions.
Example: YouTube’s autoplay feature decides what you’ll watch next. It is not just responding to your interest — it is shaping it.
Step 4: Behavioral Surplus
Companies collect extra data that you never agreed to give — like the time you spend reading a post or the emotion on your face when watching a video. This “surplus” becomes their hidden wealth.
Step 5: Prediction Products
AI systems use this data to predict future actions — what you will buy, believe, or desire next.
Step 6: Behavioral Futures Markets
These predictions are sold to advertisers, political parties, or organizations that want to influence your choices.
Step 7: Targeting and Repetition
Then comes targeting — personalized ads or content that reinforce certain behaviors or beliefs. This leads to new data collection, and the cycle continues endlessly.
Example: Cambridge Analytica
The most famous example is the Cambridge Analytica scandal (2016), where Facebook data was used to manipulate political opinions in the U.S. and India. People saw different messages depending on their personality type, without realizing they were being targeted.
Thus, the “means of production” have become “means of behavior control.”
4. The Market of Predictions: Selling Certainty
The goal of this system is not just to collect data but to fabricate predictions. These predictions become more valuable the closer they come to certainty.
How prediction becomes profit
-
Advertisers pay more for data that accurately predicts who will buy their product.
-
Political consultants pay for data that shows which voters can be influenced.
-
Streaming platforms invest in content that data shows will attract specific viewers.
Therefore, certainty itself becomes a commodity.
Economic consequences
This creates a new kind of monopoly — not over goods or land, but over human experience.
A few corporations — Google, Meta, Amazon, Apple, Tencent, and Alibaba — control the majority of the world’s behavioral data.
They have become digital landlords, and the rest of humanity are like tenants who pay rent through their attention and data.
In the East
In China, the tech giants like Alibaba, Tencent, and ByteDance cooperate closely with the government. Data from apps like WeChat and TikTok helps in developing predictive systems for commerce, policing, and even social reputation — known as the Social Credit System.
In the West
In the U.S., companies like Google and Meta use similar tools for profit, not political control — but the effect on freedom and privacy is similar.
In Europe, the GDPR (General Data Protection Regulation) tries to control this power, but implementation remains difficult.
5. The Capture of Knowledge: Who Owns What We Learn?
Zuboff says that surveillance capitalism has “hijacked the division of learning in society.”
This means that the ability to collect and analyze knowledge — once distributed among schools, media, universities, and governments — is now concentrated in the hands of private corporations.
They possess the algorithms, data, and computing power that allow them to see patterns invisible to ordinary citizens or public institutions.
Real examples
-
Google knows which diseases are spreading before health departments do — because it tracks what people search.
-
Meta can identify social unrest by analyzing messaging trends before news agencies report them.
-
Amazon knows when you might need a new product before you decide to buy it.
The danger
This gives them a godlike power over society.
They not only predict behavior — they can shape what people know, feel, and discuss.
This is knowledge turned into power — not for enlightenment, but for control.
As the French philosopher Michel Foucault said, “Knowledge and power are not separate — they are two sides of the same coin.”
Surveillance capitalism confirms this truth in digital form.
6. Political Ramifications: Democracy Under the Eye of Algorithms
Politics has always depended on public debate and collective reasoning.
But today, algorithms decide what information people see. This fragments society into echo chambers — where people only hear what confirms their existing beliefs.
Western examples
-
In the 2016 U.S. election, micro-targeted ads based on personal data helped manipulate opinions.
-
During Brexit, Facebook was used to promote emotional, fear-based messages to specific voter groups.
Eastern examples
-
In India, WhatsApp and Facebook have been used to spread misinformation during elections.
-
In China, surveillance tools are used to control dissent and maintain political conformity through the Social Credit System.
Thus, the same digital logic serves two political purposes:
-
In the West, it manipulates citizens for profit and influence.
-
In authoritarian regimes, it controls citizens for stability and obedience.
Either way, freedom of thought and political maturity suffer.
7. Cultural and Social Effects: The Making of a Programmed Society
Surveillance capitalism also changes how we relate to culture and each other.
Culture of personal exposure
Social media encourages constant sharing. Privacy is seen as secrecy, and transparency becomes a moral duty.
People feel pressured to show everything — emotions, opinions, even meals — to remain visible.
This weakens introspection and strengthens performative behavior.
Cultural homogenization
Platforms like Netflix or Spotify use predictive algorithms to recommend content. Over time, they promote safe, familiar, and data-proven formats, reducing cultural diversity.
Local art and music often get buried under globalized trends shaped by algorithms.
Social atomization
When relationships are mediated by screens, empathy and patience decline.
Friendships become measurable — likes, views, and follows replace genuine connection.
People begin to treat themselves as brands — constantly optimizing for attention, not understanding.
In the East
In Asian societies like India or South Korea, where community and family traditionally played central roles, this digital individualism creates new tensions.
The younger generation often lives between two worlds — one driven by cultural roots, another by algorithmic visibility.
8. Philosophical Implications: The Shadow Text of Certainty
Zuboff’s metaphor of the “shadow text” — the hidden script of certainty — describes the silent moral shift of our time.
Modern digital systems treat unpredictability as a flaw. They aim to make everything predictable — emotions, behavior, even creativity.
But uncertainty is the essence of being human.
It allows moral choice, creativity, and freedom.
The deeper danger
When life becomes predictable, it becomes programmable.
When humans become predictable, they become manageable.
That is why surveillance capitalism is not just an economic or technological issue — it is a philosophical crisis.
Philosophical contrast
-
Hannah Arendt warned that totalitarianism begins when human spontaneity and unpredictability are eliminated.
-
Amartya Sen emphasized that freedom is not only about doing what one wants, but about developing the capability to choose.
-
Tagore wrote that freedom is “the soul of man,” which grows through uncertainty and discovery.
Surveillance capitalism weakens this inner freedom by trying to make us predictable.
9. The Market Net: The Trap of Everyday Convenience
Zuboff’s final image — “the market net in which we are snared” — describes our daily reality.
We are caught not by coercion, but by convenience.
-
We use free apps that take our data.
-
We accept cookies because we want speed.
-
We allow surveillance cameras for safety.
In return for comfort, we give away autonomy.
This is not slavery by force — it is consent by habit.
Our digital lives form a net that looks soft but is almost impossible to escape.
Social meaning
Opting out of digital systems often means social exclusion.
Refusing to use WhatsApp or Google services can make one invisible in modern society.
Thus, participation itself becomes a form of submission.
10. Reclaiming Humanity: The Road Ahead
Zuboff’s warning is not about rejecting technology. It is about restoring the human purpose of technology — that machines should serve human growth, not control it.
What can be done
-
Digital Rights and Regulation – Laws must ensure that people own their data, not corporations. The EU’s GDPR is a start, but countries like India also need stronger data protection laws.
-
Transparency in Algorithms – People should know how algorithms make decisions that affect their lives.
-
Democratization of AI – Universities, public institutions, and communities must share in AI research, not leave it to private firms.
-
Ethical Education – Digital literacy must include moral and civic dimensions — teaching users how their clicks shape the world.
-
Reclaiming Uncertainty – As a culture, we must value unpredictability — art, philosophy, dialogue, and doubt — the very qualities machines cannot produce.
Vision for the future
AI and digital systems can indeed serve humanity — but only if we build “Digital Humanism” — a philosophy that combines technological power with moral wisdom.
The true progress of civilization lies not in knowing everything, but in knowing how much not to control.
11. Conclusion: Freedom Beyond Prediction
The phrase “A Return to the Unprecedented” means that we are facing something entirely new in history — a form of capitalism that seeks not only to use human labor, but to shape the human soul.
Economically, it creates monopoly and dependency.
Politically, it weakens democracy.
Socially, it isolates individuals.
Culturally, it reduces diversity.
Philosophically, it challenges the very idea of human freedom.
Yet, every system born of human hands can also be reformed by human will.
If society learns to value transparency over secrecy, truth over manipulation, and freedom over certainty, then the digital age can still become a new renaissance — a rebirth of human creativity, not its algorithmic cage.
In the end, the greatest task before us is to keep being unpredictable — to remain human.
यह है निगरानी पूँजीवाद (Surveillance Capitalism) का अँधेरा हृदय — एक ऐसा नया व्यापारिक ढाँचा, जो हमें अपनी विशिष्ट शक्ति की दृष्टि से फिर से गढ़ता है; एक ऐसी शक्ति जो हमारे व्यवहार में परिवर्तन लाने की अपनी क्षमता के माध्यम से कार्य करती है।
यह शक्ति क्या है, और यह किस प्रकार अपने मुनाफ़े की निश्चितता के लिए मानव स्वभाव को पुनः गढ़ देती है?
इस नई शक्ति को मैं “इंस्ट्रूमेंटेरियनिज़्म (Instrumentarianism)” कहता हूँ — अर्थात् व्यवहार को उपकरण बनाना और उसका उपकरण के रूप में उपयोग करना, ताकि उसे बदला जा सके, भविष्यवाणी की जा सके, उससे लाभ कमाया जा सके, और उसे नियंत्रित किया जा सके।
इस परिभाषा में, “इंस्ट्रूमेंटेशन” का अर्थ है कठपुतली — यानी वह सर्वव्यापी जुड़ी हुई डिजिटल संरचना, जो हर समय संवेदनशील कंप्यूटिंग (sensate computation) के माध्यम से मानव अनुभव को पकड़ती, व्याख्या करती और सक्रिय करती है।
वहीं “इंस्ट्रूमेंटलाइज़ेशन” का अर्थ है कठपुतली चलाने वाले और मनुष्यों के बीच वह सामाजिक संबंध, जिनके माध्यम से निगरानी पूँजी (surveillance capital) इन मशीनों का उपयोग हमें दूसरों के बाज़ार-हितों के साधन में बदलने के लिए करती है।
निगरानी पूँजीवाद ने हमें एक अभूतपूर्व प्रकार के पूँजीवाद से जूझने के लिए बाध्य किया था; और अब यह इंस्ट्रूमेंटेरियन शक्ति, जो निगरानी पूँजीवाद की परियोजना को बनाए रखती और फैलाती है, हमें शक्ति के एक और अभूतपूर्व रूप से सामना करने के लिए मजबूर कर रही है।
जब विद्वान, सामाजिक कार्यकर्ता, पत्रकार, सार्वजनिक हस्तियाँ, और आम नागरिक इस नई शक्ति के विरुद्ध साहसपूर्वक आवाज़ उठाते हैं, तो अक्सर वे इसे जॉर्ज ऑरवेल के “बिग ब्रदर” या सामान्य रूप से सर्वसत्तावाद (totalitarianism) की दृष्टि से देखते हैं।
गूगल, फेसबुक और अन्य वाणिज्यिक निगरानी संस्थाओं को प्रायः “डिजिटल सर्वसत्तावाद” कहा जाता है।
मैं उन सभी की सराहना करता हूँ जो इस व्यावसायिक निगरानी के अतिक्रमणों के विरुद्ध खड़े हुए हैं।
फिर भी, मैं यह भी कहना चाहता हूँ कि इंस्ट्रूमेंटेरियन शक्ति को सर्वसत्तावाद के समान मानना, हमारे समझने की क्षमता और इससे मुकाबला करने की योग्यता, दोनों को सीमित कर देता है।
इंस्ट्रूमेंटेरियनिज़्म का कोई ऐतिहासिक उदाहरण नहीं है, लेकिन मानव इतिहास में ऐसी नई और अभूतपूर्व शक्ति से सामना करने के अनुभवों के उदाहरण अवश्य मौजूद हैं।
Great — here’s a clear, simple, and carefully ordered explanation of the passage you gave. I break it into titled sections with short, subtitled paragraphs, practical manifestations, east/west examples, and a reasoned conclusion so a reader is truly enlightened about instrumentarianism and how it differs from the familiar idea of totalitarianism.
Instrumentarianism: The Dark Heart of Surveillance Commerce — Explained Simply
1. What the passage is saying — a short plain-English summary
Main point: A new commercial system — surveillance capitalism — remakes people so companies can predict, sell, and control behavior. The author calls the specific power that does this instrumentarianism: the use of instruments (machines, sensors, code) and social arrangements (business models, platforms) to turn human behavior into a resource. This is not just spying; it is reshaping who we are to produce profit.
Practical picture: Your phone, apps, smart devices, cameras and the companies behind them collect tiny signals about you. Those signals are turned into predictions and interventions (ads, content, nudges). Over time you behave more predictably — and that predictability is bought and sold.
2. Instrumentarianism — definition in two parts (easy terms)
a. Instrumentation (the puppet):
This is the physical and technical layer — sensors, cameras, phones, wearable devices, servers, and algorithms. Think of them as the puppet and strings: they measure, record, and act on human sensations and actions.
Practical manifestations:
-
Your smartphone’s GPS and accelerometer tracking movement.
-
Smart TVs monitoring viewing times and pauses.
-
Browser histories, health apps, and voice assistants recording use patterns.
b. Instrumentalization (the puppet masters):
This is the human and social layer — companies, business models, and market relations that use instrumented data to achieve commercial goals: prediction, persuasion, and control.
Practical manifestations:
-
Platforms selling “audiences” to advertisers.
-
Political consultants buying behavioral profiles to micro-target voters.
-
Employers using productivity monitoring tools to discipline workers.
3. How instrumentarianism actually remakes human nature (step-by-step)
-
Collect tiny signals — clicks, pauses, heart rate, location.
-
Convert to behavioral data — build profiles and patterns.
-
Create predictions — models say who will buy, vote, or feel what.
-
Actuate behavior — deliver targeted content, ads, or nudges to make the prediction come true.
-
Capture the result — gather new data from the reaction and repeat the cycle.
Result for people: Repeated exposure to targeted prompts changes habits, preferences, moods, and sometimes beliefs. Over time people are less spontaneous and more algorithm-shaped.
4. Why call it different from Orwell’s “Big Brother” (totalitarianism)?
People often say “digital totalitarianism.” That comparison helps focus attention, but it also hides important differences:
-
Totalitarianism (classic): centralized political power seizes and commands people by force and ideology (state surveillance + repression). It aims at political domination and obedience.
-
Instrumentarianism: private companies, driven by market motives, measure and monetize behavior. The control is often soft — through content and incentives — not always by overt coercion. The main goal is profit, prediction, and influence, not ideology per se.
Why the distinction matters: If we only see Big Brother, we miss how markets, business models, convenience, and voluntary consent (however coerced by design) create the system. That means different solutions are needed: not just political resistance, but economic, legal, and civic reforms.
5. Real-world examples (West and East) — concrete and recent
West
-
Cambridge Analytica (U.S./UK): Data from millions of Facebook users was used to profile and micro-target voters during elections — a clear case of turning behavior into political influence.
-
Palantir & predictive policing (U.S.): Data analytics firms sell police departments risk scores and patterns that change how policing is done — raising problems of bias and accountability.
-
Ring & neighborhood surveillance (U.S.): Private doorbell cameras share footage with police and companies, producing privatized surveillance networks.
East
-
China’s Social Credit-like systems: Various city and national-level systems combine government and corporate data to reward or restrict citizens — mixing state power with commercial data use.
-
WeChat / Alipay ecosystems (China): These apps link payments, messaging, health, and travel data; businesses and authorities use these data streams to build profiles and influence behavior.
-
Aadhaar-linked services (India) + commercial apps: Large citizen ID databases combined with growing private data ecosystems create opportunities for deep behavioral mapping if safeguards are weak.
-
TikTok (ByteDance) global influence: The recommendation algorithm shapes viewing habits and attention across countries; it can amplify trends in ways that affect culture and politics.
6. Practical consequences — economic, political, social, cultural, philosophical
Economic: Data is the new capital. Small firms and citizens lack access; a few platforms dominate markets and value chains (winner-takes-most). Labor is reshaped — gig workers monitored closely; attention is monetized.
Political: Political messaging becomes micro-targeted and opaque; public debate fragments into micro-audiences; democracy’s shared facts and spaces weaken.
Social: Relationships mediate through platforms; attention economy encourages quick emotionally charged content; loneliness and social comparison rise.
Cultural: Algorithms favor formats that maximize engagement; local and experimental art may be sidelined for predictable hits; culture can become homogenized.
Philosophical / Ethical: Autonomy and privacy erode; human unpredictability — the basis of freedom and moral responsibility — is suppressed by systems optimized for predictability.
7. Why equating instrumentarianism with classic totalitarianism can mislead resistance
If we only name it “totalitarian,” we might:
-
Demand only political solutions (regime change, censorship), ignoring economic rules.
-
Fail to regulate markets, platform design, data ownership, and new forms of labor.
-
Ignore the role of convenience and consent that normalize surveillance.
Better approach: Treat instrumentarianism as a mixed problem — commercial + technological + social — which requires varied tools (laws, market reforms, design ethics, public education, and civic technology).
8. How to resist and limit instrumentarian power — practical steps (reasoned, doable)
-
Laws & regulation: Strong data-protection laws, platform accountability, limits on targeted political advertising, and rules for automated decision-making.
-
Transparency & auditability: Algorithms that affect people should be explainable and open to independent audits.
-
Data rights: People should own or control key uses of their personal data and be able to opt out without losing social participation.
-
Design ethics: Platforms should build for human flourishing — reduce addictive features, default privacy, and slow-design choices.
-
Public alternatives: Public or cooperative platforms that don’t monetize behavioral surplus.
-
Digital literacy & civic education: Teach people how persuasion works online, how to spot manipulation, and how to manage digital footprints.
-
Worker protections: Rules against intrusive workplace surveillance and better rights for gig-economy workers.
9. Short, reasoned conclusion — what to take away
Instrumentarianism is a new and powerful form of influence created by combining pervasive sensing (instrumentation) with market-driven uses (instrumentalization). It remakes human behavior by predicting and nudging us — often without our full awareness. It shares features with totalitarian systems but differs in motive, actors, and methods. Because it is a mixed beast — technological, commercial, and social — our response must be mixed too: legal protections, democratic oversight, ethical design, public alternatives, and stronger civic knowledge. The goal is not to destroy technology, but to ensure it serves human dignity, autonomy, and collective life — not just profit and certainty.
Absolutely, Rahul. Let’s break this down carefully in simple, clear English, explaining the mechanism and the point you are making, with practical examples and reasoning.
How Surveillance Capitalism Turns Inventions into Demand: Explained
1. Traditional Logic vs Surveillance Capitalism
Traditionally, in human society and business, we follow the logic:
“Necessity is the mother of invention”
-
A problem exists → someone invents a solution → people adopt it because they need it.
-
Example: We needed light at night → someone invented the electric bulb → people bought it because it solved a real need.
Surveillance capitalism flips this logic. Instead of needs creating inventions, it uses inventions to create new needs — a reverse causality.
Example from the passage:
-
Google Glasses, Smart Refrigerators, Facial Recognition Technologies (FRTs) were developed before most people had a clear need for them. Later, the mechanism of surveillance capitalism (data collection, prediction, behavioral nudges) creates demand and dependency for these technologies.
2. How the Mechanism Works
Shoshana Zuboff explains that surveillance capitalism does not just observe human behavior — it shapes and amplifies it through:
-
Tuning: Adjusting digital platforms and devices to influence user behavior.
-
Example: Notification alerts push users to check apps repeatedly.
-
-
Herding: Creating social proof or trends so people follow each other.
-
Example: Trending hashtags or “most popular” lists make everyone gravitate toward the same content.
-
-
Conditioning: Training users to respond in predictable ways.
-
Example: Rewarding app usage with likes, points, or streaks encourages repeated engagement.
-
When combined with Internet of Things (IoT) devices, this mechanism can create new markets and eliminate uncertainty about behavior:
-
IoT devices (smart watches, smart fridges, Google Nest thermostats) continuously collect data.
-
Algorithms predict exactly how, when, and why a person will act.
-
Companies then design new products and services that match predicted behavior, even before the user realizes they want it.
In short: The system can generate demand after invention, rather than waiting for real human necessity.
3. Examples of Inventions Creating Demand Later
a. Google Glasses
-
Invented as augmented reality wearable before anyone truly had a daily use for it.
-
Companies and marketers later suggested applications: navigation, fitness tracking, social communication, enterprise usage.
b. Facial Recognition Technologies (FRTs)
-
Developed for security and surveillance purposes.
-
Market and governments created demand by using it for identity verification, policing, and even marketing personalization.
c. Smart Refrigerators / Smart Home Devices
-
Fridges that track grocery inventory, order items automatically, or interact with other smart devices.
-
These devices created new habits and dependencies: monitoring, connectivity, convenience, and ultimately more consumption.
d. Smart Watches / Wearables
-
Initially invented as tech gadgets, now marketed for health tracking, fitness, and wellness — making people feel they cannot avoid wearing one.
4. Economic and Social Implications
-
Economic:
-
Companies generate profit not by solving existing problems but by engineering new desires.
-
Markets expand artificially, creating consumption cycles around “invented needs.”
-
Political:
-
IoT devices and surveillance tools also predict and influence behavior, creating opportunities to manipulate public opinion or voting patterns.
-
Social / Cultural:
-
Human autonomy is subtly reshaped: users increasingly adapt their behavior to fit predictive and marketed norms.
-
Culture and habits are influenced by inventions before the society even perceives a need.
5. Philosophical Implications
The inversion of “necessity is the mother of invention” suggests a deeper shift in human agency:
-
Humans no longer fully decide their needs.
-
Machines, data, and algorithms increasingly define what we desire.
-
Inventions become self-fulfilling: designed first, then adopted because the system predicts and nudges people to want them.
This is a key aspect of surveillance capitalism: profit comes not from solving existing problems, but from engineering human behavior and dependency.
6. Summary
-
Traditional model: Need → Invention → Adoption
-
Surveillance capitalism model: Invention → Algorithmic nudging → Created need → Adoption
IoT and connected devices magnify this effect by generating massive behavioral data, allowing companies to predict and shape human actions. Inventions become tools for influence, demand creation, and profit, rather than merely solutions to real problems.
Practical takeaway: Many new technologies — from smart homes to facial recognition — are designed to produce our behavior, making us consumers and participants in a cycle we may not consciously choose.
If you want, Rahul, I can draw a simple diagram showing this “reverse causality” flow — from invention → algorithm → demand → behavior — which makes this concept extremely clear visually.
Do you want me to do that?
यहां दिए गए अंश का सरल और स्पष्ट हिंदी संस्करण इस प्रकार है:
सर्वसत्तावाद: शक्ति का एक नया रूप
परिचय
“सर्वसत्तावाद” (Totalitarianism) शब्द का प्रयोग पहली बार बीसवीं सदी की शुरुआत में इटली के दार्शनिक जियोवानी जेंटाइल (Giovanni Gentile) ने किया था। बाद में यह शब्द मशहूर हुआ जब मुसोलिनी (Benito Mussolini) ने 1932 में जेंटाइल के साथ मिलकर The Doctrine of Fascism नामक पुस्तक लिखी।
इटली उस समय दुनिया में एक दूसरे दर्जे का देश माना जाता था — न आर्थिक रूप से मजबूत, न राजनीतिक रूप से प्रभावशाली। बहुत से इटालियन बेहतर जीवन की तलाश में विदेश जा रहे थे। इस निराशा और अपमान की भावना से उभरने के लिए उस समय के कई बुद्धिजीवियों और “फ्यूचरिस्ट” कलाकारों ने “नए इटली” का सपना बुना। जेंटाइल ने अपनी दार्शनिक प्रतिभा इस राष्ट्रवादी पुनरुत्थान (national revival) को समर्पित कर दी।
“संपूर्ण” (Total) राज्य का विचार
जेंटाइल के राजनीतिक दर्शन के केंद्र में “टोटल” या “संपूर्ण” राज्य की अवधारणा थी। उनका मानना था कि राज्य एक सजीव, समग्र और जैविक इकाई (organic unity) है, जो व्यक्ति से ऊपर है।
हर व्यक्ति की स्वतंत्रता, भिन्नता और निजी पहचान को राज्य में विलीन कर देना चाहिए ताकि एक एकीकृत सामूहिक चेतना (collective consciousness) बन सके।
1932 में जब मुसोलिनी ने अपनी पुस्तक The Doctrine of Fascism प्रकाशित की, तो जेंटिले ने उसका दार्शनिक परिचय लिखा, जबकि मुसोलिनी ने उसके सामाजिक और राजनीतिक सिद्धांतों को लिखा।
“फासिज़्म एक आध्यात्मिक दृष्टिकोण है”
इस पुस्तक की शुरुआत एक विचार से होती है —
“फासिज़्म सबसे पहले एक आध्यात्मिक दृष्टिकोण है, जो व्यक्ति के भीतर तक प्रवेश करता है।”
मुसोलिनी और जेंटिले के अनुसार, फासिज़्म केवल राजनीतिक व्यवस्था नहीं बल्कि जीवन का एक तरीका है।
यह व्यक्ति के विचार, इच्छाशक्ति, कला, आस्था और चरित्र — सब कुछ को बदलने का प्रयास करता है।
राज्य का लक्ष्य केवल लोगों के कार्यों को नहीं बल्कि उनकी आत्मा और विश्वास को भी नया आकार देना है।
इस विचार को इस वाक्य में संक्षेपित किया गया —
“फासिस्ट राज्य जीवन के सभी मूल्यों को समाहित करता है; वह न केवल जीवन के रूपों को बल्कि उसके सार को भी पुनर्गठित करता है।”
“आत्मा का निर्माण” : स्टालिन की दृष्टि
1932 के उसी वर्ष, रूस में जोसेफ स्टालिन ने भी इसी विचार को एक नई ऊँचाई दी।
मास्को में लेखक मैक्सिम गोर्की के घर पर एक भव्य रात्रिभोज के दौरान स्टालिन ने प्रसिद्ध भाषण दिया:
“हमारे टैंक बेकार हैं अगर उन्हें चलाने वाले लोगों की आत्मा मिट्टी की बनी है।
इसलिए मैं कहता हूँ — आत्मा का निर्माण टैंक बनाने से अधिक महत्वपूर्ण है।
आप सबको मनुष्य की आत्मा को गढ़ने में मदद करनी होगी। मैं आपको सलाम करता हूँ —
‘आत्मा के इंजीनियरों’ को।”
इस तरह, “आत्मा का उत्पादन” (production of souls) सर्वसत्तावाद की पहचान बन गया —
जहाँ शासन केवल शरीरों को नहीं बल्कि आत्माओं को भी नियंत्रित करना चाहता था।
जर्मनी में सर्वसत्तावाद का प्रसार
1933 तक “सर्वसत्तावाद” शब्द जर्मनी में भी फैल गया।
जोसेफ गोएबेल्स, हिटलर के प्रचार मंत्री, ने इसे अपनाया और जर्मन बुद्धिजीवियों ने इसे “टोटलिटेरियनिज़्म की ओर मोड़” कहा।
लेकिन नाज़ी विचारधारा में एक महत्वपूर्ण बदलाव हुआ —
जहाँ इटली में “राज्य” को केंद्र माना गया था, वहीं हिटलर के जर्मनी में “आंदोलन (movement)” को केंद्र बना दिया गया।
उनका नारा था —
“आंदोलन राज्य को आदेश देता है।” (The movement gives orders to the state)
यह दर्शाता है कि हिटलर के शासन में सत्ता केवल संस्थागत नहीं बल्कि भावनात्मक और सामूहिक उन्माद (mass emotional movement) के रूप में कार्य करती थी।
निष्कर्ष
सर्वसत्तावाद केवल एक राजनीतिक विचार नहीं था —
यह मनुष्य की आत्मा को नियंत्रित करने की प्रक्रिया थी।
इसने व्यक्ति को राज्य या आंदोलन के अधीन कर दिया,
जहाँ स्वतंत्र सोच, भिन्न राय, या व्यक्तिगत मूल्य का कोई स्थान नहीं रहा।
जेंटिले, मुसोलिनी, स्टालिन और हिटलर — सबने अपने-अपने तरीकों से
मनुष्य को “एक ही विचार” के साँचे में ढालने की कोशिश की।
इसने बीसवीं सदी में ऐसे शासन पैदा किए जो केवल शक्ति से नहीं बल्कि
विचार, भावना और आत्मा की अधीनता से चलते थे।
सर्वसत्तावाद: शक्ति का एक नया रूप
यह शुरुआत से ही स्पष्ट था कि सर्वसत्तावाद (Totalitarianism) शक्ति का एक बिल्कुल नया प्रकार था, लेकिन इसी कारण उसका सही विश्लेषण करना भी मुश्किल हो गया।
रूस और जर्मनी में इसके दो भिन्न रूप—स्टालिनवाद (Stalinism) और नाज़ीवाद (Nazism)—तेज़ी से उभरे और इन दोनों ने पश्चिमी सभ्यता की नींवों को ही चुनौती दी।
हालाँकि ये शासन द्वितीय विश्व युद्ध से कई वर्ष पहले स्थापित हो चुके थे —
रूस में 1929 में जब जोसेफ स्टालिन सत्ता में आए,
और जर्मनी में 1933 में जब एडोल्फ हिटलर को चांसलर बनाया गया —
फिर भी इन व्यवस्थाओं का गंभीर अध्ययन युद्ध समाप्त होने तक नहीं हो सका।
रहस्य, डर और झूठ की दीवार
इस विश्लेषण में देरी का एक बड़ा कारण था इन शासन व्यवस्थाओं का अत्यधिक गोपनीय और भ्रमित करने वाला स्वभाव।
सब कुछ एक रहस्य में लिपटा हुआ था —
गुप्त पुलिस की गुप्त योजनाएँ,
अघोषित अत्याचार और हत्याएँ,
लोगों और संस्थाओं की लगातार बदलती स्थिति,
और सत्य को झूठ और झूठ को सत्य बनाने की सुनियोजित प्रक्रिया।
यह सब एक निरंतर प्रचार, भ्रम और झूठ की बाढ़ के बीच चलता रहा।
सत्ताधारी नेता — जिसे फ्रांसीसी दार्शनिक क्लॉड लेफॉर्ट (Claude Lefort) ने “एगोक्रैट (Egocrat)” कहा —
कानून और सामान्य बुद्धि (common sense) दोनों की जगह ले लेता है।
वह स्वयं तय करता है कि सत्य क्या है, झूठ क्या है; न्याय क्या है, अन्याय क्या है।
हर क्षण वही एकमात्र निर्णायक बन जाता है।
पश्चिमी दुनिया की भ्रमित प्रतिक्रिया
पश्चिमी समाज, विशेषकर संयुक्त राज्य अमेरिका, इस नई शक्ति की भयावहता को समझ ही नहीं पाए।
यह सब उनकी कल्पना से परे था — मानो दिमाग़ सुन्न हो गए हों।
इस मानसिक स्तब्धता का एक ऐतिहासिक उदाहरण 1939 में अमेरिकी पत्रिका “लुक (Look)” में छपे एक लेख से मिलता है।
15 अगस्त 1939 के अंक में “व्हाट्स गोइंग ऑन इन रशिया?” शीर्षक से एक लेख प्रकाशित हुआ था,
जिसे वॉल्टर डुरांटी (Walter Duranty) ने लिखा था — जो न्यूयॉर्क टाइम्स के मॉस्को ब्यूरो प्रमुख और पुलित्ज़र पुरस्कार विजेता पत्रकार थे।
यह लेख उस समय प्रकाशित हुआ जब रूस में “ग्रेट टेरर” (महान आतंक) अभी-अभी समाप्त हुआ था।
1937 से 1938 के बीच, स्टालिन ने पूरे समाज के बड़े हिस्से के लोगों — कवियों से लेकर राजनयिकों तक, जनरलों से लेकर अपने वफादार सहयोगियों तक — की हत्या करवा दी थी।
इतिहासकार रॉबर्ट कॉन्क्वेस्ट (Robert Conquest) के अनुसार,
इन दो वर्षों में —
-
70 लाख लोगों को गिरफ्तार किया गया,
-
10 लाख लोगों को फाँसी दी गई,
-
20 लाख लोग श्रम शिविरों (labor camps) में मारे गए,
-
10 लाख लोगों को जेलों में डाला गया,
और -
1938 के अंत तक 70 लाख लोग अब भी श्रम शिविरों में बंद थे।
निष्कर्ष
सर्वसत्तावाद इसलिए नया था क्योंकि उसने मनुष्य की चेतना, नैतिकता और सत्य की परिभाषा को ही बदल दिया।
यह शक्ति का ऐसा रूप था जिसमें शासन केवल आदेश नहीं देता था, बल्कि लोगों की सोच, भावनाओं और भाषा को भी नियंत्रित करता था।
यह नया तंत्र “राज्य के भय” से नहीं बल्कि भ्रम, प्रचार और आत्मसमर्पण के संयोजन से चलता था —
जहाँ सत्य का अस्तित्व केवल उतना ही था जितना शासक कह दे।
सर्वसत्तावाद की अंधी स्वीकृति और पश्चिमी भ्रम
भले ही उस समय सोवियत शासन की क्रूरता और भयावहता पूरी दुनिया के सामने थी, फिर भी पत्रकार वॉल्टर डुरांटी ने अपने लेख में सोवियत संविधान को “दुनिया के सबसे लोकतांत्रिक संविधानों में से एक... एक ऐसा आधार, जिस पर भविष्य का लोकतंत्र खड़ा हो सकता है” बताया।
उन्होंने लाल सेना (Red Army), नि:शुल्क शिक्षा और स्वास्थ्य सेवाओं, साझा आवास व्यवस्था (communal housing) और स्त्री-पुरुष समानता की भी जमकर प्रशंसा की।
लेख में एक खुशगवार लहजे में यह भी कहा गया कि सोवियत संघ में चल रहा “महान शुद्धिकरण (great purge)” बस “कम्युनिस्ट पार्टी की समय-समय पर होने वाली एक सामान्य सफाई प्रक्रिया” है।
डुरांटी ने लिखा कि यह “सफाई” अब खत्म हो चुकी है, और लोग अब “नुकसान की मरम्मत कर रहे हैं” —
मानो यह किसी कठोर सर्दी के बाद घर की सफाई जैसा कोई साधारण काम हो।
लेकिन सच्चाई यह थी कि स्टालिन की हिंसा, कारावास, निर्वासन और हत्याओं का पैटर्न अब और भी खतरनाक रूप में बाल्टिक देशों और पूर्वी पोलैंड की ओर फैल गया था।
1939 से 1941 के बीच,
-
लाखों पोलिश नागरिकों को उत्तर के श्रम शिविरों (labor camps) में भेजा गया,
-
और दसियों हज़ार पोलिश कम्युनिस्ट पार्टी के सदस्यों की हत्या कर दी गई।
डुरांटी के लेख के केवल एक सप्ताह बाद, स्टालिन ने हिटलर के साथ “अ-आक्रमण संधि” (nonaggression pact) पर हस्ताक्षर किए।
सितंबर 1939 में पोलैंड पर आक्रमण हुआ, और नवंबर में लाल सेना ने फ़िनलैंड पर भी हमला कर दिया।
1940 में स्टालिन ने 15,000 पोलिश राष्ट्रवादियों, जो युद्धबंदी बनाए गए थे, को कातिन नरसंहार (Katyn Massacre) में मौत के घाट उतारने का आदेश दिया।
मीडिया का भ्रमित चित्रण: हत्यारे की मुस्कुराहट
डुरांटी के लेख की सबसे चौंकाने वाली बात थी — स्टालिन की छवि का चित्रण।
एक ही पत्रिका में जहाँ एक ओर “द विज़ार्ड ऑफ़ ओज़” नामक नई फिल्म की प्रशंसा छपी थी,
और दूसरी ओर चार्ली मैकार्थी नामक लकड़ी की कठपुतली के हास्यास्पद फोटो के साथ सेलिब्रिटी तस्वीरें,
वहीं बीच में एक मुस्कुराते हुए स्टालिन की तस्वीर थी —
कैप्शन के साथ लिखा था:
“स्टालिन, कम्युनिस्ट पार्टी के भीतरी चक्र के अध्यक्ष हैं... वे लेनिन की तरह कानून नहीं थोपते।
वे अपने सहयोगियों की राय सुनने के बाद ही निर्णय लेते हैं।”
यह प्रचारात्मक छवि इतनी प्रभावशाली थी कि 1939 में Look पत्रिका में स्टालिन को “लोकतांत्रिक नेतृत्व का प्रतीक” दिखाया गया,
और कुछ महीनों बाद Time पत्रिका ने उन्हें अपने “मैन ऑफ़ द ईयर” (Man of the Year) के रूप में कवर पर प्रकाशित किया।
वास्तव में, 1930 से लेकर 1953 में उनकी मृत्यु तक, स्टालिन कुल दस बार Time पत्रिका के कवर पर आए।
यह सब इस बात को दर्शाता है कि सर्वसत्तावाद (Totalitarianism) ने अपनी जड़ें और संस्थागत ढाँचा कितनी गहराई से जमा लिया था —
काफी पहले, जब तक विद्वानों ने इसे एक नई प्रकार की शक्ति प्रणाली के रूप में पहचानना और समझना शुरू नहीं किया था।
निष्कर्ष
यह प्रकरण दिखाता है कि किस प्रकार मीडिया और पश्चिमी समाज ने उस समय के अत्याचारों को “विकास” और “अनुशासन” के नाम पर स्वीकार कर लिया।
सर्वसत्तावाद का सबसे खतरनाक पहलू यही है — वह केवल लोगों पर अत्याचार नहीं करता, बल्कि झूठ को सच्चाई और अत्याचार को व्यवस्था के रूप में प्रस्तुत करता है।
यह वह बिंदु था जहाँ सत्ता ने न केवल मनुष्य के शरीर बल्कि उसकी चेतना, विवेक और कल्पना को भी अपने अधीन कर लिया।
कुछ महत्वपूर्ण अपवादों को छोड़कर, नाज़ी जर्मनी की हार के बाद ही सच्चाई उजागर करने का काम गंभीर रूप से शुरू हुआ। इतिहासकार रॉबर्ट कॉन्क्वेस्ट लिखते हैं कि “सत्ता द्वारा प्रस्तुत आधिकारिक तस्वीर के उलट बहुत सारी जानकारियाँ उपलब्ध थीं।”
वे पूछते हैं — आखिर क्यों “पत्रकार, समाजशास्त्री और अन्य आगंतुक” सोवियत शासन के झूठे प्रचार पर विश्वास कर बैठे?
कॉन्क्वेस्ट इसका एक कारण बताते हैं कि सोवियत सरकार ने झूठी छवि दिखाने के लिए बहुत कोशिश की। उन्होंने “मॉडल जेलें” (model prisons) दिखाईं जिनमें अत्याचार और मौत के असली तंत्र का कोई निशान नहीं था।
दूसरा कारण था — पर्यवेक्षकों की अपनी भोलेपन या अंधभक्ति। कुछ मामलों में, जैसे पत्रकार वाल्टर ड्यूरांटी के, यह इसलिए हुआ क्योंकि वे समाजवादी राज्य की विचारधारा से वैचारिक रूप से जुड़े हुए थे।
सबसे गहरा कारण यह था कि पत्रकारों, विद्वानों और पश्चिमी सरकारों को यह समझना कठिन लग रहा था कि एक सर्वसत्तावादी शासन (totalitarianism) कितने भयानक स्तर तक जा सकता है। असलियत इतनी “असंभव” लग रही थी कि विशेषज्ञों के लिए भी उस पर विश्वास करना कठिन था।
कॉन्क्वेस्ट लिखते हैं — “स्टालिन का युग ऐसे असंभव प्रतीत होने वाले तथ्यों से भरा हुआ है, जिन्हें समझने के लिए साधारण मन तैयार ही नहीं था।”
यह समझने में असफलता हमारे समय के लिए भी महत्वपूर्ण है, जब हम निगरानी पूँजीवाद (surveillance capitalism) और उसकी “व्यवहार नियंत्रक शक्ति” (instrumentarian power) को समझने की कोशिश कर रहे हैं।
सर्वसत्तावाद की असंभवता से टकराने का यह अनुभव उन शुरुआती विद्वानों के लेखों में झलकता है, जिन्होंने इस युग की भयावह सच्चाइयों से पर्दा उठाने का काम शुरू किया।
युद्ध के तुरंत बाद जिन्होंने इस पर काम किया, लगभग सभी ने लिखा कि वे इस बात से स्तब्ध थे कि कैसे एकाएक, अप्रत्याशित रूप से, सर्वसत्तावाद मानवता पर टूट पड़ा।
हार्वर्ड विश्वविद्यालय के राजनीतिक वैज्ञानिक कार्ल फ्रेडरिक ने लिखा — “यह सब कुछ इतना नया, अप्रत्याशित, चौंकाने वाला और तीव्र था कि भाषा तक असमर्थ हो गई। इसने हर परंपरा, मूल्य, और वैध क्रियाविधान को चुनौती दी।”
हिंसा और सहयोग की इस संगठित बाढ़ ने पूरे समाजों को इतनी तेज़ी से निगल लिया कि बीसवीं सदी के कई महान मस्तिष्क भी असमंजस और जड़ता में पड़ गए।
फ्रेडरिक 1954 में लिखते हैं कि “1914 से पहले लगभग किसी ने भी यह अनुमान नहीं लगाया था कि पश्चिमी सभ्यता किस दिशा में जाएगी... इतिहास, कानून और सामाजिक विज्ञान के किसी भी बड़े विद्वान ने वह नहीं देखा जो आने वाला था — और जो अंततः सर्वसत्तावाद में परिणत हुआ। इस भविष्य को न देख पाने की असफलता के साथ-साथ उसे समझने की भी कठिनाई जुड़ी है।”
यहाँ तक कि औद्योगिक समाज के प्रारंभिक व्याख्याकार — जैसे डुर्खाइम और वेबर — भी इस हिंसक मोड़ की कल्पना नहीं कर सके थे।
दार्शनिक हैना अरेंड्ट ने नाज़ी जर्मनी की हार को “पहला अवसर” कहा — जब इंसान “यह बताने और समझने की कोशिश कर सकता था कि आखिर हुआ क्या था... अब भी दुख और शोक के साथ, कुछ पछतावे के साथ, पर अब मौन भय और निराशा में नहीं।”
आख़िरकार, कुछ साहसी और बुद्धिमान विद्वानों के प्रयासों ने इस भयावह यथार्थ को समझने की चुनौती स्वीकार की।
धीरे-धीरे एक समृद्ध बौद्धिक परंपरा विकसित हुई, जिसने अलग-अलग दृष्टिकोण और विचार-प्रणालियाँ दीं। प्रत्येक का अपना अलग बल था, परंतु सबका उद्देश्य एक ही था — इस महान बुराई (totalitarianism) को उसके असली नाम से पहचानना।
दार्शनिक हैना अरेंड्ट, जो जर्मनी में जन्मी थीं और द्वितीय विश्व युद्ध के बाद छह वर्षों तक इस विषय पर गहराई से काम करती रहीं, ने 1951 में अपनी प्रसिद्ध पुस्तक The Origins of Totalitarianism प्रकाशित की।
उन्होंने लिखा — “सर्वसत्तावाद (टोटलिटेरियनिज़्म) ने मनुष्य को भीतर से नियंत्रित और भयभीत करने का तरीका खोज लिया है।”
अरेंड्ट का कार्य सिर्फ विवरण नहीं, बल्कि उस भयावह अनुभव का पहला सिद्धांतात्मक विश्लेषण था।
उनके अनुसार “समझना” (comprehension) उस “पूर्ण बुराई की प्रकृति” के प्रति आवश्यक मानवीय प्रतिक्रिया है, जिसे सर्वसत्तावाद ने उजागर किया।
उन्होंने कहा —
“इसका अर्थ है उस बोझ को सचेत रूप से उठाना जिसे हमारे शताब्दी ने हमारे कंधों पर रखा है — न तो उसकी उपेक्षा करना, न ही चुपचाप उसके सामने झुक जाना।”
सर्वसत्तावाद का लक्ष्य था “मानवता का विनाश” और “मनुष्य के सार का नाश।”
अरेंड्ट ने चेताया कि — “यदि हम अपने समय की विनाशकारी शक्तियों से मुँह मोड़ लें, तो यह हमारे किसी काम नहीं आएगा।”
उनके अनुसार, सर्वसत्तावाद का मूल तत्व है सभी सामाजिक और मानवीय संबंधों का मिटा दिया जाना, सिवाय “आंदोलन” (movement) से जुड़ाव के।
उन्होंने लिखा —
“पूर्ण निष्ठा (total loyalty) — जो शासन की मनोवैज्ञानिक नींव है — केवल उसी व्यक्ति से अपेक्षित की जा सकती है जो पूरी तरह अकेला कर दिया गया हो, जिसके पास न परिवार, न मित्र, न साथी, न परिचित हों, और जो केवल पार्टी या आंदोलन की सदस्यता से ही अपनी पहचान महसूस करता हो।”
मध्य-शताब्दी के विद्वान जैसे कार्ल फ्रेडरिक, थियोडोर अडोर्नो, ग्यूरियन, ब्रेज़िंस्की और रेमंड आरोन ने इस विचार को आगे बढ़ाया।
उन्होंने बताया कि सर्वसत्तावाद का उद्देश्य केवल लोगों के शरीर या व्यवहार पर नहीं, बल्कि उनकी आत्मा पर अधिकार करना था।
इस प्रकार की सत्ता पाने के लिए अकल्पनीय प्रयास की आवश्यकता होती है, और यही कारण था कि सर्वसत्तावाद को “अकल्पनीय” कहा गया।
इसे पूरा करने के लिए ऐसे लोग चाहिए थे — जो अपने दोनों हाथ खून और गंदगी में डुबोने को तैयार हों,
जो असली इंसानों की देह, उनकी बदबू, उनके पसीने, उनके डर और पीड़ा से होकर गुजरें।
इतिहासकार रिचर्ड शॉर्टन ने इसे “मानवता को नया रूप देने का प्रयोग” (experiment in reshaping humanity) कहा है —
एक ऐसा प्रयोग जो व्यक्ति के भीतर तक उतरकर उसकी हर अव्यक्त इच्छा और सोच पर नियंत्रण करता है।
इस प्रयोग का लक्ष्य था — समाज का विनाश और पुनर्निर्माण, और “मानव जाति की शुद्धि” का दावा।
स्टालिन के सोवियत संघ में यह ‘वर्ग’ (class) के नाम पर किया गया,
जबकि हिटलर के जर्मनी में यह ‘जाति’ (race) के नाम पर।
दोनों ही शासन-प्रणालियों ने “दुश्मन समूह” (out-groups) गढ़े —
जैसे यहूदी, रोमा समुदाय, समलैंगिक, क्रांतिकारी या असहमत नागरिक — जिन्हें खत्म किया जाना था,
और “अपना समूह” (in-groups) — जिन्हें पूरे शरीर और आत्मा से शासन के प्रति समर्पित होना था।
इस तरह सर्वसत्तावादी शासन “जनता-के-रूप-में-एकता” (People-as-one) की कल्पना साकार करने की कोशिश करते थे।
दार्शनिक क्लॉद लेफॉर्त लिखते हैं —
“सामाजिक एकता (social unanimity) का अर्थ है आंतरिक एकता — जिसे ‘जनता के शत्रुओं’ के प्रति सक्रिय घृणा द्वारा बनाए रखा जाता है।”
अरेंड्ट का कार्य हाल में घटी घटनाओं का एक विस्तृत अनावरण और उसे सैद्धांतिक रूप देने का प्रथम प्रयास था।
उन्होंने कहा — “समझना (Comprehension)” वह आवश्यक प्रतिक्रिया है जो हमें सर्वसत्तावाद (Totalitarianism) द्वारा उजागर की गई ‘बुराई की अत्यंत मूलभूत प्रकृति’ के प्रति देनी चाहिए।
इसका अर्थ है — “उस बोझ को सचेत रूप से उठाना जिसे हमारे युग ने हमारे कंधों पर रखा है — न उसकी मौजूदगी से इनकार करना, न ही उसके बोझ के नीचे चुपचाप दब जाना।”
अरेंड्ट का कहना था कि सर्वसत्तावाद का लक्ष्य ‘मानवता’ और ‘मनुष्य के सार’ का विनाश था।
उन्होंने चेतावनी दी — “यदि हम अपनी सदी की इन विनाशकारी शक्तियों से मुँह मोड़ लें, तो उसका कोई लाभ नहीं होगा।”
सर्वसत्तावाद की मूल विशेषता थी — हर प्रकार के मानवीय संबंधों और अर्थ के स्रोतों को मिटा देना, सिवाय “आंदोलन” (movement) के।
अरेंड्ट ने लिखा —
“पूर्ण निष्ठा (total loyalty) — जो प्रभुत्व की मनोवैज्ञानिक नींव है — केवल उसी व्यक्ति से अपेक्षित की जा सकती है जो पूरी तरह अलग-थलग कर दिया गया हो।
जिसके पास न परिवार हो, न मित्र, न साथी, न ही कोई परिचित — और जो दुनिया में अपनी जगह का एहसास केवल एक आंदोलन या पार्टी की सदस्यता से करता हो।”
बीसवीं सदी के मध्य के विद्वान — कार्ल फ्रेडरिक, थियोडोर अडोर्नो, ग्यूरियन, ब्रेज़िंस्की, और रेमंड आरोन — ने भी इसी विचार को आगे बढ़ाया।
उन्होंने बताया कि सर्वसत्तावाद का उद्देश्य केवल लोगों के शरीर या व्यवहार पर नहीं, बल्कि उनकी आत्मा (soul) पर नियंत्रण स्थापित करना था।
आत्मा तक शासन करना असंभव-सा प्रयास था, और यही कारण था कि सर्वसत्तावाद को “अकल्पनीय” कहा गया।
इसके लिए आवश्यक थे अनगिनत कारकुन — और उनके कारकुन — जो अपने दोनों हाथ खून और गंदगी में डुबोने को तैयार हों,
जो जीवित इंसानों के शरीर, उनकी बदबू, उनका पसीना, उनका डर, उनका दुख और उनका विलाप झेल सकें।
इतिहासकार रिचर्ड शॉर्टन ने इस प्रयोग को “मानवता को नया आकार देने का प्रयोग (the experiment in reshaping humanity)” कहा है।
इसका लक्ष्य था हर व्यक्ति की सबसे भीतरी परतों तक घुसकर उसकी हर अव्यक्त भावना, हर छोटी-सी लालसा को नियंत्रित करना।
समाज का विनाश और पुनर्निर्माण तथा मानव जाति की शुद्धि — इन विचारों को दो अलग-अलग रूपों में अंजाम दिया गया:
स्टालिन के सोवियत संघ में ‘वर्ग’ (class) के नाम पर,
और हिटलर के जर्मनी में ‘जाति’ (race) के नाम पर।
दोनों ही शासन प्रणालियों ने “दुश्मन समूहों (out-groups)” का निर्माण किया —
जैसे यहूदी, रोमा (Gypsies), समलैंगिक, क्रांतिकारी या असहमत नागरिक — जिन्हें नष्ट किया जाना था;
और “अपने समूह (in-groups)” — जिन्हें शासन के प्रति शरीर और आत्मा दोनों से समर्पित रहना था।
इस प्रकार सर्वसत्तावादी शासन अपने काल्पनिक लक्ष्य — “एकता के रूप में जनता” (People-as-one) — को प्राप्त करना चाहता था।
दार्शनिक क्लॉद लेफॉर्त ने लिखा —
“सामाजिक एकता (social unanimity) दरअसल भीतर की एकता का ही दूसरा नाम है —
जो ‘जनता के शत्रुओं’ के प्रति सक्रिय घृणा के माध्यम से बनाए रखी जाती है।”
लेकिन सर्वसत्तावादी शक्ति केवल दूर से आदेश देकर या ‘remote control’ से नहीं चल सकती।
सिर्फ दिखावटी आज्ञाकारिता पर्याप्त नहीं थी।
हर व्यक्ति के भीतरी जीवन (inner life) को नियंत्रण में लेना और बदल देना आवश्यक था —
ऐसे अपराधों की धमकी से जिनका कोई अपराध ही न हो।
जनसंहार (mass murder) के लिए तो कैम्प, गुलाग और सामूहिक हत्याएँ “बड़े पैमाने की अर्थव्यवस्था” (economies of scale) थे,
परंतु बाकी सबके लिए यह एक हाथ से गढ़ी गई दहशत (handmade terror) थी —
जिसका उद्देश्य था व्यक्ति को भीतर से बाहर तक पुनः निर्मित करना —
उसका हृदय, मस्तिष्क, यौनता, व्यक्तित्व, और आत्मा तक।
यह काम सूक्ष्म नियंत्रण से किया जाता था —
एकाकीपन (isolation), चिंता, भय, मनोवैज्ञानिक समझाइश, कल्पना, आकांक्षा, प्रेरणा, यातना, आतंक और निगरानी के माध्यम से।
अरेंड्ट ने इसे “परमाणुकरण (atomization)” की प्रक्रिया कहा —
एक ऐसा क्रम जिसमें भय और आतंक कानून, सामाजिक मानदंड, विश्वास, और स्नेह जैसे सामान्य मानवीय संबंधों को नष्ट कर देते हैं,
जो व्यक्ति की स्वतंत्रता के लिए जीवन-स्थान (living space) प्रदान करते हैं।
उनके शब्दों में,
“आतंक की लोहे की पट्टी (iron band) मनुष्यों को निर्दयतापूर्वक एक-दूसरे से दबाती है,
ताकि स्वतंत्र क्रिया के लिए कोई स्थान शेष न रहे।”
आखिर में, “आतंक मनुष्यों की कृत्रिम एकता का निर्माण करता है — सभी को एक जैसा बना देता है।”
The Inside Workings of Totalitarian Power — explained simply and clearly
This passage (from Hannah Arendt and other mid-century thinkers) analyses how totalitarian regimes go far beyond ordinary tyranny. They aim not only to control actions, but to remake people’s inner lives — their loyalties, feelings, desires, even sense of self. Below I explain every part of the passage in plain English, with practical examples and the economic, political, social, cultural and philosophical consequences. Each section is subtitled and self-contained so a reader can follow easily.
1. Core thesis in one sentence
Totalitarianism tries to destroy ordinary human bonds and rebuild people from the inside out so that the whole population becomes a single, obedient “people-as-one.” This requires systematic terror, isolation, and control over private life — not just laws and police.
Practical manifestation: public rituals and propaganda create a single “us”; secret police, informers, and mass arrests remove alternative loyalties (family, neighborhood, workplace, religion). Example: Stalin’s purges and show trials; Nazi mass rallies and SS terror.
2. Why Arendt called comprehension necessary
Arendt argued that the evil of totalitarianism was radical and new, so the correct human response is careful comprehension — to see, name and bear the reality rather than deny it or passively accept it.
Practical manifestation: scholars, journalists and citizens must study and speak the truth about mass terror even when it is shocking or seems “improbable.” Example: early post-war inquiries and Arendt’s book Origins of Totalitarianism.
3. Deleting all ties except “the movement” — how social isolation works
Totalitarian rule removes or weakens all social bonds that give people identity apart from the regime: family ties, friendships, civil associations, and independent institutions. The lone, isolated person then only belongs through the party or movement.
Practical manifestation: forced relocations, dismantling of independent clubs/ churches/ unions, imprisonment of community leaders — so people rely only on the party to belong. Example East: Mao’s Cultural Revolution targeted local associations and family elders; Example West/East historic: Nazi laws dismantling independent organizations.
4. Domination of the soul — why this is different from ordinary repression
Ordinary repression controls behavior by force or fear. Totalitarianism tries to command inner life — thoughts, desires, loyalties, even private affections. That requires more than laws; it needs constant psychological pressure.
Practical manifestation: propaganda that reshapes values, schooling that rewrites history, public denunciations forcing people to confess and recant, and re-education camps. Example: North Korean ideology (Juche) seeks total internalization; Khmer Rouge (Pol Pot) attempted to remake villagers’ minds and identities.
5. The machinery needed — why it seems “unimaginable”
To control souls, a totalitarian system needs vast personnel willing to do brutal tasks: informers, secret police, camp guards, bureaucrats who dehumanize victims. This scale of organized cruelty was hard for outside observers to imagine.
Practical manifestation: networks of informants, mass purges, labor camps (gulags, concentration camps), and bureaucracies that normalize torture. Example: Soviet NKVD, Nazi Gestapo, Khmer Rouge cadres.
6. The cellular level: remaking people from the inside out
Success is measured at the smallest scale — how each person thinks and feels. The regime seeks to reshape heart, mind, sexuality, personality, and spirit — often by a mixture of fear, temptation, humiliation and propaganda.
Practical manifestation: forced renunciations of private relationships, punished “deviant” sexual behavior, state-sponsored marriages or purges, reprogramming of children through schools and youth organizations. Example: Hitler’s campaign to control family and youth (Hitler Youth); Stalin’s re-education and denunciation culture.
7. The instruments of remaking — a long toolbox
To do all this the state orchestrates: isolation, anxiety, fear, persuasion, fantasy, longing, inspiration, torture, dread and surveillance. Each element plays a role in breaking old loyalties and building new ones to the movement.
Practical manifestation:
-
Isolation: break social networks through arrests or relocation.
-
Anxiety/fear: random arrests keep people insecure.
-
Persuasion/fantasy: utopian promises and large spectacles give hope.
-
Surveillance/torture: monitor and punish private thought.
Examples: Nazi book burnings (cultural control), Soviet show trials (public humiliation + fear), modern digital surveillance (algorithmic pressure/online censorship in some regimes).
8. The economic consequences
Totalitarian projects reorient the economy to political ends. Property and enterprise are nationalized or tightly controlled; labor is mobilized for state projects; economic incentives serve political purification or social engineering.
Practical manifestation: forced collectivization, command economies, concentration of resources for political campaigns. Example: Stalin’s collectivization causing famine; Nazi wartime economy organizing production for racial goals.
Long-term effect: economic stagnation, loss of innovation, human capital destroyed, and cycles of scarcity and repression.
9. The political consequences
Politics ceases to be pluralistic debate and becomes the single voice of the movement. Rule of law collapses into rule by leader/party; institutions are hollowed out; dissenters are eliminated.
Practical manifestation: disappearance of independent judiciary, legislature coopted, elections as sham. Example: one-party states like Hitler’s Germany, Stalin’s USSR, Cambodia under the Khmer Rouge.
Result: no peaceful channel for change; politics becomes existential struggle — survival vs. loyalty.
10. The social consequences
Communities fracture; trust collapses; social capital erodes. People learn to hide, inform, or perform loyalty. Public life becomes staged; genuine friendships and civic engagement shrink.
Practical manifestation: neighbors spying on neighbors; families torn apart by denunciation; fearful silence in public spaces. Example: East Germany Stasi culture of denunciation.
Result: long-term trauma and intergenerational mistrust.
11. The cultural consequences
Art, literature, and education are reshaped to serve the movement. Independent thought is punished; culture becomes propaganda. Creativity suffers or is co-opted to glorify the regime.
Practical manifestation: state-approved art, censorship, rewriting history in textbooks. Example: Socialist Realism in the USSR; Hitler’s censorship of “degenerate art.”
Result: impoverished cultural life and loss of diverse human expression.
12. The philosophical and ethical consequences
Philosophically, totalitarianism attacks the idea of the autonomous moral agent. It replaces individual moral choice with obedience; truth becomes what the movement decrees; conscience is criminalized.
Practical manifestation: moral language is redefined (enemies labeled traitors), ethics becomes submission. Example: Nazi racial ideology redefined morality in racial terms; Stalinist doctrine labeled dissent as counter-revolution.
Ramification: erosion of moral responsibility and the collapse of shared facts — preconditions for democratic life.
13. East and West — historical examples that illuminate the passage
West/East historical examples cited by scholars:
-
Nazi Germany: mass rallies, racial purification, youth indoctrination, camps (Holocaust).
-
Stalin’s USSR: purges, gulags, show trials, forced collectivization.
Other 20th-century examples with similar patterns: -
Mao’s China (Cultural Revolution): attack on traditions, reeducation, youth mobilization.
-
Khmer Rouge (Cambodia): attempt to remake society from countryside back to “Year Zero” — genocidal social engineering.
-
Contemporary forms: authoritarian states using modern surveillance, censorship, and social credit mechanisms to shape behavior (different in degree and technique, but comparable in aims to shape inner life).
14. Why “mere conformity” is not enough — the need for internal transformation
The passage stresses that outward compliance is not sufficient for lasting totalitarian control. The regime must transform private motivations so individuals truly believe and act from inward conviction — or live in constant fear of punishment.
Practical manifestation: forced confessions, “self-criticism,” and public rituals that coerce internal assent (e.g., public denunciations in Maoist campaigns).
15. Reasoned conclusion — what to learn and how to respond
Totalitarianism’s cruelty lies in its ambition to remake humans themselves. It uses a complex mix of terror and propaganda to erode all alternative loyalties and produce a unified mass. The lesson for us:
-
Recognize early: attacks on independent institutions, the press, and community are early warning signs.
-
Protect civic spaces: families, independent media, schools and associations are the bulwark against “atomization.”
-
Defend truth and plurality: history, facts and ethical debate must be preserved against simplification and hatred.
-
Care for victims and memory: remembering atrocities and supporting survivors prevents normalization of terror.
Practical civic steps: strong independent institutions, rule of law, freedom of expression, civic education, and social safety nets reduce the appeal of movements that promise unity by destroying plural life.
If you want, I can now convert this explanation into a short classroom handout (bulleted), a Hindi version, or a policy brief on how to safeguard democratic societies from the dangers described above. Which would you prefer?
हिंदी अनुवाद — “इंस्ट्रुमेंटेरियन शक्ति” (Instrumentarian Power)
नई शक्ति का उदय: हिंसा से नहीं, बल्कि व्यवहार नियंत्रण से
इंस्ट्रुमेंटेरियन शक्ति (Instrumentarian Power) का संचालन और लक्ष्य, दोनों ही, सर्वसत्तावाद (Totalitarianism) से बिल्कुल अलग हैं। सर्वसत्तावादी शासन हिंसा के माध्यम से मनुष्य को नियंत्रित करता था, जबकि इंस्ट्रुमेंटेरियन शक्ति व्यवहारिक परिवर्तन (Behavioral Modification) के माध्यम से मनुष्य को नियंत्रित करती है। अब हमें ध्यान इस नई दिशा की ओर ले जाना होगा।
यह शक्ति हमारी आत्मा या किसी नैतिक सिद्धांत से कोई संबंध नहीं रखती। इसका उद्देश्य हमें “आध्यात्मिक मुक्ति” या किसी विचारधारा के अनुसार बदलना नहीं है। यह मनुष्य के भीतर जाकर उसे नियंत्रित नहीं करती, न ही यह हमारे शरीर या मन को नष्ट करने की इच्छा रखती है जैसा कि हिटलर या स्टालिन के शासन में हुआ था।
यह शक्ति हमारे डेटा (Data) को चाहती है—हमारे रक्तचाप, हमारी आदतें, हमारी ऑनलाइन खोजें, हमारी पसंद-नापसंद, यहाँ तक कि हमारे दुःख या पीड़ा से जुड़ी हर गतिविधि को। लेकिन यह हमारे दुःख या दर्द में कोई दिलचस्पी नहीं रखती। इसे केवल इतना मतलब है कि हम जो कुछ भी करते हैं वह मापने योग्य (Measurable) और उसके नियंत्रण तंत्र के लिए उपलब्ध हो। यह हमारी हर क्रिया को अपने गणना (Calculation), संशोधन (Modification), मुद्रीकरण (Monetization) और नियंत्रण (Control) की प्रक्रिया में बदल देती है।
मानव इतिहास में एक नई और अदृश्य शक्ति
भले ही यह शक्ति हिंसक नहीं है, पर यह उतनी ही भयावह और समझ से परे है जितनी सर्वसत्तावादी शक्ति अपने समय में थी। जैसे 20वीं सदी के लोगों के लिए नाजी जर्मनी और स्टालिन का सोवियत संघ एक नया, अमानवीय अनुभव था, वैसे ही आज की पीढ़ी के लिए यह डिजिटल नियंत्रण की शक्ति नई और भ्रमित करने वाली है।
इंस्ट्रुमेंटेरियन शक्ति को पहचानना कठिन है क्योंकि यह गुप्त रूप से विकसित हुई है, तकनीक की जटिलता में छिपी है, और सुविधा तथा आकर्षक भाषा के आवरण में ढकी हुई है। “फ्री सर्विस”, “पर्सनलाइज्ड सर्च”, “रिलेटेड कंटेंट” जैसे शब्द सुनने में उपयोगकर्ता-केंद्रित लगते हैं, लेकिन इनके पीछे एक विशाल तंत्र काम करता है जो हमारे व्यवहार को अनुमानित, नियंत्रित और परिवर्तित करता है।
सर्वसत्तावाद बनाम इंस्ट्रुमेंटेरियनिज़्म: सत्ता के दो चेहरे
सर्वसत्तावाद एक राजनीतिक परियोजना (Political Project) था जो आर्थिक नियंत्रण के साथ मिलकर समाज पर प्रभुत्व स्थापित करता था। इसके केंद्र में राज्य और विचारधारा थी — जैसे “आर्य नस्ल की शुद्धता” या “श्रमिक वर्ग की तानाशाही”।
इसके विपरीत, इंस्ट्रुमेंटेरियन शक्ति एक बाज़ार आधारित परियोजना (Market Project) है, जो डिजिटल तकनीक के साथ मिलकर समाज पर प्रभुत्व स्थापित करती है। यहाँ राज्य नहीं, बल्कि कॉरपोरेट पूँजी (Corporate Capital) मुख्य खिलाड़ी है — गूगल, मेटा, अमेज़न, टेंसेंट, बाइटडांस जैसी कंपनियाँ इस नई शक्ति की अग्रदूत हैं।
आर्थिक और राजनीतिक निहितार्थ (Economic & Political Implications)
अब सत्ता केवल सरकारों के पास नहीं, बल्कि उन प्लेटफ़ॉर्म्स के पास है जिनके पास डेटा है। जैसे—
-
चुनावों में मतदाताओं का व्यवहार भविष्यवाणी करने और प्रभावित करने की क्षमता (कैम्ब्रिज एनालिटिका प्रकरण)।
-
उपभोक्ताओं की मानसिकता के अनुसार विज्ञापन भेजना ताकि ख़रीदारी का निर्णय स्वतः हो जाए।
-
नागरिकों पर डिजिटल निगरानी—जैसे चीन का “सोशल क्रेडिट सिस्टम” जो नागरिकों के ऑनलाइन व्यवहार के आधार पर उनके अधिकारों को सीमित करता है।
इस प्रकार, इंस्ट्रुमेंटेरियन शक्ति हिंसा नहीं करती, बल्कि सहमति को निर्मित करती है, इच्छाओं को नियंत्रित करती है, और स्वतंत्र सोच को धीरे-धीरे प्रतिस्थापित करती है।
सांस्कृतिक और दार्शनिक आयाम (Cultural & Philosophical Dimensions)
सांस्कृतिक रूप से, यह शक्ति मनुष्य की स्वायत्तता (Autonomy) को समाप्त कर देती है। हमारे निर्णय अब “स्वतंत्र” नहीं रह जाते, बल्कि हमें यह “महसूस” कराया जाता है कि हम स्वतंत्र हैं, जबकि वास्तव में हमारी पसंद पहले से तय की जा चुकी होती है — जैसे नेटफ्लिक्स या यूट्यूब हमें वही दिखाते हैं जो हम “शायद पसंद करेंगे,” और इसी तरह हमारी नई रुचियाँ बन जाती हैं।
दार्शनिक रूप से, यह शक्ति “अर्थ” (Meaning) को खाली कर देती है। इंस्ट्रुमेंटेरियनिज़्म को इस बात से कोई फर्क नहीं पड़ता कि हम क्या सोचते हैं या क्या महसूस करते हैं; उसे सिर्फ़ इस बात से फर्क है कि हम “कैसे व्यवहार करते हैं।”
निष्कर्ष: आज़ादी के नए खतरे
इस नई शक्ति का खतरा यह है कि यह हमारे खिलाफ़ हिंसा नहीं करती, बल्कि हमारी स्वतंत्रता की परिभाषा को बदल देती है। हम सोचते हैं कि हम स्वतंत्र हैं, जबकि हमारा हर कदम, हर क्लिक, हर निर्णय पहले से किसी एल्गोरिद्म द्वारा गाइड किया जा चुका होता है।
जहाँ सर्वसत्तावाद ने मनुष्य के शरीर को कैद किया था, वहीं इंस्ट्रुमेंटेरियनिज़्म ने मनुष्य के व्यवहार और चेतना को बाज़ार की प्रयोगशाला में कैद कर लिया है।
यदि चाहें तो मैं इसका विस्तृत विश्लेषणात्मक संस्करण भी तैयार कर सकता हूँ — जिसमें मैं इस विचार की तुलना भारत और पश्चिम की समकालीन राजनीतिक-आर्थिक घटनाओं (जैसे डिजिटल इंडिया, TikTok बैन, Facebook एल्गोरिद्म, और चीन का सर्विलांस राज्य) से कर दूँ — ताकि यह विचार और गहराई में समझ में आए।
क्या मैं उसे भी जोड़ दूँ?
हिंदी अनुवाद — इंस्ट्रुमेंटेरियनिज़्म का बौद्धिक स्रोत (The Intellectual Roots of Instrumentarianism)
यह आश्चर्य की बात नहीं है कि इंस्ट्रुमेंटेरियनिज़्म (Instrumentarianism) का विशिष्ट “निगरानी का दृष्टिकोण (Viewpoint of Observation)” उस विवादास्पद बौद्धिक क्षेत्र से विकसित हुआ, जिसे “रेडिकल बिहेवियरिज़्म (Radical Behaviorism)” कहा जाता है। इस विचारधारा की जड़ें 20वीं सदी की शुरुआत के सैद्धांतिक भौतिकी (Theoretical Physics) में भी पाई जाती हैं।
अब निगरानी पूँजीवाद (Surveillance Capitalism) के युग में शक्ति की प्रकृति को समझने के लिए हमें उसी मूल बिंदु की ओर लौटना होगा—जो सर्वसत्तावाद (Totalitarianism) की हिंसा और रक्तपात से बहुत दूर है।
यह यात्रा हमें प्रयोगशालाओं (Laboratories), कक्षाओं (Classrooms) और उन विचार-जगतों (Realms of Thought)** तक ले जाती है**, जहाँ कुछ वैज्ञानिकों और विचारकों ने यह मान लिया था कि “स्वतंत्रता (Freedom)” केवल अज्ञान (Ignorance) का दूसरा नाम है।
इन विचारकों के अनुसार, मनुष्य कोई स्वतंत्र चेतन प्राणी नहीं, बल्कि एक ऐसा जीव है जो अपने व्यवहार के बंधनों में कैद है—बिलकुल वैसे ही जैसे चींटियाँ, मधुमक्खियाँ या स्टुअर्ट मैके (Stuart MacKay) के अध्ययन में देखे गए हिरणों के झुंड (Herds of Elk)।
दूसरे शब्दों में, इन वैज्ञानिकों का मानना था कि मनुष्य के कार्य, निर्णय और प्रतिक्रियाएँ केवल बाहरी उद्दीपनों (External Stimuli) का परिणाम हैं। व्यक्ति स्वयं कुछ नहीं सोचता या चुनता—वह सिर्फ़ प्रतिक्रिया करता है।
विस्तृत व्याख्या (Explanation in Simple Terms)
-
“रेडिकल बिहेवियरिज़्म” क्या था?
यह एक मनोवैज्ञानिक विचारधारा थी जिसे अमेरिकी मनोवैज्ञानिक बी. एफ. स्किनर (B.F. Skinner) ने विकसित किया। इस सिद्धांत के अनुसार, मनुष्य का हर व्यवहार नियंत्रित (Controlled) और पूर्वानुमेय (Predictable) है। यदि किसी को सही संकेत (Stimulus) दिए जाएँ, तो उसका व्यवहार पहले से तय किया जा सकता है।उदाहरण के लिए: अगर किसी व्यक्ति को हर बार मोबाइल पर नोटिफिकेशन मिलने पर “डोपामीन” का सुखद अनुभव होता है, तो वह लगातार फोन चेक करेगा—यह उसकी आदत बन जाएगी। यही आधुनिक टेक कंपनियों का तंत्र है।
-
इसका संबंध निगरानी पूँजीवाद से कैसे है?
जैसे प्रयोगशालाओं में स्किनर ने चूहों को “रिवॉर्ड और पनिशमेंट” से प्रशिक्षित किया, वैसे ही आज गूगल, फेसबुक, इंस्टाग्राम, टिकटॉक आदि प्लेटफ़ॉर्म उपयोगकर्ताओं के व्यवहार को डेटा के माध्यम से नियंत्रित करते हैं।-
“लाइक”, “नोटिफिकेशन” और “फीड” — ये सब आधुनिक युग के “बिहेवियरल टूल्स” हैं।
-
इनसे उपयोगकर्ता की संज्ञानात्मक स्वतंत्रता (Cognitive Freedom) धीरे-धीरे समाप्त हो जाती है।
-
-
राजनीतिक और सामाजिक परिणाम
इस दृष्टिकोण ने यह धारणा पैदा की कि मनुष्य को प्रशिक्षित किया जा सकता है, बदला जा सकता है, और उसकी इच्छाओं को बाज़ार या सत्ता की ज़रूरतों के अनुसार ढाला जा सकता है।-
विज्ञापन उद्योग इसका सबसे बड़ा उदाहरण है — जहाँ मनुष्य की “ज़रूरतें” नहीं, बल्कि “इच्छाएँ” बनाई जाती हैं।
-
राजनीतिक स्तर पर, यह विचार मतदाताओं के मनोविज्ञान को लक्षित करने के लिए उपयोग होता है (जैसे Cambridge Analytica प्रकरण)।
-
-
दार्शनिक निहितार्थ (Philosophical Implication)
इस दृष्टिकोण में मनुष्य को यंत्रवत जीव (Mechanized Being) के रूप में देखा गया।
इसका अर्थ यह है कि अब “स्वतंत्र इच्छा (Free Will)” का अस्तित्व ही प्रश्नचिह्न के घेरे में है।
जब इंसान को केवल व्यवहारिक पैटर्न के रूप में देखा जाएगा, तो उसकी “चेतना”, “आत्मा” और “नैतिक जिम्मेदारी” अप्रासंगिक बन जाएगी।
निष्कर्ष: विज्ञान से नियंत्रण तक
इस प्रकार, इंस्ट्रुमेंटेरियन शक्ति की जड़ें विज्ञान की प्रयोगशालाओं से निकलकर अब डिजिटल पूँजीवाद के बाज़ार में पहुँच गई हैं।
जो प्रयोग कभी चूहों पर होते थे, अब वही प्रयोग मनुष्यों पर एल्गोरिद्म के ज़रिए हो रहे हैं।
हम “आज़ाद” नहीं हैं—बल्कि “पूर्वानुमेय उपयोगकर्ता” (Predictable Users) हैं।
क्या आप चाहेंगे कि मैं अगला भाग भी अनुवाद कर दूँ — जहाँ ज़ुबॉफ़ बताती हैं कि यह “रेडिकल बिहेवियरिज़्म” किस तरह आधुनिक टेक कंपनियों के डेटा शासन (Data Governance) में बदल गया?
Here is the Hindi translated version of the passage, written in the same tone and continuity as your earlier translations:
1971 में टाइम पत्रिका ने अपने कवर स्टोरी में बर्हस फ्रेडरिक “बी. एफ.” स्किनर का वर्णन करते हुए लिखा था—
“वे हार्वर्ड विश्वविद्यालय में एक संस्था जैसे हैं... जीवित अमेरिकी मनोवैज्ञानिकों में सबसे प्रभावशाली, और मानव व्यवहार के विज्ञान में सबसे विवादास्पद समकालीन व्यक्तित्व — जिन्हें एक ओर मसीहा की तरह पूजनीय माना जाता है और दूसरी ओर एक खतरे की तरह निंदनीय।”
स्किनर ने अपने जीवन का अधिकांश हिस्सा हार्वर्ड विश्वविद्यालय के मनोविज्ञान विभाग में बिताया। स्नातक अध्ययन के दिनों में मैंने स्वयं उनके साथ कुछ गहन बहसें की थीं — जिन्हें मैं कभी नहीं भूल सकता। मानता हूँ कि उन चर्चाओं से हमारे विचारों में कोई ठोस बदलाव नहीं आया, परंतु उन्होंने मेरे भीतर उस सोच के प्रति गहरी जिज्ञासा पैदा कर दी जो मानव जीवन को देखने का एक बिल्कुल भिन्न दृष्टिकोण प्रस्तुत करती थी।
एक अकादमिक मनोवैज्ञानिक के रूप में स्किनर अपनी प्रयोगात्मक तकनीकों और युक्तियों के लिए प्रसिद्ध थे, जिनके माध्यम से वे पशुओं के व्यवहार का अध्ययन करते थे — पहले मेमोरियल हॉल के पुराने अंधेरे तहखाने में और बाद में नए निर्मित विलियम जेम्स हॉल की सातवीं मंज़िल पर। उनके प्रयोगों में कबूतरों और लीवरों, कबूतरों और दानों, गर्म प्लेटों पर कबूतरों, और भूलभुलैया में दौड़ते चूहों का इस्तेमाल होता था।
उनका प्रारंभिक शोध इस दिशा में मील का पत्थर साबित हुआ कि उन्होंने “सुदृढ़ीकरण के चर शेड्यूल” (schedules of reinforcement) विकसित किए, जिनकी मदद से वे पशुओं में ऐसे व्यवहार उत्पन्न करते थे जो उनकी प्राकृतिक प्रवृत्तियों से बिल्कुल अलग थे। उन्होंने इस प्रक्रिया को “ऑपरेन्ट कंडीशनिंग” (Operant Conditioning) नाम दिया।
द्वितीय विश्व युद्ध के दौरान उन्होंने कबूतरों के एक समूह को मार्गदर्शित मिसाइलों के लिए ‘संवर्तित बुद्धिमत्ता’ में बदलने का प्रयास किया था — यद्यपि यह परियोजना अंततः सफल नहीं हुई। लेकिन इस प्रयोग ने उन्हें एक नए रास्ते पर प्रेरित किया — व्यवहार अभियांत्रिकी (behavioral engineering) की दिशा में।
1947 में एक संगोष्ठी में उन्होंने कहा था, “अब प्रश्न यह नहीं रह गया है कि हम दुनिया को प्रयोगशाला में लाएँ, बल्कि यह कि हम प्रयोगात्मक विज्ञान की पद्धतियों को दुनिया तक फैलाएँ। हम यह काम तभी कर सकते हैं जब हम इसे करने की इच्छा रखते हों।”
बाद में अपनी आत्मकथा में स्किनर ने लिखा, “उस मिसाइल परियोजना ने मेरे प्रयोगात्मक कार्य के अर्थ को एक नई रोशनी में रख दिया था। यह अब केवल एक विश्लेषणात्मक प्रयोग नहीं रह गया था — इससे एक तकनीक का जन्म हुआ था।”
क्या आप चाहेंगे कि मैं इसी क्रम में अगला भाग लिखूँ —
जहाँ “ऑपरेन्ट कंडीशनिंग” से आधुनिक algorithmic conditioning (AI behavior modification) तक की यात्रा को समझाया जाए —
कैसे स्किनर की प्रयोगशाला की विचारधारा आज के सर्विलांस कैपिटलिज़्म में रूपांतरित हो गई है?
स्किनर (B. F. Skinner) अपने प्रयोगशाला के निष्कर्षों को दुनिया की सामाजिक और मानवीय समस्याओं पर लागू करने के लिए अत्यधिक उत्सुक थे — भले ही इसके लिए उनके पास बहुत ठोस प्रमाण न हों। एक सार्वजनिक बुद्धिजीवी (public intellectual) के रूप में उन्होंने लगभग सत्तर वर्षों तक यह समझाने की कोशिश की कि उनका “रैडिकल बिहेवियरिज़्म” (Radical Behaviorism) सभ्यता को विनाश से बचाने के लिए आवश्यक सामाजिक संगठन के सिद्धांत प्रदान करता है।
उन्होंने प्रयोगशाला में चूहों और कबूतरों के व्यवहार से जो निष्कर्ष निकाले, उन्हें बहुत साहसपूर्वक मानव समाज और मानव विकास के सिद्धांतों तक विस्तार दिया। इन विचारों को उन्होंने अपनी प्रसिद्ध पुस्तकों — “Walden Two” (1948) और “Beyond Freedom and Dignity” (1971) — में प्रस्तुत किया।
पहली पुस्तक एक “आदर्श समाज” (utopian society) की कल्पना करती थी, जहाँ मनुष्य का व्यवहार वैज्ञानिक रूप से नियंत्रित और प्रशिक्षित किया जा सके; जबकि दूसरी पुस्तक में उन्होंने यह तर्क दिया कि मनुष्य की “स्वतंत्रता” और “गरिमा” जैसी धारणाएँ वैज्ञानिक प्रगति के रास्ते में बाधा हैं।
1974 में स्किनर ने “About Behaviorism” नाम की एक और पुस्तक प्रकाशित की, जिसमें उन्होंने अपने रैडिकल बिहेवियरिज़्म की व्याख्या आम जनता के लिए की। यह पुस्तक इस उद्देश्य से लिखी गई थी कि उनके विचारों के प्रति जो तीव्र विरोध बढ़ रहा था—खासकर “Beyond Freedom and Dignity” में प्रस्तुत असामान्य और कई लोगों को आपत्तिजनक लगे तर्कों के कारण—उसे शांत किया जा सके।
स्किनर का मानना था कि उनका विरोध लोगों की “असाधारण गलतफहमी” का परिणाम है। उनका विश्वास था कि यदि लोग वास्तव में उनके विचारों को ठीक से समझ लें, तो वे अवश्य उनसे सहमत होंगे।
संक्षेप में, स्किनर यह मानते थे कि मानव स्वतंत्रता या नैतिकता की बजाय व्यवहार को वैज्ञानिक रूप से नियंत्रित करना ही समाज के सुधार का रास्ता है — एक दृष्टिकोण जिसने बाद में “algorithmic control” और “behavioral engineering” जैसी आधुनिक तकनीकी विचारधाराओं की नींव रखी।
Here’s a clear and structured explanation in simple terms:
Radical Behaviorism and Operant Conditioning are closely related concepts developed by B. F. Skinner, but they are not exactly the same. Let’s break it down:
1. Radical Behaviorism
-
Definition: Radical Behaviorism is a psychological philosophy that says human behavior can be understood, predicted, and controlled entirely through observable behavior and environmental influences, without needing to reference thoughts, feelings, or consciousness.
-
Key Idea: It focuses on how external stimuli shape behavior rather than trying to analyze internal mental states.
-
Contrast with Traditional Psychology: Traditional psychology often focused on the mind, thoughts, or emotions. Radical Behaviorism argues that these are less relevant because only observable behavior can be measured scientifically.
Example:
If a student studies more when rewarded with praise or treats, radical behaviorism would study the effect of this reward on the student’s behavior, rather than the student’s feelings about studying.
2. Operant Conditioning
-
Definition: Operant Conditioning is the practical method within radical behaviorism for shaping and controlling behavior. It is a system of learning through consequences.
-
Mechanism:
-
Reinforcement (Reward): Behavior is strengthened when it is followed by a positive outcome.
-
Punishment: Behavior is weakened when it is followed by a negative outcome.
-
Schedules of Reinforcement: Behavior can be influenced more effectively through patterns of rewards or punishments (e.g., giving a reward sometimes, not always).
-
-
Purpose: To produce predictable, desired behavior in both animals and humans.
Example:
-
A rat presses a lever and gets food → presses more often (positive reinforcement).
-
A student completes homework to avoid scolding → completes more often (negative reinforcement).
3. How Radical Behaviorism and Operant Conditioning are Connected
-
Radical behaviorism provides the philosophy: study observable behavior and ignore internal mental states.
-
Operant conditioning provides the method: use reinforcement and punishment to shape behavior.
-
Together, they form a science of behavior: the philosophy tells you what to study, the method tells you how to influence behavior.
Modern Relevance:
-
These ideas underlie modern behavioral economics, digital nudging, and surveillance capitalism—for example, social media platforms design notifications and “likes” to condition users’ behavior, essentially applying operant conditioning at scale.
If you want, I can make a vivid Hindi-English analogy showing radical behaviorism and operant conditioning in everyday life, social media, and governance. This makes the concept extremely intuitive.
Do you want me to do that?
यहाँ इस अंश का हिंदी में अर्थ और व्याख्या है:
बी. एफ. स्किनर और रैडिकल बिहेवियरिज़्म का इतिहास
बी. एफ. स्किनर ने अपनी किताब About Behaviorism की शुरुआती पृष्ठों में, अपनी पिछली किताब Beyond Freedom & Dignity से पैदा हुई आलोचना को नजरअंदाज करते हुए, बिहेवियरिज़्म की जड़ों और उसके शुरुआती विचारकों और प्रैक्टिशनर्स पर ध्यान केंद्रित किया।
स्किनर का मानना था कि बिहेवियरिज़्म के प्रति लोगों की नकारात्मक प्रतिक्रिया का बहुत हिस्सा उस व्यक्ति पर आता है जिसे आम तौर पर इसका संस्थापक माना जाता है—जॉन बी. वॉटसन (John B. Watson)।
जॉन बी. वॉटसन का योगदान
वॉटसन ने 1913 में अपने प्रसिद्ध वक्तव्य में कहा था:
"जैसा बिहेवियरिज़्म इसे देखता है, मनोविज्ञान प्राकृतिक विज्ञान की एक पूरी तरह वस्तुनिष्ठ और प्रयोगात्मक शाखा है। इसका सैद्धांतिक लक्ष्य व्यवहार की भविष्यवाणी और नियंत्रण है। अंतर्दृष्टि (Introspection) इसके तरीकों का आवश्यक हिस्सा नहीं है।… बिहेवियरिस्ट यह मानता है कि मनुष्य और पशु के बीच कोई विभाजन रेखा नहीं है।"
इस वक्तव्य के माध्यम से वॉटसन ने स्पष्ट किया कि बिहेवियरिज़्म केवल देखे जाने योग्य व्यवहार को महत्व देता है, और भावनाओं, विचारों या चेतना की आंतरिक प्रक्रियाओं को वैज्ञानिक अध्ययन का हिस्सा नहीं मानता।
स्किनर की आलोचना
हालांकि वॉटसन ने बिहेवियरिज़्म को लोकप्रिय बनाया, स्किनर ने उनकी आलोचना की कि वॉटसन अक्सर शोमैन की तरह व्यवहार करते थे, यानी अधिक प्रचारित दावे करते थे और तथ्यों की कमी थी। इन अत्यधिक दावों ने रैडिकल बिहेवियरिज़्म के प्रति सार्वजनिक और अकादमिक संदेह को जन्म दिया।
स्किनर का उद्देश्य था कि इस तरह की आलोचनाओं के बावजूद, बिहेवियरिज़्म को उसकी वैज्ञानिक नींव और प्रयोगात्मक प्रथाओं के रूप में समझा जाए, न कि केवल विवादास्पद दावों के आधार पर।
संक्षेप में:
-
वॉटसन ने बिहेवियरिज़्म की नींव रखी, लेकिन अतिशयोक्ति और तथ्यों की कमी से आलोचना झेली।
-
स्किनर ने इसे सुधारने का प्रयास किया और दिखाया कि रैडिकल बिहेवियरिज़्म का मूल उद्देश्य व्यवहार की वैज्ञानिक भविष्यवाणी और नियंत्रण है।
-
यह रैडिकल बिहेवियरिज़्म बाद में इंस्ट्रुमेंटेरियन शक्ति और डिजिटल युग में व्यवहारिक नियंत्रण के आधुनिक रूपों की नींव बना।
यदि आप चाहें, मैं अगले हिस्से में Skinner के प्रयोगों और उनके व्यवहार नियंत्रण के आधुनिक डिजिटल उदाहरणों (जैसे सोशल मीडिया एल्गोरिद्म) का हिंदी में विस्तृत विश्लेषण भी कर सकता हूँ।
क्या मैं यह करूँ?
यहाँ आपके द्वारा दिए गए अंश का हिंदी में विस्तृत अनुवाद और व्याख्या है:
स्किनर और मैक्स मेयर का योगदान
बी. एफ. स्किनर ने पहले जॉन बी. वॉटसन को रैडिकल बिहेवियरिज़्म में उत्पन्न समस्याओं का मुख्य स्रोत बताया। इसके बाद उन्होंने मैक्स मेयर (Max Meyer) के काम को समाधान की कुंजी के रूप में सराहा।
मैक्स मेयर एक कम प्रसिद्ध जर्मन-प्रशिक्षित प्रयोगात्मक मनोवैज्ञानिक थे, जिन्होंने अपने अधिकांश करियर में मिसूरी विश्वविद्यालय (University of Missouri) में काम किया। मेयर ने अपने डॉक्टरेट अध्ययन बर्लिन विश्वविद्यालय (University of Berlin) में किए, जहाँ उनके शोध मार्गदर्शक मैक्स प्लांक (Max Planck) थे। प्लांक बाद में इतिहास के सबसे प्रतिष्ठित भौतिकविदों में से एक बने।
मैक्स प्लांक का दर्शन और प्रभाव
मैक्स प्लांक का मानना था कि भौतिक जगत एकीकृत है और इसके नियमों को केवल गणितीय विश्लेषण (Mathematical Analysis) के माध्यम से खोजा जा सकता है। इसमें मानव व्यवहार के नियम भी शामिल थे। उन्होंने लिखा:
"बाहरी दुनिया मनुष्य से स्वतंत्र है, कुछ परिपूर्ण और शाश्वत है। इसके नियमों की खोज जीवन का सबसे महान वैज्ञानिक प्रयास प्रतीत होता है।"
मेयर ने प्लांक की शिक्षाओं को अपने अध्ययन में लागू किया और मानव व्यवहार के अध्ययन को सच्चे वैज्ञानिक स्तर तक ले जाने का प्रयास किया।
मैक्स मेयर और आधुनिक बिहेवियरिज़्म
स्किनर के अनुसार, मेयर ने वह सफलता प्राप्त की जिसने मनोविज्ञान को भौतिकी, रसायन विज्ञान और जीवविज्ञान जैसी वैज्ञानिक शाखाओं के बराबर स्थान दिलाया।
स्किनर ने विशेष रूप से मेयर की 1921 में प्रकाशित किताब Psychology of the Other-One की सराहना की। हालांकि इस किताब को तब बहुत कम ध्यान मिला—क्योंकि मेयर ने इसे मुख्य रूप से अपने छात्रों के लिए लिखा था—लेकिन स्किनर ने इसे आधुनिक बिहेवियरिज़्म के अनुभवजन्य (Epistemological) और पद्धतिगत (Methodological) आधार स्थापित करने वाली महत्वपूर्ण कृति बताया।
इस किताब का मुख्य विचार यह था:
"केवल उन तथ्यों पर विचार करें जिन्हें किसी व्यक्ति के व्यवहार में वस्तुनिष्ठ रूप से देखा जा सकता है और जो उसके पूर्व पर्यावरणीय इतिहास से संबंधित हैं।"
स्किनर की व्याख्या
स्किनर के अनुसार, मेयर की किताब मन और भौतिक विज्ञान को जोड़ने का साहसिक प्रयास थी। इसने व्यवहारवादी दृष्टिकोण का सार स्पष्ट किया:
"Other-One की त्वचा के भीतर की दुनिया अब प्राथमिक महत्व नहीं रखती।"
यानि, मनुष्य की आंतरिक चेतना, विचार या भावनाएँ व्यवहार के वैज्ञानिक अध्ययन में प्राथमिक नहीं हैं। केवल मापनीय व्यवहार ही अध्ययन का केंद्र है।
संक्षेप में:
-
मेयर ने मानव व्यवहार को वैज्ञानिक अध्ययन की श्रेणी में लाने के लिए महत्वपूर्ण आधार स्थापित किया।
-
स्किनर ने इसे आधुनिक रैडिकल बिहेवियरिज़्म का नींव का काम माना।
-
इस दृष्टिकोण ने व्यवहार के वस्तुनिष्ठ और मापनीय पक्ष पर जोर दिया, जो बाद में इंस्ट्रुमेंटेरियन शक्ति और डिजिटल व्यवहार नियंत्रण की आधुनिक अवधारणाओं की नींव बना।
यदि आप चाहें, तो मैं अगले हिस्से में स्किनर के प्रयोगों और उनकी व्यवहारिक तकनीकों का आधुनिक डिजिटल युग (सोशल मीडिया, एल्गोरिद्म, निगरानी पूंजीवाद) के संदर्भ में विस्तृत हिंदी विश्लेषण तैयार कर सकता हूँ।
क्या मैं यह करूँ?
यहाँ आपके दिए गए अंश का हिंदी अनुवाद है:
इस नए दृष्टिकोण (New Viewpoint) के तर्कसंगत परिणामों ने मानव के उच्चतर अनुभवों, जिन्हें हम “स्वतंत्रता” (Freedom) और “इच्छाशक्ति” (Will) कहते हैं, की पुनर्व्याख्या (Reinterpretation) की आवश्यकता को जन्म दिया।
मेयर ने प्लांक की तर्ज पर कहा कि:
“प्राणी जगत में क्रियाओं की स्वतंत्रता का अर्थ वही है जो भौतिकी की दुनिया में 'अकस्मात घटनाओं' (Accidents) से समझा जाता है।”
ऐसी अकस्मात घटनाएँ केवल वे घटनाएँ हैं जिनके बारे में पर्याप्त जानकारी और समझ उपलब्ध नहीं है। और स्वतंत्रता के साथ भी यही स्थिति है।
लिबरल विचारधारा में स्वतंत्रता का सिद्धांत वैज्ञानिक ज्ञान, विशेषकर मनोवैज्ञानिक विज्ञान (Psychological Science) के विकास के विपरीत अनुपात में बना रहता है। यानी ज्ञान और स्वतंत्रता अनिवार्य रूप से विरोधी हैं।
मेयर ने लिखा:
“Other-One का व्यवहार तभी स्वतंत्र और अकस्मात होता है, जिस अर्थ में किसी रोग का परिणाम, युद्ध का नतीजा, मौसम या फसल का परिणाम स्वतंत्र और अकस्मात होता है; अर्थात्, सामान्य मानव अज्ञानता के संदर्भ में कि किसी विशेष घटना के पीछे कौन से विशिष्ट कारण हैं।”
इसका अर्थ यह है कि मानव स्वतंत्रता केवल हमारी अपर्याप्त जानकारी और समझ के कारण दिखाई देती है, और वास्तविकता में यह वैज्ञानिक विश्लेषण के लिए मापनीय और नियंत्रित व्यवहार का हिस्सा है।
यदि चाहें, मैं अगले हिस्से में इसे स्किनर और रैडिकल बिहेवियरिज़्म के संदर्भ में सरल उदाहरणों सहित विस्तार से समझा सकता हूँ।
क्या मैं ऐसा करूँ?
यहाँ आपके दिए गए अंश का हिंदी अनुवाद है:
स्किनर की पुस्तक Beyond Freedom & Dignity में, वे तर्क देते हैं कि ज्ञान हमें स्वतंत्र नहीं बनाता, बल्कि यह केवल हमें स्वतंत्रता के भ्रम से मुक्त करता है। वास्तविकता में, वे लिखते हैं कि स्वतंत्रता और अज्ञानता समानार्थी (Synonyms) हैं।
ज्ञान का अधिग्रहण निःसंदेह वीरतापूर्ण (Heroic) है, क्योंकि यह हमें अज्ञानता से बचाता है। लेकिन यह दुःखद (Tragic) भी है, क्योंकि यह अनिवार्य रूप से यह दिखाता है कि वास्तविक स्वतंत्रता असंभव है।
यदि आप चाहें, मैं इसे आसान उदाहरण और आधुनिक डिजिटल युग के संदर्भ में भी समझा सकता हूँ, ताकि Skinner के इस विचार को व्यवहारिक और समकालीन दृष्टिकोण से जोड़कर समझा जा सके।
क्या मैं ऐसा करूँ?
यहाँ आपके दिए गए अंश का हिंदी अनुवाद प्रस्तुत है:
मेयर और स्किनर के लिए, स्वतंत्रता (Freedom), इच्छा (Will), स्वायत्तता (Autonomy), उद्देश्य (Purpose) और कार्यक्षमता (Agency) जैसी अवधारणाओं से हमारा लगाव केवल रक्षा तंत्र (Defense Mechanisms) है, जो हमें मानव अज्ञानता के असुविधाजनक तथ्यों से बचाता है। मैं इसे डिकेंस के स्क्रूज (Scrooge) की उस घटना से जोड़कर सोचता हूँ, जब वह अपने मृत साथी जैकब मार्ले (Jacob Marley) की प्रेतात्मा से मिलता है और उसे अस्वीकार करते हुए कहता है:
"You may be an undigested bit of beef, a blot of mustard, a crumb of cheese, a fragment of an underdone potato."
ठीक इसी तरह, स्वतंत्रता भी एक प्रकार का अघुलित डर (Undigested fear) और अस्वीकार का टुकड़ा (Crumb of denial) है, जो पच जाने पर हमें वास्तविकता से सामना कराता है। पर्यावरण (Environment) ही हमारे व्यवहार (Behavior) को निर्धारित करता है, और हमें यह ठीक से पता नहीं होता कि यह कैसे करता है—इसी खालीपन (Void) को हम स्वतंत्रता की कल्पना (Fantasy of Freedom) से भर लेते हैं।
मेयर ने यह जोर देकर कहा कि मानव आंतरिकता (Human Inwardness) — जैसे “आत्मा (Soul)”, “स्वयं (Self)”, “मन (Mind)”, “चेतना (Consciousness)” — केवल व्यक्ति के व्यक्तिगत अनुभव (Subjective Life) तक ही सीमित हैं। इसका कोई वैज्ञानिक मूल्य (Scientific Value) नहीं हो सकता क्योंकि इसे देखा या मापा नहीं जा सकता। उन्होंने लिखा:
"हम आत्मा को अस्वीकार नहीं करते, लेकिन हम अपना समय उसे समर्पित नहीं करते। शरीर का अध्ययन करने के लिए हमारे पास पर्याप्त काम है।"
आत्मा व्यक्ति का निजी अनुभव (Intimate Experience) है, जिसे विज्ञान नहीं छू सकता:
"मानव समाजों को प्राकृतिक नियमों से समझा जा सकता है, समूहों के आत्माओं के रूप में नहीं, बल्कि जीवों के समूह के रूप में।"
मेयर का तर्क था कि सामाजिक विज्ञान और सभ्यता का भविष्य आत्मा से अन्य (Soul to Other), आंतरिक से बाह्य (Inside to Outside), व्यक्तिगत अनुभव से पर्यवेक्षित व्यवहार (Lived Experience to Observable Behavior) की ओर शिफ्ट करने में निहित है। मानवता का ‘Otherization’ नया राजनीतिक मुक्तिद्वार (Political Liberation) बनेगा।
इतिहास में दमन, यातना, नरसंहार, दासता और जनसंहार हमेशा मानव आत्मा पर नियंत्रण के नाम पर किए गए। मेयर के दृष्टिकोण में 1921 के मिसूरी में, युद्ध के बाद, उनके लिए आधुनिक, तर्कसंगत और प्रभावी समाज का निर्माण जीवन-मृत्यु का मामला जैसा महसूस हुआ:
"जो व्यक्ति अपनी रुचि आत्माओं में केन्द्रित करता है, वह सोचता है कि दूसरों को अपने प्रार्थना कहने, अपनी आस्था घोषित करने, अपनी वेदी के सामने घुटने टेकने के लिए मजबूर कर, उसने उनकी आत्मा को बचाया। लेकिन वह यह स्वीकार नहीं करता कि उसने केवल उनके शरीरों को मजबूर किया। राजनीतिक आतंकवाद भी मुख्य रूप से इस मानवीय प्रवृत्ति से उत्पन्न होता है कि अन्य प्राणियों को केवल शरीर के रूप में नहीं, बल्कि आत्मा के रूप में देखा जाए। जब जज मानसिक पठनकर्ता के रूप में कार्य करता है, तो आरोपी को मुख्य रूप से एक आत्मा माना जाता है, तब ये भयावह अत्याचार होते हैं।"
मेयर का मानना था कि जब दृष्टिकोण बदले—“मानव को आत्मा के रूप में” से “मानव को जीव के रूप में”—तो यह स्पष्ट करता है कि इतिहास की प्रवृत्ति लोकतंत्र की ओर है। जैसे-जैसे विज्ञान सभ्यता को पीछे छोड़ता है, समानता और लोकतांत्रिक सहयोग की नई वैश्विक मान्यता उत्पन्न होती है, जो हमारे जीव के रूप में समानता के मूल तथ्य पर आधारित होती है। वर्ग, धन, जाति आदि के आधार पर समाज, राजनीति और अर्थव्यवस्था में होने वाले विभाजन हास्यास्पद (Ridiculous) हो जाएंगे:
"वास्तविक वैश्विक मानव जीवन में, व्यक्तियों के बीच के अंतर पूरी तरह से उनकी समानताओं से दब जाते हैं। जो व्यक्ति वैज्ञानिक दृष्टिकोण स्वीकार करता है कि मानव समाज जीवों का समूह है, उसके लिए वर्गों में विभाजन करना व्यर्थ है।"
मेयर का विश्वास था कि हर सामाजिक विज्ञान जो वास्तविक वैज्ञानिक स्थिति (True Scientific Status) हासिल करना चाहता है, वह Other-One के दृष्टिकोण को अपनाएगा—मानसिक विज्ञान (Psychology), समाजशास्त्र (Sociology), अर्थशास्त्र (Economics), अपराधशास्त्र (Criminology), इतिहास (History), और धर्म का मनोविज्ञान (Psychology of Religion)।
"मसीह अपने साथी मनुष्यों में जाता है, जीवों के बीच एक जीव।"
Otherizing मानवता को तर्कसंगत भविष्य की ओर ले जाएगा, जिसमें ज्ञान की कीमत पर स्वतंत्रता की त्याग्यता शामिल होगी।
यदि आप चाहें, मैं इसे अगले भाग में आधुनिक डिजिटल युग और इंस्ट्रुमेंटेरियन शक्ति के संदर्भ में जोड़कर इसे और व्यावहारिक और समकालीन बना सकता हूँ।
11.11.2025
VI. मानव व्यवहार की एक तकनीक (A Technology of Human Behavior)
लगभग छह दशकों तक अपने अकादमिक और लोकप्रिय लेखन के माध्यम से, बी. एफ. स्किनर (B.F. Skinner) इस बात पर ज़ोर देते रहे कि “और गहन अनुसंधान” (Further Investigation) हमेशा संभव है।
अपनी पुस्तक Beyond Freedom & Dignity के शुरुआती पृष्ठों में उन्होंने अज्ञानता के लिए एक प्रौद्योगिकीय समाधान (Technological Solution) की आवश्यकता बताई। उन्होंने लिखा:
“हमें मानव व्यवहार में व्यापक परिवर्तन करने की आवश्यकता है, और हम यह केवल भौतिकी या जीवविज्ञान की सहायता से नहीं कर सकते, चाहे हम कितनी भी मेहनत क्यों न कर लें... हमें एक ऐसी ‘Behavior की Technology’ चाहिए जो शक्ति और सटीकता में भौतिक और जैविक तकनीक के समान हो...”
स्किनर का दृष्टिकोण: ‘The Other-One’ की तकनीकी दुनिया
स्किनर ने ऐसी तकनीकों की कल्पना की थी जो “Other-One के दृष्टिकोण” (यानी बाहरी पर्यवेक्षक के नज़रिए) को संस्थागत रूप से लागू करें — जो मानव व्यवहार को देखें, मापें, गणना करें, विश्लेषित करें, और स्वचालित रूप से उसे सुदृढ़ (Reinforce) करें, ताकि मानव व्यवहार में वे “विस्तृत परिवर्तन” लाए जा सकें जिन्हें वे आवश्यक मानते थे।
उनका विश्वास था कि यदि ऐसा किया जाए तो अंततः मानव क्रिया के नियम उतने ही स्पष्ट हो सकेंगे जितने भौतिकी और जीवविज्ञान में हैं। जैसे भौतिक और जैविक तकनीकों ने दुनिया को बदल दिया, वैसे ही व्यवहार की तकनीक भी समाज को बदल सकती है।
उन्होंने लिखा:
“फर्क केवल इतना है कि भौतिक और जैविक विज्ञानों में जो उपकरण और विधियाँ उपयोग की जाती हैं, वे अत्यधिक जटिल हैं। यह तथ्य कि मानव व्यवहार के क्षेत्र में उतने शक्तिशाली उपकरण और विधियाँ उपलब्ध नहीं हैं, यह कोई स्पष्टीकरण नहीं है; यह केवल पहेली का एक हिस्सा है।”
स्वतंत्रता और गरिमा की अवधारणाएँ — प्रगति की बाधा
स्किनर ने निष्कर्ष निकाला कि “स्वतंत्रता और गरिमा का साहित्य” (The Literature of Freedom and Dignity) आगे के मानव विकास के मार्ग में बाधा बनकर खड़ा है।
उनके अनुसार, मानव व्यवहार की तकनीक विकसित करने के लिए आवश्यक “उपकरणों और विधियों” (Instruments and Methods) की प्रगति को रोकने वाला सबसे बड़ा अवरोध वह जिद्दी निष्ठा (Stubborn Allegiance) है जो लोग इन प्राचीन धारणाओं — “स्वतंत्र इच्छा” और “व्यक्तिगत गरिमा” — के प्रति रखते हैं।
स्किनर के शब्दों में, “स्वायत्त मनुष्य” (Autonomous Man) पर विश्वास समाज की तार्किक प्रगति में एक पिछड़ेपन का स्रोत (Regressive Source) है। यह मानव व्यवहार के लिए एक ‘वैकल्पिक व्याख्या’ (Alternative Explanation) प्रस्तुत करता है जो वैज्ञानिक उन्नति और सामाजिक विकास के मार्ग में बाधा डालती है।
संक्षेप में:
स्किनर यह मानते थे कि जैसे इंजीनियरिंग ने प्रकृति को नियंत्रित किया, वैसे ही भविष्य की “Behavioral Engineering” मानव समाज को नियंत्रित करेगी।
उनके लिए “स्वतंत्रता” और “गरिमा” केवल रोमांटिक शब्द थे — ऐसे भ्रम, जो मनुष्य को वैज्ञानिक और तर्कसंगत विकास से दूर रखते हैं।
उनकी दृष्टि में सच्ची प्रगति का अर्थ था — मानव व्यवहार को विज्ञान की प्रयोगशाला में बदल देना, जहाँ हर भावना, हर प्रतिक्रिया, हर निर्णय को मापा, समझा और बदला जा सके।
यह रहा आपके दिए गए अंश का सटीक और स्वाभाविक हिंदी अनुवाद, अर्थ और भाव दोनों को बनाए रखते हुए:
प्रोफेसर स्किनर की दृष्टि: व्यवहार को नियंत्रित करने वाली नई तकनीकों का युग
स्किनर का विश्वास था कि मानवता को बेहद ज़रूरत है एक सुव्यवस्थित योजना (a plan) की — और इस दिशा में उन्होंने ऐसी शक्तिशाली नई तकनीकों की कल्पना की थी जो मानव व्यवहार को जीवन के हर क्षेत्र में इंजीनियर (engineer) कर सकें।
1953 में ही उन्होंने उन परिस्थितियों की भविष्यवाणी कर दी थी जो आज के डिजिटल रूप से नियंत्रित कसीनो वातावरणों (digitally engineered casino environments) में दिखाई देती हैं — जहाँ खिलाड़ियों के व्यवहार को अत्यधिक सटीकता से आकार देने वाली तकनीकें अब राज्य सुरक्षा एजेंसियों और सर्विलांस पूँजीपतियों (Surveillance Capitalists) दोनों के लिए प्रयोगशाला बन चुकी हैं।
उन्होंने लिखा था:
“उचित उपकरणों के साथ इन सभी क्षेत्रों में स्थापित प्रथाओं में सुधार करना संभव होना चाहिए। उदाहरण के लिए, जुआ खेलने के उपकरणों में ‘सुधार’ किया जा सकता है — मालिक के दृष्टिकोण से — ऐसे उपकरणों को शामिल करके जो ‘चर-अंतराल (variable-interval)’ आधार पर भुगतान करें, लेकिन केवल तब जब खेल की गति असाधारण रूप से अधिक हो।”
व्यवहार की इंजीनियरिंग केवल उपकरणों तक सीमित नहीं होगी
स्किनर ने यह भी स्पष्ट किया कि व्यवहार को नियंत्रित करने वाली तकनीकें केवल “मशीनों” या “उपकरणों” तक सीमित नहीं रहेंगी, बल्कि वे संगठनों, नीतियों और संस्थागत प्रक्रियाओं तक फैल जाएँगी — जिन्हें विशेष उद्देश्यों के अनुरूप मानव व्यवहार को ढालने के लिए डिज़ाइन किया जाएगा।
1953 में ही उन्होंने ऐसी प्रवृत्तियों का अनुमान लगाया था जिन्हें बाद में माइकल जेंसन (Michael Jensen) जैसे अर्थशास्त्रियों ने “शेयरहोल्डर वैल्यू” अधिकतम करने वाले प्रोत्साहन तंत्र (Incentive Systems) के रूप में विकसित किया, और जिनसे बाद में व्यवहारिक अर्थशास्त्र (Behavioral Economics) में “Nudge Architecture” जैसे विचार उभरे।
स्किनर ने लिखा था:
“उद्योग, बिक्री और पेशों में वेतन की अनुसूचियाँ (schedules of pay), बोनस, प्रोत्साहन वेतन आदि को भी इस दृष्टिकोण से ‘सुधारा’ जा सकता है कि वे अधिकतम उत्पादकता उत्पन्न करें।”
गोपनीयता: सबसे बड़ी चुनौती और तकनीकी समाधान
स्किनर समझते थे कि व्यवहार की इंजीनियरिंग से व्यक्तिगत संवेदनशीलता और सामाजिक मानदंडों का उल्लंघन हो सकता है, विशेष रूप से गोपनीयता (Privacy) के संदर्भ में।
इस चिंता को शांत करने के लिए उन्होंने सलाह दी कि अवलोकन (Observation) को जितना संभव हो अप्रकट (Unobtrusive) बनाया जाना चाहिए, ताकि विषय (Organism) को उसकी जानकारी भी न हो।
उन्होंने लिखा:
“व्यवहार का अवलोकन इस प्रकार भी किया जा सकता है कि विषय और वैज्ञानिक के बीच परस्पर संपर्क न्यूनतम हो, और स्वाभाविक रूप से यही तरीका अपनाने की कोशिश करनी चाहिए।”
परंतु स्किनर जानते थे कि यह सरल नहीं होगा।
नई “Behavioral Technologies” को सार्वजनिक और निजी जीवन के बीच की सीमाओं (Public-Private Divide) को लगातार आगे धकेलना होगा ताकि व्यवहार की सटीक भविष्यवाणी और नियंत्रण के लिए आवश्यक सभी डेटा तक पहुँच संभव हो सके।
उन्होंने यह भी भविष्यवाणी की थी कि जैसे-जैसे नए डेटा-संग्रह उपकरण विकसित होंगे, वे व्यक्तित्व और भावनाओं की गहराइयों तक पहुँचेंगे।
उनके शब्दों में:
“हम अब भी उन घटनाओं से जूझ रहे हैं जो व्यक्ति के भीतर घटित होती हैं और जो उसके लिए अत्यंत महत्वपूर्ण हैं, लेकिन जिन्हें अभी तक मापा नहीं जा सकता। यह जानना कि कोई जीव इन घटनाओं पर कैसे प्रतिक्रिया करता है, एक महत्वपूर्ण प्रश्न बना रहेगा — भले ही एक दिन वे घटनाएँ सबके लिए सुलभ हो जाएँ।”
गोपनीयता का धीरे-धीरे क्षय — और तकनीकी समाधान की दिशा
स्किनर का विश्वास था कि समय के साथ गोपनीयता के मानदंड (Privacy Norms) धीरे-धीरे ज्ञान के प्रसार (Advance of Knowledge) के सामने झुक जाएँगे।
उन्होंने लिखा:
“सार्वजनिक और निजी के बीच की रेखा स्थिर नहीं है।”
उनकी धारणा आज के सर्विलांस कैपिटलिज़्म (Surveillance Capitalism) के सिद्धांत से मेल खाती है —
जहाँ तकनीकी नवाचार की “धीमी बूँद-बूँद” अंततः गोपनीयता को मानव अनुभव के किनारे तक धकेल देती है।
और अंत में, यह भी “स्वतंत्रता” (Freedom) की तरह एक भ्रम (Illusion) बन जाएगी।
स्किनर के अनुसार, सभी ऐसे भ्रम अंततः “Other-One” के दृष्टिकोण से निर्मित नए उपकरणों और पद्धतियों से प्रतिस्थापित हो जाएँगे।
उन्होंने लिखा:
“हर नई तकनीक जो निजी घटनाओं को सार्वजनिक बनाती है, सार्वजनिक और निजी के बीच की सीमा को बदल देती है। इसलिए गोपनीयता की समस्या का समाधान अंततः तकनीकी प्रगति के माध्यम से किया जा सकता है।”
निष्कर्ष: बिग ब्रदर नहीं, बल्कि नया तंत्र
हालांकि गोपनीयता समर्थक और सर्विलांस पूँजीवाद के आलोचक अक्सर इस नए खतरे को जॉर्ज ऑरवेल के Big Brother के रूपक में समझाने की कोशिश करते हैं,
लेकिन वास्तव में इंस्ट्रुमेंटेरियन शक्ति (Instrumentarian Power) उसका सटीक प्रतिलोम (Antithesis) है।
ऑरवेल का Big Brother भय और दमन से शासन करता था;
जबकि इंस्ट्रुमेंटेरियन शक्ति डेटा, एल्गोरिद्म और व्यवहारिक नियंत्रण से शासन करती है —
यह न तो डराती है, न मारती है, बल्कि शांतिपूर्वक मानव स्वतंत्रता की परिभाषा को बदल देती है।
English Translation of the Given Passage
VI. A Technology of Human Behavior
For nearly six decades, through both his academic and popular writings, B. F. Skinner consistently argued that “further investigation” of human behavior was always possible.
In the opening pages of his book Beyond Freedom & Dignity, he called for a technological solution to human ignorance, writing:
“We need to make vast changes in human behavior, and we cannot make them with the help of nothing more than physics or biology, no matter how hard we try... What we need is a ‘technology of behavior’—comparable in power and precision to physical and biological technology.”
Skinner’s Vision: The Technological World of the ‘Other-One’
Skinner imagined technologies that would institutionalize the viewpoint of the “Other-One”—an external observer who could watch, measure, calculate, analyze, and automatically reinforce behavior in order to produce the “vast changes” he believed were necessary for human progress.
He believed that if such technologies were developed, the laws of human action would become as clear and predictable as the laws of physics and biology. Just as technological revolutions in those sciences transformed the material world, a technology of behavior could transform society itself.
He wrote:
“The difference is only that the instruments and methods used in physics and biology are far more complex. The fact that equally powerful instruments and methods are not yet available in the field of human behavior is not an explanation—it is merely part of the puzzle.”
Freedom and Dignity as Obstacles to Progress
Skinner concluded that “the literature of freedom and dignity” stood as a barrier to further human achievement.
According to him, the biggest obstacle preventing the development of the necessary “instruments and methods” for a behavioral technology was humanity’s stubborn loyalty to outdated notions like “free will” and “individual dignity.”
In his words, the belief in an “autonomous man” is a regressive source of resistance to a rational, scientifically managed future. It presents an “alternative explanation of behavior” that blocks the advancement of society.
In Summary
Skinner believed that just as engineering had mastered nature, “behavioral engineering” would someday master human society.
For him, freedom and dignity were not virtues but illusions—romantic myths that distracted humanity from scientific progress.
True progress, he believed, meant transforming human behavior into an object of scientific study—where every emotion, every reaction, and every decision could be measured, understood, and modified.
The Professor’s Vision: The Age of Behavioral Control
Skinner believed humanity desperately needed a plan—and in that spirit, he envisioned powerful new instruments capable of engineering human behavior in every field of life.
As early as 1953, he anticipated what we now see in today’s digitally engineered casino environments—spaces designed to shape human behavior with precision, and now used as testing grounds by both state security agencies and surveillance capitalists.
He wrote:
“With proper instrumentation, it should be possible to improve upon established practices in all these fields. Thus gambling devices could be ‘improved’—from the proprietor’s point of view—by introducing systems that pay off on a variable-interval basis, but only when the rate of play is exceptionally high.”
Behavioral Engineering Beyond Machines
Behavioral engineering, Skinner said, would not be limited to mechanical devices. It would also encompass organizational systems and institutional procedures designed to shape human behavior toward desired ends.
In 1953, he anticipated what later emerged as Michael Jensen’s incentive systems (designed to maximize shareholder value) and behavioral economics’ choice architectures (designed to “nudge” behavior in preferred directions).
He wrote:
“Schedules of pay in industry, salesmanship, and the professions, and the use of bonuses, incentive wages, and so on, could also be improved from the point of view of generating maximal productivity.”
Privacy: The Biggest Challenge—and Its Technological Solution
Skinner acknowledged that behavioral engineering would inevitably violate individual sensibilities and social norms—particularly privacy.
To reduce such anxieties, he advised that observation should be unobtrusive, ideally occurring without the subject’s awareness:
“Behavior may also be observed with a minimum of interaction between subject and scientist, and this is the case with which one naturally tries to begin.”
However, he recognized that this would not be easy. New behavioral technologies would have to continually push the boundaries of the public–private divide in order to access all data necessary for accurate behavioral prediction and control.
He predicted that as new detection systems evolved, they would reach deeper into human personalities and emotions:
“We are still faced with events which occur at the private level and are important to the organism, yet remain inaccessible without instrumental amplification. How the organism reacts to these events will remain an important question—though someday, these events may become accessible to everyone.”
The Gradual Decline of Privacy
Skinner believed that privacy norms would gradually retreat in the face of expanding scientific knowledge.
“The line between public and private is not fixed,” he said.
Like today’s surveillance capitalists, Skinner was confident that the steady march of technological innovation would push privacy to the margins of human experience—where it would join “freedom” and other troublesome illusions.
He wrote:
“Every new technology that makes private events public shifts the boundary between public and private... The problem of privacy may, therefore, eventually be solved by technical advances.”
Conclusion: Not Orwell’s Big Brother, but a New System of Control
While privacy advocates and critics of surveillance capitalism often invoke George Orwell’s Big Brother as a metaphor for modern control, Skinner’s vision represents something different.
Instrumentarian power, the modern descendant of Skinner’s behavioral philosophy, is not about fear or physical domination—it is about data, algorithms, and behavioral manipulation.
It does not threaten us with violence; it quietly reshapes the definition of freedom itself.
✳️ Deep Essay: Skinner’s Vision — The Promise and Peril of a Behavioral Technology
1. The Central Idea — Engineering Human Behavior
B.F. Skinner’s idea of a “technology of behavior” sought to bring the rigor of science to the unpredictable realm of human action. He believed human behavior could be studied, predicted, and modified using measurable methods—just as physics explains motion or biology explains life.
In essence, he dreamt of a world where social problems—crime, poverty, pollution, inequality—could be solved not by moral preaching or law, but by behavioral design.
2. The Promise — Scientific Rationality and Social Progress
From one perspective, Skinner’s ideas represent an enlightenment dream of reason:
-
If human behavior could be scientifically understood, education could be made more effective.
-
If incentives and social systems were properly designed, productivity and cooperation could flourish.
-
If destructive behavior—violence, addiction, prejudice—could be conditioned out, society could become more peaceful.
In democracies, behavioral insights are already used for good: for example, “nudge policies” that encourage citizens to save energy, pay taxes, or get vaccinated.
Thus, Skinner’s theory carries a utilitarian promise—to optimize human behavior for collective well-being.
3. The Danger — The Death of Freedom and Dignity
However, the same logic that makes behavior predictable also makes it controllable.
If behavior can be engineered, who decides how it should be engineered? Governments? Corporations? Algorithms?
By dismissing freedom and dignity as illusions, Skinner’s philosophy opens the door to instrumentarian power—a regime where people are not coerced but subtly conditioned.
In this world, humans become subjects of algorithmic nudges—believing they are free while their actions are quietly shaped by unseen forces.
This is the psychological foundation of surveillance capitalism, where digital platforms predict and influence behavior for profit and political control.
4. Political Implications — From Totalitarianism to Digital Control
In totalitarian systems, power controlled people through fear and violence.
In Skinner’s vision—adapted to today’s AI and data regimes—control works through pleasure and persuasion.
Instead of Orwell’s “Big Brother,” we now have an invisible “Big Algorithm”—tracking our clicks, moods, and habits, and predicting what we will do next.
China’s social credit system or Cambridge Analytica’s election manipulation are modern realizations of Skinner’s “behavioral engineering.”
Thus, the totalitarian dream of shaping citizens has not died—it has simply become digitally efficient.
5. A Democratic Reconciliation — Humanizing Technology
To redeem Skinner’s insights, democracies must reclaim behavioral science for ethical ends.
Behavioral tools can indeed serve freedom—if governed by transparency, consent, and fairness.
For instance:
-
Data privacy laws like the EU’s GDPR and India’s Digital Personal Data Protection Act (2023) attempt to re-establish boundaries between humans and algorithms.
-
Ethical AI frameworks stress human agency and explainability in automated decisions.
-
Educational and civic programs can teach citizens how to recognize and resist behavioral manipulation.
6. Conclusion — The Choice Between Mastery and Meaning
Skinner’s vision forces us to ask a timeless question: Should humanity master itself through science—or preserve its mystery through freedom?
Perhaps the balance lies in acknowledging both:
Science can guide behavior, but values must govern science.
Technology can predict actions, but democracy must protect conscience.
In the end, the true danger is not that algorithms will know us too well, but that we will forget why freedom and dignity mattered in the first place.
Would you like me to extend this essay further — adding a final analytical comparison between Skinner’s “behavioral utopia” and Zuboff’s “instrumentarian dystopia” to show how one evolved into the other in the 21st century?
Comments
Post a Comment