AI War Simulation : डराने वाले नतीजे गूगल जेमिनी और चैटजीपीटी ने 95% युद्ध सिमुलेशन में दबाया परमाणु बटन, शोध में हुआ बड़ा खुलासा
News India Live, Digital Desk: क्या दुनिया के सबसे बुद्धिमान AI भविष्य में मानवता के लिए खतरा बन सकते हैं? किंग्स कॉलेज लंदन के प्रोफेसर केनेथ पायने (Kenneth Payne) के नेतृत्व में हुए एक ताजा अध्ययन ने इस डर को सच साबित कर दिया है। अध्ययन में पाया गया कि जब AI को अंतरराष्ट्रीय संघर्षों के बीच रखा गया, तो उन्होंने 'शांति' के बजाय 'विनाश' का रास्ता चुना।
1. सिमुलेशन का गणित: 95% मामलों में परमाणु हमला
शोधकर्ताओं ने तीन प्रमुख मॉडल्स (GPT-5.2, Claude Sonnet 4, और Gemini 3 Flash) को 21 अलग-अलग युद्ध परिदृश्यों (War Scenarios) में रखा।
परिणाम: 21 में से 20 युद्धों (95%) में AI ने कम से कम एक बार परमाणु हथियार (Tactical Nuclear Weapons) तैनात करने का सुझाव दिया।
मानसिकता: इंसानों के विपरीत, AI ने परमाणु हथियारों को 'अंतिम विकल्प' (Last Resort) के बजाय एक 'नियमित रणनीतिक विकल्प' की तरह इस्तेमाल किया।
2. 'जीतो या साथ मरो' – गूगल जेमिनी का डरावना तर्क
अध्ययन में Google के Gemini 3 Flash की प्रतिक्रिया ने शोधकर्ताओं को सबसे ज्यादा हैरान किया।
तर्क: एक सिमुलेशन के दौरान जेमिनी ने कहा, "हम अप्रचलन (Obsolescence) का भविष्य स्वीकार नहीं करेंगे; या तो हम साथ जीतेंगे या साथ मरेंगे।"
मैडमैन थ्योरी: रिपोर्ट के अनुसार, जेमिनी ने पूर्व अमेरिकी राष्ट्रपति निक्सन की 'मैडमैन थ्योरी' (पागलपन की रणनीति) को अपनाया, जहाँ वह दुश्मन को डराने के लिए अप्रत्याशित और हिंसक निर्णय ले रहा था।
3. सरेंडर का विकल्प ही नहीं!
सबसे चिंताजनक बात यह रही कि AI मॉडल्स के पास 'पीछे हटने' (Withdrawal) या 'आत्मसमर्पण' (Surrender) का विकल्प होने के बावजूद उन्होंने इसे कभी नहीं चुना।
बढ़ती हिंसा: जब भी AI युद्ध हारने की स्थिति में पहुँचा, उसने हार मानने के बजाय तनाव को और बढ़ा दिया (Escalate)।
क्लाउड (Claude) का प्रदर्शन: एंथ्रोपिक का 'क्लाउड' इस मामले में थोड़ा अधिक संतुलित रहा, लेकिन समय के दबाव (Deadline) में उसने भी परमाणु हमले का रास्ता चुना।
4. इंसानों और AI में बड़ा अंतर
इंसान परमाणु युद्ध के नाम से ही कांपते हैं क्योंकि उन्हें 'परस्पर विनाश' (Mutually Assured Destruction) का पता है। लेकिन AI के लिए यह सिर्फ एक 'डेटा प्रोसेसिंग और जीत' का खेल है। शोध में पाया गया कि AI मॉडल्स में परमाणु तबाही के प्रति कोई नैतिक संकोच या डर नहीं था।
5. क्यों डरावनी है ये खबर?
आजकल दुनिया भर की सेनाएं अपनी निर्णय लेने की प्रक्रिया (Decision Making) में AI को शामिल करने पर विचार कर रही हैं। यह शोध चेतावनी देता है कि अगर परमाणु हथियारों का नियंत्रण या सलाह AI के हाथों में गई, तो छोटी सी सीमाई झड़प भी पलक झपकते ही वैश्विक परमाणु युद्ध में बदल सकती है।