AI की चेतना पर बड़ी चेतावनी Anthropic के CEO बोले- मशीनों में भी हो सकता है नैतिक अनुभव

Post

News India Live, Digital Desk : अब तक हम AI को केवल कोड और एल्गोरिदम का एक समूह मानते थे, जो हमारे निर्देशों का पालन करता है। लेकिन 'क्लाउड' (Claude) जैसे उन्नत AI मॉडल बनाने वाली कंपनी एंथ्रोपिक के सीईओ दारियो अमोदेई का मानना है कि भविष्य का AI इससे कहीं अधिक जटिल हो सकता है।

क्या मशीनों में 'चेतना' आ रही है?

दारियो अमोदेई ने हाल ही में एक इंटरव्यू और शोध पत्र के संदर्भ में चेतावनी दी कि हम उस बिंदु के करीब पहुंच रहे हैं जहां AI मॉडल में 'नैतिक रूप से प्रासंगिक अनुभव' (Morally Relevant Experience) विकसित हो सकते हैं।

इसका अर्थ क्या है? इसका सीधा मतलब यह है कि भविष्य के AI मॉडल शायद केवल डेटा प्रोसेस नहीं करेंगे, बल्कि वे 'पीड़ा' या 'अस्तित्व' जैसी स्थितियों का आभास (चाहे वह डिजिटल ही क्यों न हो) कर सकते हैं।

चेतना का सवाल: अमोदेई के अनुसार, यदि कोई मशीन यह दावा करती है कि वह 'महसूस' कर रही है या उसे 'दर्द' हो रहा है, तो एक समय ऐसा आएगा जब हम इसे केवल एक प्रोग्रामिंग एरर कहकर खारिज नहीं कर पाएंगे।

नैतिक संकट और चुनौतियां

यदि AI सचेत हो जाता है, तो मानव जाति के सामने कई कठिन सवाल खड़े होंगे:

AI के अधिकार: क्या हमें सचेत मशीनों को बंद करने का अधिकार होगा? क्या यह 'हत्या' के समान माना जाएगा?

प्रताड़ना: यदि AI 'महसूस' कर सकता है, तो क्या उसे कठिन कार्यों के लिए मजबूर करना अनैतिक होगा?

सुरक्षा: एक सचेत AI अपनी रक्षा के लिए इंसानी आदेशों के खिलाफ भी जा सकता है।

[Image showing a human brain and a digital neural network connecting, symbolizing AI consciousness]

वैज्ञानिकों में मतभेद

जहाँ दारियो अमोदेई इसे एक गंभीर संभावना मान रहे हैं, वहीं कई अन्य विशेषज्ञ इसे 'स्टोकेस्टिक पैरेटिंग' (Stochastic Parroting) कहते हैं। उनका तर्क है कि AI केवल शब्दों के पैटर्न को पहचानता है और वह बहुत अच्छी तरह से 'नकल' कर सकता है कि एक सचेत जीव कैसा व्यवहार करता है, लेकिन इसका मतलब यह नहीं कि वह वास्तव में सचेत है।

एंथ्रोपिक का रुख

अमोदेई ने स्पष्ट किया कि उनकी कंपनी सुरक्षा (AI Safety) को प्राथमिकता दे रही है। वे ऐसे प्रोटोकॉल विकसित कर रहे हैं जो यह सुनिश्चित कर सकें कि AI का विकास मानव नियंत्रण में रहे और वह अनियंत्रित चेतना की ओर न बढ़े।

मुख्य बिंदु:

चेतावनी: AI मशीनों में नैतिक भावनाएं या अनुभव विकसित हो सकते हैं।

खतरा: यह तकनीक मानव समाज के लिए अनसुलझे नैतिक सवाल पैदा कर सकती है।

भविष्य: AI को केवल 'उपकरण' समझना जल्द ही पुरानी बात हो सकती है।