वास्तविकता की जाँच: रोबोट को मारने वाली मशीनें - क्या वे विद्रोह करेंगी?

यदि, हमारी तरह, आप पिछले कुछ महीनों से रोबोटिक्स समाचारों पर बारीकी से नज़र रख रहे हैं, तो आपने कुछ हद तक चिंताजनक प्रवृत्ति देखी होगी। यदि आपने नहीं किया है, तो यहां कुछ सुर्खियाँ हैं:

  • दुनिया का सबसे गुस्सैल रोबोट विकास में है

  • कटाना चलाने वाले रोबोट का सामना समुराई मास्टर से होता है

  • रोबोटिक चीता तेज़ गति से दौड़ सकता है और बाधाओं को पार कर सकता है

क्या आप वही सोच रहे हैं जो हम सोच रहे हैं?

पिछले कुछ महीनों से, वैज्ञानिक एक ऐसे रोबोट पर काम कर रहे हैं जो क्रोध का अनुकरण करता है; एक रोबोट जो तलवार वाला एक राक्षस है; एक रोबोट जो अति फुर्तीला है. क्या हमें चिंतित होना चाहिए - या हर तकनीकी प्रगति के लिए रोबोटिक सर्वनाश की भविष्यवाणी करना एक तरह की पत्रकारिता है?

इसका कोई सीधा जवाब नहीं है और वैज्ञानिक समुदाय में भी राय बंटी हुई है, लेकिन ख़तरा ज़रूर है प्रतीत एक दशक पहले की तुलना में यह अधिक वास्तविक है। ऐसा न हो कि हम भूल जाएं, 1990 के दशक में, हममें से अधिकांश लोग एक सीखने वाले रोबोट के सबसे करीब थे:छवि02

हालाँकि, आजकल, पश्चिमी दुनिया के अधिकांश लोग अपनी जेब में एक कंप्यूटर रखते हैं जो - सही प्रोग्रामिंग के साथ - हर अवसर पर उन्हें मात दे सकता है।

"कृत्रिम बुद्धिमत्ता पर काम 1950 के दशक से चल रहा है, लेकिन उन शुरुआती दिनों में नियंत्रण ख़त्म होने की गंभीर चिंता लगभग न के बराबर थी"

बड़े नामों के खड़े होने और नोटिस लेने के लिए इस खतरे को पर्याप्त रूप से महत्वपूर्ण माना गया है। इस साल की शुरुआत में, ए खुला पत्र मशीनरी के मानव जाति पर हावी होने के खतरों को स्वीकार किया और सुरक्षा उपाय करने का आह्वान किया। "हम विस्तारित अनुसंधान की अनुशंसा करते हैं जिसका उद्देश्य यह सुनिश्चित करना है कि तेजी से सक्षम एआई सिस्टम मजबूत और फायदेमंद हैं: हमारे एआई सिस्टम को वही करना चाहिए जो हम चाहते हैं कि वे करें" साबित हुआ एक ठोस (या अस्पष्ट, आपके संदेह पर निर्भर करता है) पर्याप्त भावना कि रोबोटिक्स पेशेवर, एमआईटी प्रोफेसर और माइक्रोसॉफ्ट और आईबीएम के विशेषज्ञ उनमें से थे हस्ताक्षरकर्ता

बिल गेट्स, एलोन मस्क और स्टीफन हॉकिंग सभी ने एआई के विकास के बारे में आपत्तियां व्यक्त की हैं - वास्तव में, बाद वाले दो भी खुले पत्र के सह-हस्ताक्षरकर्ता थे।

यदि आप सोच रहे हैं कि रोबोटिक भावना का यह डर हम पर हावी हो गया है, तो आप अकेले नहीं हैं। कृत्रिम बुद्धिमत्ता पर काम 1950 के दशक से चल रहा है, लेकिन नियंत्रण के लिए गंभीर चिंता का विषय है उन शुरुआती दिनों में फिसलन लगभग न के बराबर थी, और हाल ही में इसमें तेजी आई है महीने.

ऑक्सफोर्ड विश्वविद्यालय के भविष्य विज्ञान विशेषज्ञ एंडर्स सैंडबर्ग के रूप में, Reddit Q&A में बताया गया है, यह आंशिक रूप से उस समय पूरी धारणा की चालाकी से कम था जब रोबोट इतने खतरनाक रूप से आदिम थे: "जोखिम जितना 'अजीब' होता है, उसका अध्ययन करना उतना ही शर्मनाक होता है। लेकिन केवल अजीब चीजों को देखकर ही हम यह पता लगा सकते हैं कि क्या यह वास्तव में इतनी कम संभावना है या असंगत है कि यह देखने लायक नहीं है और अधिक, या एक छिपी हुई वास्तविक समस्या।" दूसरे शब्दों में, तथ्य यह है कि यह एक विज्ञान-कल्पना है इसका मतलब यह नहीं है कि इसे खारिज कर दिया जाना चाहिए हाथ।

यह शर्मिंदगी इस थोड़े से भोले विश्वास से और बढ़ जाती है कि यदि हम ऐसी स्थिति में होते जहां हत्यारे रोबोट हमें नीचे गिराने पर आमादा होते, तो हम उन्हें फिर से बंद करने में सक्षम होते। के लेखक के रूप में अधीक्षण: रास्ते, खतरे, रणनीतियाँ प्रोफेसर निक बोस्ट्रोम अपने TED टॉक में कहते हैं, जरूरी नहीं कि ऐसा ही हो:

के समान एक उदाहरण का उपयोग करना पेपरक्लिप मैक्सिमाइज़र, बोस्ट्रोम एक ऐसे परिदृश्य की कल्पना करता है जहां मनुष्यों को खुश करने का काम करने वाला एक रोबोट यह निष्कर्ष निकालता है कि मुस्कुराहट को मजबूर करने का सबसे प्रभावी तरीका इलेक्ट्रोड है। बोस्ट्रोम ने तर्क दिया, "आप कह सकते हैं कि यदि कोई कंप्यूटर लोगों के चेहरों पर इलेक्ट्रोड चिपकाना शुरू कर दे, तो हम उसे बंद कर देंगे।" "यह करना इतना आसान नहीं है अगर हम सिस्टम पर निर्भर हो गए हैं, जैसे, इंटरनेट का ऑफ स्विच कहां है?"

“चिम्पांजी ने मानवता के लिए स्विच ऑफ क्यों नहीं किया? या निएंडरथल? उनके पास निश्चित रूप से कारण थे। इसका कारण यह है कि हम एक बुद्धिमान प्रतिद्वंद्वी हैं। हम खतरों का अनुमान लगा सकते हैं और उनके आसपास योजना बना सकते हैं। लेकिन एक अति-बुद्धिमान एजेंट भी ऐसा कर सकता है और वह इस मामले में हमसे कहीं बेहतर होगा।”

हालांकि निस्संदेह लोग सावधानी बरतने का आह्वान कर रहे हैं, अन्य लोग इस खतरे को काल्पनिक या बढ़ा-चढ़ाकर बताया गया कहकर खारिज कर देते हैं - इसमें आश्चर्य की बात नहीं है कि इसका नेतृत्व उन लोगों ने किया है जो उद्योग में काम - कुछ ऐसा जो निहित लाल झंडे से विशेषज्ञता के सुखदायक आश्वासन को अलग करना मुश्किल बना देता है रूचियाँ।

Google की पहली डीप लर्निंग टीम की स्थापना करने वाले AI अनुभवी एंड्रयू एनजी, बुद्धिमत्ता और भावना के बीच निराशाजनक संबंध को उजागर करने के इच्छुक हैं: "कंप्यूटर अधिक बुद्धिमान होते जा रहे हैं और यह स्व-चालित कारों, वाक्-पहचान प्रणालियों या खोज इंजनों में उपयोगी हैं। वह बुद्धिमत्ता है,'' एनजी ने फ़्यूज़न को समझाया. "लेकिन भावना और चेतना कोई ऐसी चीज़ नहीं है जिसके बारे में जिन लोगों से मैं बात करता हूँ उनमें से अधिकांश सोचते हैं कि हम उस रास्ते पर हैं।"

“मैं एआई को बुराई में बदलने से रोकने पर उसी कारण से काम नहीं करता, जिस तरह मैं मंगल ग्रह पर अत्यधिक जनसंख्या से निपटने पर काम नहीं करता हूँ। अब से सैकड़ों वर्ष बाद, जब हमने आशापूर्वक मंगल ग्रह पर उपनिवेश स्थापित कर लिया है, अधिक जनसंख्या एक गंभीर समस्या हो सकती है और हमें इससे निपटना होगा।"छवि01

एलन विनफील्ड, यूडब्ल्यूई ब्रिस्टल में इलेक्ट्रॉनिक इंजीनियरिंग के प्रोफेसर द गार्जियन में लिख रहा हूँ, किसी भी खतरे को दूरगामी परिणाम के रूप में भी देखता है। “अगर हम मानव समकक्ष एआई और के निर्माण में सफल हुए हैं अगर एआई इस बात की पूरी समझ प्राप्त कर लेता है कि यह कैसे काम करता है, और अगर इसके बाद यह सुपर-इंटेलिजेंट एआई का उत्पादन करने के लिए खुद को बेहतर बनाने में सफल होता है, और अगर वह सुपर-एआई - गलती से या दुर्भावनापूर्ण रूप से - संसाधनों का उपभोग करना शुरू कर देता है, और अगर हम प्लग खींचने में विफल रहते हैं, तो, हाँ, हमें समस्या हो सकती है। जोखिम, हालांकि असंभव नहीं है, असंभाव्य है।”

“अगर ये विशेषज्ञ कर्कश पक्ष पर स्पर्श करते हैं, तो यह समझ में आता है। वे व्यक्तिगत रूप से ऐसी किसी भी चीज़ पर काम नहीं कर रहे हैं जिसमें उन्हें जोखिम दिखाई दे - लेकिन क्या वे बाकी सभी के लिए बोल सकते हैं?

Google के स्वामित्व वाली डीपमाइंड AI अनुसंधान कंपनी के सह-संस्थापक डेमिस हसाबिस, नवीनतम अंक में एक दुर्लभ साक्षात्कार दे रहे हैं वायर्ड एआई के भविष्य के बारे में चिंताओं को "उन लोगों से निराधार प्रचार" के रूप में खारिज कर दिया गया है जो अपने स्वयं के डोमेन में स्मार्ट हैं, लेकिन एआई में काम नहीं करते हैं।

"ये वे लोग हैं जो वास्तव में कुछ नहीं बना रहे हैं, इसलिए वे दार्शनिक और विज्ञान-कल्पना की चिंताओं से बात कर रहे हैं, उन्हें इस बारे में लगभग कोई ज्ञान नहीं है कि ये [प्रौद्योगिकियाँ] क्या कर सकती हैं।"

"निश्चित रूप से हम इसे रोक सकते हैं - हम इन चीजों को डिजाइन कर रहे हैं... मैं ब्लैक होल पर स्टीफन हॉकिंग को व्याख्यान देने का इरादा नहीं रखता: मैंने देखा है तारे के बीच का लेकिन मैं ब्लैक-बॉडी रेडिएशन के बारे में इस हद तक नहीं जानता कि मुझे इसके बारे में प्रेस को बताना चाहिए।

यदि ये विशेषज्ञ कर्कश पक्ष पर एक स्पर्श लगते हैं (और प्रत्येक साक्षात्कार लेखन को "वह आहें भरता है" और "थका हुआ" जैसे वाक्यांशों के साथ जोड़ा जाता है), तो यह समझ में आता है। वे व्यक्तिगत रूप से ऐसी किसी भी चीज़ पर काम नहीं कर रहे हैं जिसमें उन्हें जोखिम दिखाई दे - लेकिन क्या वे बाकी सभी के लिए बोल सकते हैं? और क्या यहाँ अहंकार का स्पर्श हो सकता है? जब ऐसा हो तो वस्तुनिष्ठ होना कठिन है आपका जीवन का कार्य जिसकी आलोचना की जा रही है।

यकीनन, यह यहां खेलने का सबसे बड़ा जोखिम है। सैंडबर्ग के रूप में अपने Reddit चैट में निष्कर्ष निकाला, अति आत्मविश्वास का तत्व सबसे बड़ा दुश्मन हो सकता है: "आख़िरकार, अधिकांश रोबोटों को हार न मानने में कठिनाई होती है... जब आप इसे बनाने की कोशिश में अपना दिन बिताते हैं कमरे के एक छोर से दूसरे छोर तक नेविगेट करें और यह विफल हो जाए, तो रोबोट की कल्पना करना कठिन है विद्रोह।”

"सिंथेटिक जीव विज्ञान में बहुत से लोग सोचते हैं कि वे दुनिया को बदल देंगे, लेकिन उन्हीं में से कई लोग यह भी सोचते हैं कि उनके जीव पूरी तरह से सुरक्षित हैं - उनके अनुभव के आधार पर मौजूदा, गैर-दुनिया बदलने वाले जीव। निःसंदेह, यह एक गलती है: कोई भी चीज़ जो दुनिया को बदल सकती है वह जोखिम हो सकती है।"

तो क्या हम उन विशेषज्ञों पर भरोसा करते हैं जो हर दिन एआई के साथ काम करते हैं, या कम विशिष्ट बुद्धिजीवियों पर भरोसा करते हैं जो विकास की गति पर बेचैनी से काम कर रहे हैं? पहले एक पत्रकारिता टिक में शामिल होने से इनकार करने के बाद, मैं एक और आजमाई हुई और परखी हुई पत्रकारिता पर वापस लौटने जा रहा हूं: यह है अभी कुछ भी कहना जल्दबाजी होगी, लेकिन बढ़ी हुई जांच का मतलब यह होना चाहिए कि अगर रोबोट हमें मारते हैं, तो हम कम से कम इसे देख सकते हैं आ रहा।

इमेजिस: हत्यारे रोबोटों को रोकने का अभियान और पेन्यरी हेरेरा क्रिएटिव कॉमन्स के अंतर्गत उपयोग किया जाता है