लोगों को कृत्रिम खुफिया डराने चाहिए?

स्टीफन हॉकिंग और एलोन मस्क ने हाल ही में कृत्रिम बुद्धि को मानवता के लिए एक बड़ा खतरा बताया है। उनकी चिंता यह है कि कंप्यूटर के बुद्धिमान प्रदर्शन में तेजी से सुधार उन्हें मानव के रूप में बुद्धिमान बना देगा। मानव स्तर की मशीन इंटेलिजेंस तब तेजी से कंप्यूटरों की ओर ले जा सकता है जो कि हमारे मुकाबले अधिक बुद्धिमान हैं। यह छलांग प्रशंसनीय है क्योंकि कंप्यूटर के पास प्रोसेसिंग की गति, भंडारण, बड़ी मात्रा में जानकारी तक पहुंच और कंप्यूटर के बीच स्थानांतरण में आसानी के संबंध में हमारे पास फायदे हैं। एक बार इस प्रकार की सुपरिच्युजेंस मौजूद रहती है, तो वह रुचियां और कार्यों का सामना कर सकती है जो मनुष्यों के प्रति काउंटर चलाने, हमारी हानि और संभवतः हमारे निधन के लिए भी हो सकती हैं लोगों को इस समस्या के बारे में कैसे चिंतित होना चाहिए?

मैं वर्तमान में एक कोर्स पढ़ रहा हूं जो मशीनों, इंसानों और अन्य जानवरों में इंटेलिजेंस की व्यवस्थित रूप से तुलना करता है। इंसानों के लिए, मैं जो सोच रहा हूं, उसका उपयोग कर रहा हूँ बुद्धि का सबसे अच्छा वर्तमान सिद्धांत: क्रिस एलिआस्मिथ का शब्दार्थ संकेतक वास्तुकला मशीनों के लिए, कक्षा आईबीएम के वाटसन, Google की ड्राइवरहीन कारों, सीवाईसी, ऐप्पल की सिरी और Google अनुवाद सहित मौजूदा कृत्रिम बुद्धि कार्यक्रमों के प्रमुख उदाहरणों पर विचार कर रही है।

इस तुलना से पता चलता है कि मानव खुफिया और कृत्रिम बुद्धि के बीच अब भी बहुत अंतर है। आईबीएम के वाटसन टीवी गेम संकट में उत्कृष्ट मानव खिलाड़ियों को हरा करने के लिए पर्याप्त सवालों के जवाब देने में बहुत प्रभावशाली है। और यह रचनात्मक समस्या हल करने के लिए कुछ क्षमताओं को दिखाने के लिए भी शुरू हो रहा है जब शेफ वॉटसन नए व्यंजन बनाते हैं इसके अलावा, ऐसा लगता है कि वाटसन कई अन्य क्षेत्रों जैसे कि व्यापार और चिकित्सा के लिए बहुमूल्य योगदान दे रहा है। फिर भी, निकट भविष्य के लिए वाटसन मानव अवधारणाओं, कल्पनाओं, भावनाओं, चेतना, सीखने, भाषा और पूरी तरह से रचनात्मक समस्या को सुलझाने की मानवीय क्षमताओं से भी कम मायने रखता है जो मनुष्य को पूरा कर सकता है। अन्य वर्तमान एआई कार्यक्रम समान सीमाएं साझा करते हैं।

इसलिए, मुझे लगता है कि भविष्य में मानव स्तर कृत्रिम बुद्धि अधिक दूर है क्योंकि कई लोगों का मानना ​​है कि यह विचार है कि कंप्यूटर की खुफिया बस एक कंप्यूटर में लोगों के न्यूरल कनेक्शन को डाउनलोड कर सकती है, यह मानव मस्तिष्क की जटिलताओं के बारे में बहुत भोली है, जिसमें न केवल विद्युत कनेक्शन शामिल हैं बल्कि न्यूरोट्रांसमीटर, हार्मोन और ग्लियाल कोशिकाओं से जुड़े रासायनिक प्रक्रियाओं की एक विशाल श्रेणी भी शामिल है। आर्टिफिशियल इंटेलिजेंस ने पिछले 60 वर्षों में प्रभावशाली प्रगति की है, मशीन बनाने, जो शतरंज खेल सकते हैं और मंगल की सतह को नेविगेट कर सकते हैं। लेकिन मैं शर्त लगाता हूं कि मशीन इंटेलिजेंस लगभग इंटेलिजेंट इंटेलिजेंस से पहले 60 से 100 साल हो जाएगा, जिससे एमी को ग्लोबल वार्मिंग, महामारी और मानवता के बढ़ते असमानता से सामाजिक संघर्षों की ओर बढ़ने के लिए बहुत कम दबाव का खतरा हो सकता है।

एआई के बारे में एक और तात्कालिक चिंता यह सुनिश्चित करना है कि अमेरिकी सैन्य, Google और फेसबुक जैसे समूहों द्वारा कृत्रिम बुद्धि के प्रकार को अपनाया जा रहा है, ताकि मनुष्य को लाभान्वित करने के लिए उपयोग किया जा सके। हॉकिंग, मस्क, और अग्रणी एआई शोधकर्ताओं द्वारा हस्ताक्षरित एक हालिया खुला पत्र एक मजबूत और समझदार याचिका है कि मानव लाभ के लिए कृत्रिम बुद्धि का उपयोग किया जाना है।

यद्यपि मैं निकट भविष्य में मानवता की आपूर्ति मशीनों के बारे में चिंतित नहीं हूं, इस दावे के लिए काफी संभावनाएं हैं कि एक बार हासिल की गई, मानव स्तर की कृत्रिम बुद्धि जल्दी से सुपरिच्यूनिज का उत्पादन कर सकती है जो वास्तव में मानवता के लिए खतरा हो सकता है। मानवीय स्तर से सुपरिच इंटेलिजेंस के कारण तेजी से हो सकता है क्योंकि मानवीय खुफिया की तुलना में ज्यादा तेजी से बढ़ने की इसकी संभावना की वजह से यह तेजी से हो सकता है। कंप्यूटर प्रोसेसिंग गति, सीखने की दर और सूचना के ट्रांससीसिबिलिटी के संबंध में हमारी सीमाओं से बच सकते हैं। सुपरिच इंटेलिजेंस वास्तव में डरावना है क्योंकि इस पर विश्वास करने का कोई कारण नहीं है कि यह मानवीय नैतिक सिद्धांतों के अनुरूप काम करेगा।

आप सोच सकते हैं कि आप कंप्यूटर में नैतिक सिद्धांतों का कार्यक्रम कर सकते हैं, लेकिन कोई भी स्मार्ट प्रोग्राम खुद को नियमों को खत्म करने के लिए खुद को पुनः प्रकाशित कर सकता है। मुझे संदेह है कि सुपरिच इंटेलिजेंस में नैतिक सोच के लिए अभियान होगा जो लगभग सभी इंसानों को एक दूसरे की देखभाल करने के लिए हमारी भावनात्मक क्षमता के माध्यम से आता है। दर्शन में सबसे प्रभावशाली विचारों ने नैतिकता को तर्कसंगत बनाने की कोशिश की है, उदाहरण के लिए कांतियान अधिकारों और कर्तव्यों के जरिए या सबसे बड़ी संख्या के लिए सबसे अच्छी अच्छी की उपयोगी गणना के माध्यम से। मुझे हूम और कुछ नारीवादी नैतिकतावादियों के दृष्टिकोण को और अधिक सुगम लगता है कि भावनाओं और देखभाल हमारे नैतिक निर्णयों के आधार हैं मशीन इंटेलिजेंस के लिए समान नैतिक आधार होने की उम्मीद नहीं की जा सकती क्योंकि भावनाओं का आंशिक रूप से फिजियोलॉजी का नतीजा है, परिस्थितियों का सिर्फ संज्ञानात्मक मूल्यांकन नहीं है। जॉन होगलैंड ने एक बार कहा था कि कंप्यूटर के साथ परेशानी यह है कि वे सिर्फ एक लानत नहीं देते हैं मानवता के लिए एआई के दीर्घकालिक लाभ के परिप्रेक्ष्य से, समस्या ये है कि वे हमारे लिए बहुत ही नफरत नहीं देंगे।

Intereting Posts
प्यार हो सकता है बिना शर्त? यह आपका ब्रेन प्रथम ग्रेड पर है 6 प्रश्न अपने आप से पूछने के लिए ड्रीम कैरियर बनाएँ ऑडियोबू – भाग पॉडकास्ट, भाग ब्लॉग, भाग कलरव उठाए जा रहे हैं: हम अन्याय की भावना कैसे जगते हैं? आईओजीड से पूछें हम इतने आसानी से बेवकूफ क्यों हैं, और क्यों यह मामला है बिल्ली व्यक्ति, अजीज अंसारी और पावर इन द एज ऑफ़ ट्रम्प दया एक जोखिम भरा व्यवसाय है वाइव्स क्लब – स्टैंड-बाय-आपकी-मैन साइकोलॉजी महिला पहलवान लाल पहने हुए हैं (पुरुषों द्वारा) अधिक होने की संभावना मेरा अपरिपक्व मस्तिष्क मेड मुझे यह क्या? दूसरी संभावनाओं के लिए माफी माँगता है इसका क्या मतलब है जब मैं कहता हूं, "मैं ऑटिस्टिक हूँ?" क्या कुछ लोग विशेष उपचार के लिए हकदार महसूस करते हैं?