स्रोत: istockphoto
हम आर्टिफिशियल इंटेलिजेंस रिवोल्यूशन (AIR) के बीच में हैं, जो तकनीकी नवाचार के इतिहास में अगला प्रमुख युग है। आर्टिफिशियल इंटेलिजेंस (एआई) विश्व स्तर पर न केवल वैज्ञानिक अनुसंधान में, बल्कि व्यापार, वित्त, उपभोक्ता, कला, स्वास्थ्य सेवा, निर्यात, पॉप संस्कृति और भू-राजनीति में भी गति प्राप्त कर रहा है। जैसे-जैसे एआई तेजी से व्यापक होता जा रहा है, यह एक बड़े स्तर पर जांचना महत्वपूर्ण है कि क्या एआई विकार से लाभ उठाता है। एंटीफ्रेगाइल एक शब्द और अवधारणा है जिसे नसीम निकोलस तालेब द्वारा सामने रखा गया है, जो एक पूर्व मात्रात्मक व्यापारी और स्व-घोषित “फ्लेअनूर” न्यूयॉर्क टाइम्स के बेस्टसेलर के लेखक थे “द ब्लैक स्वान: द इम्पैक्ट ऑफ द हाइली इम्प्रैबल”। तालेब एंटीफ्रेगाइल का वर्णन करते हैं। “कमजोर के विपरीत” जो कि “एंटीलैग्राइल में” लचीलापन या मजबूती से परे “होता है” विकार से उत्पन्न होने वाली चीजें। “तालेब के अनुसार, एंटीफ्रागाइल चीजें न केवल” अराजकता से लाभ प्राप्त करती हैं, बल्कि जीवित रहने और फलने-फूलने के लिए भी इसकी आवश्यकता होती हैं। “एआई एंटीफ्रागाइल है? उत्तर उतना सहज नहीं हो सकता जितना लगता है।
एआई में हालिया प्रगति काफी हद तक गहरी सीखने के माध्यम से पैटर्न मान्यता क्षमताओं में सुधार के कारण हैं, मशीन सीखने का एक सबसेट, जो एआई का एक तरीका है जिसमें स्पष्ट प्रोग्रामिंग की आवश्यकता नहीं होती है। नॉनलाइनियर प्रोसेसिंग की दो या दो से अधिक परतों के माध्यम से डेटा सेट को फीड करके यह सीखने को प्राप्त होता है। वॉल्यूम जितना अधिक होता है और डेटा के थ्रूपुट प्रसंस्करण में तेजी आती है, कंप्यूटर उतना ही तेजी से सीखता है।
तेजी से प्रसंस्करण ज्यादातर GPU (ग्राफिक्स प्रोसेसिंग यूनिट), बनाम सीपीयू (सेंट्रल प्रोसेसिंग यूनिट) के सीरियल प्रोसेसिंग के समानांतर प्रसंस्करण क्षमताओं के माध्यम से प्राप्त किया जाता है। दिलचस्प बात यह है कि कंप्यूटर गेमिंग ने गहरी शिक्षा में प्रगति में तेजी लाने में मदद की है, और इसलिए वर्तमान एआई बूम में भी एक भूमिका निभाते हैं। जीपीयू, जो मूल रूप से कंप्यूटर गेम के लिए ग्राफिक्स के प्रतिपादन के लिए उपयोग किया जाता है, अब गहन शिक्षण वास्तुकला का एक अभिन्न अंग है। वर्णन करने के लिए, कल्पना करें कि ग्राहकों के साथ तीन आइसक्रीम गाड़ियाँ हैं, जो हर एक पर पंक्तिबद्ध हैं, और केवल एक स्कूपर है। सीरियल प्रोसेसिंग में, स्कूपर का लक्ष्य एक ही समय में सभी गाड़ियों की सेवा समाप्त करना होता है और ऐसा करने से पहले गाड़ियां चलाने के दौरान कुछ शंकुओं को एक बार में सर्विसिंग के बीच उछाल दिया जाता है। समानांतर प्रसंस्करण में, केवल एक के बजाय कई स्कूपर्स होते हैं। एक प्रेमी ग्राहक तेजी से परिणाम प्राप्त करने के लिए एक ही समय में गाड़ियों के बीच के आदेश को विभाजित करेगा।
उच्च मात्रा और डेटा के विस्तृत वर्गीकरण से गहन शिक्षा प्राप्त करना। बड़े और विविध डेटा सेटों तक पहुंच, आउटलेर्स के साथ पूरा, पक्षपाती या कम-गुणवत्ता वाले आउटपुट को कम करने में जरूरी है। डेटा के लौकिक फायरहॉउस से पीना गहरी सीखने के लिए एक तनाव नहीं है, बल्कि एक वांछित परिदृश्य है। मशीन लर्निंग बड़े डेटा पर पनपती है और सूचना की अराजकता से आदेश लाती है। डेटा विविधता से एआई गहरा सीखने का लाभ।
गहरी सीखने की अंतर्निहित एंटीफ्रागैलिटी के लिए कैविएट गलती से मानव प्रबंधन से आईट्रोजेनिक प्रभावों के परिणामस्वरूप होने वाले आकस्मिक प्रतिकूल परिणामों का संभावित जोखिम है। “एंटीफ्रागाइल” में, तालेब “हानिकारक अप्रभावित साइड इफेक्ट्स” वाक्यांश के स्थान पर “आयट्रोजेनिक” शब्द का उपयोग करते हैं, जो “भोले हस्तक्षेप” से उत्पन्न होता है। हालांकि AI एक मशीन-आधारित प्रणाली है, यह अंततः मनुष्यों द्वारा बनाई और प्रबंधित की जाती है। ऐसे कई संभावित अनपेक्षित परिणाम हैं जो AI गहन शिक्षण डेटा सेट और एल्गोरिदम के मानवीय हस्तक्षेप के परिणामस्वरूप हो सकते हैं। दुनिया के सबसे अच्छे प्रदर्शन करने वाले टोस्टर में अब भी सब्ज़ीमल टोस्ट के रूप में फफूंदी लगाओ।
स्रोत: केमी रोसो
क्लासिक कंप्यूटर साइंस “गारबेज इन, गारबेज आउट” (जीआईजीओ) का गहन अध्ययन प्रतिध्वनित करता है। मानव ऑपरेटर बड़े पैमाने पर डेटा सेट आकार, स्रोत (ओं), चयन, समय, आवृत्ति, टैगिंग और मैनुअल को एआई सिस्टम पर ओवरराइड करने का निर्णय लेते हैं। एआई एल्गोरिदम बनाने वाले मानव प्रोग्रामर सिस्टम रैंकिंग, प्राथमिकता, एसोसिएशन, वर्गीकरण और फ़िल्टरिंग के लिए उपयोग किए जाने वाले मानदंड और मैट्रिक्स को परिभाषित करते हैं। जब कोई उल्लेखनीय डेटा बिंदु अनुपस्थित होता है, तो प्रोग्रामर सिंथेटिक डेटा पॉइंट बनाकर हस्तक्षेप कर सकते हैं। मानव प्रोग्रामर ट्यूनिंग एल्गोरिदम पर निर्णय लेते हैं। मानव हस्तक्षेप के संभावित iatrogenic प्रभाव में पक्षपाती आउटपुट, अवर पैटर्न मान्यता, तिरछे परिणाम, दोषपूर्ण एल्गोरिदम, अनुचित भार, गलत विशेषताएँ और गलत सकारात्मक या नकारात्मक शामिल हो सकते हैं। टोस्टर में ताज़ी रोटी डालें, लेकिन इस प्रक्रिया के दौरान हीटिंग स्तर बहुत अधिक या कम समायोजित करें ताकि जलने या कम टोस्ट जैसे अनपेक्षित परिणाम उत्पन्न हो सकें। इसलिए यद्यपि एआई गहरी शिक्षा एंटीफ्रागाइल है, यह मानव-कारक है जो नाजुक होता है।
यह इस सवाल को उठाता है कि क्या मानव हस्तक्षेप के बिंदुओं को बदलने के लिए कृत्रिम बुद्धिमत्ता का उपयोग किया जा सकता है – एक स्व-विनियमन एआई प्रणाली। सिद्धांत रूप में, यह संभव है। एआई अन्य एआई कार्यक्रमों के उत्पादन और प्रबंधन के लिए बनाया जा सकता है। उदाहरण के लिए, व्यक्तिगत विशेष एआई कार्यक्रमों को प्रशिक्षण सेटों के लिए डेटा का चयन करने, डेटा आउटलेर्स को फ़्लैग करने, झूठी सकारात्मक या नकारात्मक भविष्यवाणी करने, एल्गोरिदम के लिए सिंथेटिक डेटा पॉइंट और कई अन्य कार्यों का सुझाव देने जैसे कार्यों पर ध्यान केंद्रित करने के लिए बनाया जा सकता है। एक मुख्य AI सिस्टम की कल्पना करें जो विशेष AI प्रोग्राम के नेटवर्क का प्रबंधन करता है। प्रसंस्करण के दौरान, अतिव्यापी एआई विशेषज्ञ एआई को कार्य करने के लिए सक्रिय करता है जो एक बार मानव हस्तक्षेप की आवश्यकता होती है।
यह एक बड़ी, जटिल प्रणाली है, और स्व-विनियमन एआई गहन सीखने के इस दृष्टिकोण के लिए कई चेतावनी हैं। स्व-विनियमन एआई गहन शिक्षण प्रणाली की सबसे अयोग्य विशेषताओं में से “तितली प्रभाव” की बढ़ती संभावना है – एक गतिशील प्रणाली में छोटे अंतर विशाल, व्यापक परिणामों को ट्रिगर कर सकते हैं। मौसम विज्ञान के एक एमआईटी प्रोफेसर एडवर्ड लोरेंज, अराजकता सिद्धांत और तितली प्रभाव के पिता हैं। तितली के शब्द को लॉरेंज ने अपने पेपर “प्रिडिक्टिबिलिटी: द फ्लैप ऑफ ए बटरफ्लाईस विंग्स इन ब्राज़ील सेट ऑफ ए टोर्नाडो? टेक्सास?” [1] में रखा था। इस मामले में, अपने किसी भी मॉड्यूलर एआई घटक कार्यक्रमों में स्व-विनियमन एआई प्रणाली की स्थापना में मानव हस्तक्षेप की छोटी मात्रा समग्र एआई सिस्टम आउटपुट में बड़े पैमाने पर मतभेद पैदा कर सकती है।
इसलिए अब हमने यह स्थापित किया है कि यद्यपि एआई डीप लर्निंग तकनीक अपने आप में स्वाभाविक रूप से एंटीफ्रागेल लगती है, इसकी एच्लीस हील, मानव हस्तक्षेप से संभावित आईट्रोजेनिक प्रभाव, प्रणालीगत कमजोरियों और नाजुकता का एक स्रोत है। स्व-विनियमन AI प्रणाली का निर्माण और भी अधिक नाजुक है, लोरेंज तितली प्रभाव के लिए इसकी संवेदनशीलता को देखते हुए – इसके प्रारंभिक घटकों में किसी भी प्रणाली में किसी भी मानवीय त्रुटि, चाहे वह डेटा हो या एल्गोरिदम, बड़े पैमाने पर हो सकती है। आउटपुट त्रुटियाँ। सबसे अच्छा डेटा सेट के साथ सबसे अच्छा डिज़ाइन किया गया AI एल्गोरिदम अभी भी मानव नाजुकता से ग्रस्त है। एआई स्वाभाविक रूप से नाजुक होगा। मानव जिस तरीके से एआई सिस्टम का प्रबंधन करता है वह उसकी समग्र मजबूती और दोष-सहिष्णुता को निर्धारित करेगा। एआई की भविष्य की सफलता मनुष्य और मशीन की क्षमता पर निर्भर करेगी कि समय के साथ एक साथ सर्वोत्तम प्रथाओं को “सीखो” – सहजीवन में विकसित करना।
कॉपीराइट © 2018 कैमी रोसो सभी अधिकार सुरक्षित।
संदर्भ
1. डिजीक्स, पीटर। “जब बटरफ्लाई इफ़ेक्ट ने उड़ान भरी।” MIT टेक्नोलॉजी रिव्यू । 22 फरवरी, 2011।