एआई की गहरी समस्या

मानव मस्तिष्क पर मॉडलिंग, दीप लर्निंग ओपेक है

Public Domain Archive

स्रोत: सार्वजनिक डोमेन संग्रह

कृत्रिम बुद्धि मानव मस्तिष्क पर कुछ हद तक मॉडलिंग की जाती है; और इस दृष्टिकोण के साथ एक गहरी समस्या है। मशीन लर्निंग कृत्रिम बुद्धि (एआई) का एक उप-समूह है जहां कंप्यूटर प्रोग्राम स्वचालित रूप से स्पष्ट प्रोग्रामिंग के बिना डेटा से सीखते हैं। मानव जीवविज्ञान द्वारा भाग लिया गया, गहरी शिक्षा एक मशीन सीखने की विधि है जो कृत्रिम न्यूरॉन्स की परतों को तैनात करती है, जिसे नोड्स कहा जाता है, एक कृत्रिम मस्तिष्क में एक तंत्रिका नेटवर्क कहा जाता है। तंत्रिकाविदों और मनोवैज्ञानिकों ने अभी तक पूरी तरह से समझ नहीं लिया है कि मानव मस्तिष्क कैसे काम करता है। इसी प्रकार, गहरी शिक्षा के साथ एक बड़ी समस्या है; वैज्ञानिक वास्तव में वास्तव में नहीं जानते कि कितनी गहरी शिक्षा अपने फैसलों तक पहुंच जाती है। दोनों मामलों में, पारदर्शिता की कमी की जड़ पर जटिलता है।

मानव मस्तिष्क जटिल है; शोधकर्ताओं ने औसत पुरुष मानव मस्तिष्क का औसत औसत पर 86 अरब न्यूरॉन्स का अनुमान लगाया [1]। मानव न्यूरोनाटॉमी पाठ्यपुस्तक आमतौर पर 100 अरब न्यूरॉन्स के करीब होने का अनुमान लगाते हैं। मानव मस्तिष्क के समान, गहरी सीखने में घनिष्ठ इंटरकनेक्टेड प्रसंस्करण न्यूरॉन्स, या नोड्स होते हैं, जो कई परतों में व्यवस्थित होते हैं। गहरी शिक्षा को स्पष्ट प्रोग्रामिंग की आवश्यकता नहीं होती है क्योंकि इसे बड़ी मात्रा में इनपुट डेटा से सीखने के लिए डिज़ाइन किया गया है। उदाहरण के लिए, Google के गहरे शिक्षण कार्यक्रम ने हार्ड कोडिंग या छवियों को लेबल किए बिना 10 मिलियन YouTube वीडियो थंबनेल खिलाए जाने के बाद बिल्लियों की छवियों को पहचानना सीखा। [2]।

यह समझने के लिए कि क्यों गहरी शिक्षा असाधारण जटिल है, कार्यात्मक प्रक्रिया की समझ की आवश्यकता होती है। तंत्रिका नेटवर्क बड़े डेटा सेट में पैटर्न पाते हैं, और फिर संकल्पना और सामान्यीकरण करने की क्षमता विकसित करते हैं। डेटा की विशाल मात्रा कृत्रिम तंत्रिका जाल में खिलाया जाता है। नोड्स की पहली परत डेटा को संसाधित करती है और फिर अंतिम परत तक पहुंचने तक नोड्स के बाद की परतों पर जाती है, और एक भी निर्णय किया जाता है। प्रसंस्करण में, वजन नोड्स के लिए गणितीय रूप से गणना की जाती है, और नोड्स के बीच कनेक्शन की ताकत के लिए, जैसे मस्तिष्क synapses। न्यूरल नेट नोड्स के बीच जटिल कनेक्शन के आधार पर मानकों के ट्रिलियन, अरबों के ऊपर वाले मॉडल बनाता है। यह मॉडल में यह अंतर्निहित जटिलता है जो यह निर्धारित करना असंभव बनाता है कि गहराई से सीखने से इसका उत्पादन कैसे होता है।

नैतिक शिक्षा, नैतिकता, गुणवत्ता और गुणवत्ता नियंत्रण के कई क्षेत्रों में गहरी शिक्षा की अस्पष्टता समस्याग्रस्त हो जाती है। उदाहरण के लिए, ऑटो उद्योग तेजी से गहरी सीखने प्रौद्योगिकी का उपयोग कर स्वायत्त वाहनों की तरफ बढ़ रहा है। एक दुर्घटना की स्थिति में, एक स्वायत्त वाहन में तंत्रिका नेटवर्क द्वारा किए गए निर्णयों के पीछे तर्क को समझने का कोई निश्चित तरीका नहीं है। ऐसे मामलों में गलती कौन है? सवाल घायल, यात्रियों, बीमा कंपनियों और ऑटो निर्माताओं सहित सभी हितधारकों के लिए नैतिक और कानूनी दुविधा बन गया है। उपभोक्ता ड्राइवर की निर्णय लेने की प्रक्रिया को समझे बिना एक स्वायत्त वाहन की गुणवत्ता का आकलन कैसे करता है?

एक और उदाहरण कुछ कैंसर और मधुमेह रेटिनोपैथी [6] के लिए स्वास्थ्य देखभाल में छवि विश्लेषण के लिए गहरी शिक्षा की तैनाती है। क्या आप बिना ग़लत सीखने वाले मॉडल के रोग निदान पर भरोसा करेंगे कि यह क्यों बनाया गया था? रोगी द्वारा पूछे जाने पर एक मानव चिकित्सक अपने तर्क और तर्क की व्याख्या कर सकता है। गहरी शिक्षा के साथ यह मामला नहीं है।

एआई की पारदर्शिता समस्या की सीमा बढ़ रही है, और भविष्य में स्वचालन बढ़ने के साथ ही भविष्य में एक मुद्दा बन जाएगा। एआई में वाणिज्यिक और शोध की सफलता में हालिया बढ़ोतरी काफी हद तक ग्राफिक्स प्रसंस्करण इकाई (जीपीयू) त्वरक के माध्यम से बड़े पैमाने पर समानांतर प्रसंस्करण प्राप्त करने के लिए कंप्यूटिंग पावर की वजह से हुई है, जो एक केंद्रीय प्रसंस्करण इकाई (सीपीयू) बनाम है जो सूचनाओं को क्रमशः और अनुक्रमिक रूप से [5] संसाधित करती है। एआई के उदय में भी योगदान विकेंद्रीकृत क्लाउड-आधारित कंप्यूटिंग, और बड़े डेटा सेट की उपलब्धता है। मशीन सीखने का प्रयोग भाषण मान्यता, स्वायत्त वाहन, छवि प्रसंस्करण, हस्तलेख मान्यता, आदि के लिए किया जाता है। एआई पावर और परिष्कार का स्तर प्रदर्शित किया गया था जब Google डीपमिंड के अल्फागो प्रोग्राम, एक गहरे सीखने वाले मॉडल ने दुनिया के सर्वश्रेष्ठ मानव गो खिलाड़ियों को हरा दिया [3]। गहरी सीखने वाले एल्गोरिदम ऐप्पल, माइक्रोसॉफ्ट, अमेज़ॅन और Google द्वारा भाषण-मान्यता प्रौद्योगिकी का हिस्सा हैं [4]। वैश्विक स्तर पर कई उद्योगों में एआई तैनात किया जा रहा है, इस प्रकार इसकी अस्पष्टता को संबोधित करने के महत्व को कम किया जा रहा है।

वैज्ञानिक और शोधकर्ता वर्तमान में एआई के ब्लैक बॉक्स के रूप में संदर्भित होने वाले लोगों को नष्ट करने पर काम कर रहे हैं; कोई भी नहीं जानता कि वास्तव में अपने फैसले में कितनी गहरी शिक्षा आती है। विडंबना यह है कि मस्तिष्क के बाद कृत्रिम बुद्धि का मॉडल किया जाता है, और ऐसा करके, मानव संज्ञान की अनजान जटिलता प्राप्त होती है।

संदर्भ

1. फ्रेडरिको अजेवेडो एट अल।, “न्यूरोनल और नॉन्यूरोनल कोशिकाओं की समान संख्याएं मानव मस्तिष्क को एक आइसोमेट्रिकली स्केल-अप प्राइमेट मस्तिष्क बनाती हैं।” तुलनात्मक न्यूरोलॉजी की जर्नल । 200 9 अप्रैल 10।

2. क्लार्क, लिआट। “Google का कृत्रिम मस्तिष्क बिल्ली वीडियो ढूंढना सीखता है।” वायर्ड यूके । 06.26.12।

3. गिब्नी, एलिजाबेथ। “Google का विजेता गो एल्गोरिदम आगे क्या करेगा।” प्रकृति । 15 मार्च 2016।

4. पार्लॉफ, रोजर। “दीप लर्निंग क्यों अचानक आपके जीवन को बदल रही है।” फॉर्च्यून । 28 सितंबर, 2016।

5. एनवीआईडीआईए। “जीपीयू-त्वरित कंप्यूटिंग क्या है?” 20 फरवरी, 2018 को http://www.nvidia.com/object/what-is-gpu-computing.html से पुनर्प्राप्त

6. वेडमैन मेटिस, सेठ। “4 गहरी सीखने की सफलता व्यापार के नेताओं को समझना चाहिए।” वेंचर बीट । 23 जनवरी, 2018।

Intereting Posts
घर या स्कूल में, अगर यह कूड़ा हुआ है, यह कूड़ा हुआ है I हर चमकती चीज़ सोना नहीं होती कॉलेज परिसरों पर यौन हमला कैसे उसका मन पढ़ें जलवायु परिवर्तन, पार्टिसंसशिप और संघर्ष: मौसम-पीड़ित राष्ट्र क्या करना है? ए ड्रीम ऑफ लव: ओएसएफ के “ओकलाहोमा” में ड्रीम बैलेट! कैसे रोकें डेटिंग – सम्मान बचपन का आघात और शराब दुर्व्यवहार: कनेक्शन अपने प्यारे पिल्ला कुत्ते पर इस कॉस्टयूम को मत रखो दो शूरवीर बच्चों की कहानी एक तारीख की आवश्यकता है? कृपया खुद को बेचने के लिए कुत्ते का प्रयोग न करें मेरे शिक्षक एक कंप्यूटर है? कुत्तों को मानव डर की गंध और मिरर क्या चीन ने अभी तक खराब भविष्य के नेता बनवाए हैं? जेम्स हिलमैन: अपना अनिश्चितता का पालन करें