द फ्यूचर जस्ट ने एक बड़ा और डरावना कदम उठाया

क्या कार्य-कारण प्रौद्योगिकी का शिकार हो सकता है?

Pixabay

स्रोत: पिक्साबे

भविष्य ने एक और कदम आगे बढ़ाया। लेकिन यह अपने आविष्कारक, OpenAI द्वारा अपने पटरियों में सही बंद कर दिया गया था। अपनी वेबसाइट के अनुसार, OpenAI एक गैर-लाभकारी AI अनुसंधान कंपनी है, जो कृत्रिम सामान्य बुद्धिमत्ता के लिए मार्ग की खोज और अधिनियमित करती है। एलोन मस्क बैकर्स में से एक हैं।

हाल ही के एक ब्लॉग पोस्ट में, ओपनएआई की तकनीक, जिसे जीपीटी 2 कहा जाता है, को शिल्प लिखित मार्ग दिखाया गया जो किसी दिए गए नमूने की शैली और सामग्री की नकल करता है। अब एक पल के लिए इस बारे में सोचें। आर्टिफिशियल इंटेलिजेंस एक साधारण लेखन नमूने पर आपकी साहित्यिक आवाज के आधार को फिर से बना सकता है। और वह “आप” किसी के बारे में हो सकता है: जॉन नोस्टा, विलियम शेक्सपियर या, मुझे लगता है, एलोन मस्क खुद। मेरी समझ यह है कि उद्घोषणा के लिए ईमेल में मुद्रित शब्द-हमेशा लेखक का वास्तविक प्रतिबिंब रहा है। शैली और सामग्री टाइपोग्राफिक व्यक्तित्व है जो संचार को बढ़ाती है। लेकिन यह अंतर्दृष्टि मानवता के लिए प्रौद्योगिकी के घुसपैठ का शिकार हो सकती है।

ये नवाचार योग्यता के बिना नहीं हैं। उपयोगिता महत्वपूर्ण है और, जैसा कि उनके ब्लॉग पोस्ट में सुझाया गया है, इसमें कई प्रकार के एप्लिकेशन शामिल हो सकते हैं जिसमें सहायक, लेखन में सुधार, और बेहतर भाषण पहचान शामिल हैं। लेकिन कहानी निश्चित रूप से थोड़ी अधिक जटिल है। लेखन शैली की नकल करने की क्षमता ने महत्वपूर्ण चिंताएँ बढ़ा दी हैं। नकली समाचार उत्पन्न करने से लेकर एकमुश्त प्रतिरूपण तक, दुरुपयोग की संभावना के विषय में है। यह इतना संबंधित है, कि इस तकनीक को तकनीकी विराम के साथ मिला। OpenAI इस आधुनिक दिनों के पेंडोरा बॉक्स को नहीं खोल रहा है, लेकिन “प्रयोग” के लिए ढक्कन को थोड़ा खुला छोड़ देगा।

हमारा मॉडल, जिसे GPT-2 (GPT का उत्तराधिकारी) कहा जाता है, को केवल 40GB इंटरनेट टेक्स्ट में अगले शब्द की भविष्यवाणी करने के लिए प्रशिक्षित किया गया था। प्रौद्योगिकी के दुर्भावनापूर्ण अनुप्रयोगों के बारे में हमारी चिंताओं के कारण, हम प्रशिक्षित मॉडल को जारी नहीं कर रहे हैं। जिम्मेदार प्रकटीकरण में एक प्रयोग के रूप में, हम इसके बजाय शोधकर्ताओं द्वारा प्रयोग करने के लिए एक बहुत छोटा मॉडल जारी कर रहे हैं, साथ ही साथ एक तकनीकी पेपर भी।

लेकिन यह कहानी का सिर्फ एक हिस्सा है।

ऐसे शब्दों को शिल्प करने की क्षमता से परे जो सटीक रूप से विशिष्ट लेखकों को आईना दिखाते हैं, वीडियो को संशोधित करने की उभरती क्षमता है। सामग्री और वीडियो एक “नई वास्तविकता” बनाने के लिए विलय कर रहे हैं जो वास्तव में गूढ़ है। नीत्शे के शब्दों ने जॉन बुलिशी के चरित्र को तोड़ दिया, शायद इस मैश-अप का हास्य पक्ष, लेकिन, कठोर वास्तविकता ही वास्तविकता है। सत्य प्रौद्योगिकी के संदर्भ में ग्रस्त है क्योंकि जो बचा है उसका वर्णन करना लगभग असंभव है। भौतिकी में, गैर-कारण वास्तविकता कहा जाने वाला एक शब्द है जो बताता है कि कैसे घटनाओं को समझ में नहीं आता है अगर चीजें प्रकाश की गति से तेज यात्रा कर सकती हैं। सीधे शब्दों में कहें, तो एक गैर-कारण वास्तविकता (प्रकाश से तेज है) एक पर्यवेक्षक को इसके प्रभाव से पहले देखने का परिणाम दे सकती है। और आगामी प्रश्न ध्यान देने की मांग करते हैं: हम क्या विश्वास कर सकते हैं?

विज्ञान और दर्शन ने कार्य-कारण जगत का विचार प्रस्तुत किया। और हमारे कारण दुनिया में, भौतिकी ने एक गैर-कारण वास्तविकता का परिचय दिया – प्रकाश की गति से जांच में रखा, कम से कम अब के लिए। GPT2 के भाषा कौशल के साथ संयुक्त वीडियो संपादन और जोड़तोड़ में प्रगति का सुझाव है कि एक नया गैर-कारण वास्तविकता उभर सकता है। कल्पना से तथ्य को समझने और यहां तक ​​कि हमारी वास्तविकता को नेविगेट करने की हमारी क्षमता बदलने वाली हो सकती है। शायद बेहतर शब्द “परिवर्तन” नहीं है, लेकिन एक बिंदु पर “बदलाव” जहां एक अनुभवजन्य वास्तविकता एक काल्पनिक दायरे का हिस्सा है जो हमारे बहुवचन का विस्तार करता है।

OpenAI ने एक अपरिहार्य कदम आगे बढ़ाया है और प्रौद्योगिकी के नए पेंडोरा के बॉक्स के ढक्कन को खोलता है। इसे खोलना एक जबरदस्त प्रयास था। मुझे आश्चर्य है कि अगर उस ढक्कन को बंद रखने की उनकी सावधानीपूर्ण मुद्रा – कम से कम मुख्यधारा के नवाचार और शोषण के लिए – तो बहुत मुश्किल होगा।