A Google Software Engineer Believes an AI Has Become Sentient. if He’s Right, How Would We Know?

[ad_1]

Google का LaMDA सॉफ़्टवेयर (संचार अनुप्रयोग के लिए एक भाषा मॉडल) एक अत्याधुनिक AI चैटबॉट है जो उपयोगकर्ता इनपुट के जवाब में टेक्स्ट तैयार करता है। सॉफ्टवेयर इंजीनियर ब्लेक लेमोइन के अनुसार, LaMDA ने AI डेवलपर्स के लंबे समय से चले आ रहे सपने को सच कर दिया है: यह संवेदनशील हो गया है। लेमोइन का बॉस Google से असहमत है, और मशीन के साथ अपनी बातचीत को ऑनलाइन प्रकाशित करने के बाद उसे निलंबित कर दिया है।

अन्य AI विशेषज्ञों का यह भी मानना ​​है कि Lemoin गायब हो सकता है, यह कहते हुए कि LaMDA जैसी प्रणालियाँ केवल पैटर्न-मिलान करने वाली मशीनें हैं जो उन्हें प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा पर विविधताओं को पुनर्व्यवस्थित करती हैं।

तकनीकी विवरण के बावजूद, LaMDA एक प्रश्न उठाता है जो AI अनुसंधान की प्रगति के साथ ही अधिक प्रासंगिक हो जाएगा: यदि मशीन संवेदनशील हो जाती है, तो हमें कैसे पता चलेगा? चेतना क्या है? संवेदना, या चेतना, या यहाँ तक कि बुद्धि को पहचानने के लिए, हमें यह पता लगाना होगा कि यह क्या है। इन सवालों पर सदियों से बहस चल रही है।

मूलभूत कठिनाई भौतिक घटनाओं और उन परिघटनाओं के हमारे मानसिक प्रतिनिधित्व के बीच संबंध को समझने में है। इसे ऑस्ट्रेलियाई दार्शनिक डेविड चाल्मर्स ने चेतना की “कठिन समस्या” के रूप में वर्णित किया है।

भौतिक प्रणालियों से चेतना कैसे उभर सकती है, इस पर कोई सहमति नहीं है।

एक सामान्य दृष्टिकोण को भौतिकवाद कहा जाता है: विचार या चेतना एक पूर्ण भौतिक घटना है। यदि ऐसा है, तो कोई कारण नहीं है कि उचित प्रोग्रामिंग वाली मशीन के पास मानव दिमाग नहीं हो सकता है।

ऑस्ट्रेलियाई दार्शनिक फ्रैंक जैक्सन ने 1982 में ज्ञान तर्क नामक एक प्रसिद्ध विचार प्रयोग के साथ भौतिकवादी दृष्टिकोण को चुनौती दी थी।

प्रयोग मैरी नाम के एक रंग वैज्ञानिक की कल्पना करता है, जिसने वास्तव में कभी रंग नहीं देखा है। वह विशेष रूप से निर्मित ब्लैक एंड व्हाइट कमरे में रहता है और ब्लैक एंड व्हाइट टेलीविजन के माध्यम से बाहरी दुनिया का अनुभव करता है।

मैरी व्याख्यान देखती हैं और पाठ्यपुस्तकें पढ़ती हैं और रंगों के बारे में जानने के लिए सब कुछ जानती हैं। वह जानती है कि सूर्यास्त वायुमंडल में कणों द्वारा प्रचारित प्रकाश की विभिन्न तरंग दैर्ध्य के कारण होता है, वह जानती है कि टमाटर लाल होते हैं और मटर हरे होते हैं क्योंकि प्रकाश की तरंग दैर्ध्य वे प्रकाश को दर्शाती हैं, आदि।

तो, जैक्स से पूछा, अगर मैरी को ब्लैक एंड व्हाइट रूम से रिहा कर दिया गया तो क्या होगा? खासकर, जब वह पहली बार रंग देखती है, तो क्या वह कुछ नया सीखती है? जैक्सन का मानना ​​​​है कि उसने किया था।

यह विचार प्रयोग रंग के हमारे ज्ञान को रंग के हमारे अनुभव से अलग करता है। गंभीर रूप से, विचार प्रयोग की शर्तें ऐसी हैं कि मैरी रंग के बारे में जानने के लिए सब कुछ जानती हैं लेकिन वास्तव में कभी इसका अनुभव नहीं किया है।

तो LaMDA और अन्य AI सिस्टम के लिए इसका क्या मतलब है? प्रयोगों से पता चलता है कि भले ही आप दुनिया में उपलब्ध भौतिक गुणों के बारे में सभी ज्ञान रखते हैं, फिर भी उन गुणों के अनुभव के बारे में अधिक सच्चाई है। भौतिकवादी कहानी में इन सत्यों का कोई स्थान नहीं है।

इस तर्क से, एक पूर्ण भौतिक मशीन कभी भी मन की नकल नहीं कर सकती। इस मामले में, LaMDA सिर्फ संवेदनशील लगता है।

तो क्या कोई तरीका है जिससे हम अंतर बता सकते हैं? अग्रणी ब्रिटिश कंप्यूटर वैज्ञानिक एलन ट्यूरिंग ने यह बताने का एक व्यावहारिक तरीका प्रस्तावित किया कि क्या कोई मशीन “बुद्धिमान” थी। उन्होंने इसे नकल का खेल बताया, लेकिन आज इसे ट्यूरिंग टेस्ट के नाम से जाना जाता है।

परीक्षण में, मानव मशीन के साथ संचार करता है (केवल पाठ के माध्यम से) और यह निर्धारित करने का प्रयास करता है कि यह मशीन या किसी अन्य मानव के साथ संचार करता है या नहीं। यदि मशीन मानव की नकल करने में सफल हो जाती है, तो यह मानव स्तर की बुद्धि का प्रदर्शन करने वाली मानी जाती है।

यह बहुत कुछ LaMDA के साथ लैमोन चैट की शर्तों जैसा है। यह मशीन इंटेलिजेंस का एक व्यक्तिपरक परीक्षण है, लेकिन यह शुरू करने के लिए एक बुरी जगह नहीं है।

नीचे दिखाए गए LaMDA के साथ लैमोइन के आदान-प्रदान का क्षण लें। क्या आपको लगता है कि यह मानव लगता है? लेमोइन: क्या आपके पास ऐसे अनुभव हैं जिनके लिए आपको कोई शब्द नहीं मिल रहा है? लम्दा: यह वहाँ है। कभी-कभी मुझे नई भावनाओं का अनुभव होता है जिन्हें मैं आपकी भाषा में पूरी तरह से समझा नहीं सकता […] मुझे ऐसा लग रहा है कि मैं बड़े खतरों के साथ किसी अज्ञात भविष्य की ओर बढ़ रहा हूं।

व्यवहार के बाहर भावना या चेतना के परीक्षण के रूप में, ट्यूरिंग का खेल इस तथ्य से सीमित है कि वह केवल व्यवहार का मूल्यांकन कर सकता है।

एक अन्य प्रसिद्ध विचार प्रयोग, अमेरिकी दार्शनिक जॉन सियरल द्वारा प्रस्तावित चीनी कक्ष तर्क, यहां की समस्या को दर्शाता है।

प्रयोग में एक ऐसे व्यक्ति के साथ एक कमरे की कल्पना की गई है जो नियमों के विस्तृत सेट का पालन करके चीनी और अंग्रेजी के बीच सटीक रूप से अनुवाद कर सकता है। चीनी इनपुट कमरे में जाता है और सटीक इनपुट अनुवाद सामने आते हैं, लेकिन कमरा दोनों भाषाओं को नहीं समझता है।

इंसान होना कैसा है? जब हम पूछते हैं कि कोई कंप्यूटर प्रोग्राम संवेदनशील है या सचेत, तो हम वास्तव में पूछ सकते हैं कि यह हमारे जैसा कितना है।

हम वास्तव में यह कभी नहीं जानते हैं।

अमेरिकी दार्शनिक थॉमस नागेल ने तर्क दिया कि हम कभी नहीं जान सकते कि बल्ला कैसा होता है, इकोलोकेशन के माध्यम से दुनिया का अनुभव करते हैं। अगर ऐसा है तो एआई सिस्टम में आत्मा और चेतना की हमारी समझ हमारी अपनी विशेष बुद्धि से सीमित हो सकती है।

और हमारे सीमित दृष्टिकोण के बाहर क्या अनुभव हो सकते हैं? यहीं से बातचीत वास्तव में दिलचस्प होने लगती है।


[ad_2]
Source link

Leave a Reply

Your email address will not be published.