Press "Enter" to skip to content

ओपनएआई 'सुपरइंटेलिजेंट' एआई को सुलझाने के लिए शोधकर्ताओं को नियुक्त कर रहा है

एआई दिग्गज का अनुमान है कि मानव जैसी मशीनी बुद्धि आ सकती है 10 साल, इसलिए वे चार में इसके लिए तैयार होना चाहते हैं।

छवि: पॉपटिका/शटरस्टॉक ओपनएआई अन्य एआई के साथ सुपर-स्मार्ट कृत्रिम बुद्धिमत्ता पर काम करने के लिए शोधकर्ताओं की तलाश कर रहा है। अंतिम लक्ष्य मानव-जैसी मशीन इंटेलिजेंस के खतरे को कम करना है जो विज्ञान कथा हो भी सकती है और नहीं भी।

“हमें वैज्ञानिक और तकनीकी सफलताओं की आवश्यकता है एआई सिस्टम को हमसे कहीं अधिक स्मार्ट तरीके से चलाएं और नियंत्रित करें,” ओपनएआई एलाइनमेंट के प्रमुख जान लेइक और सह-संस्थापक और मुख्य वैज्ञानिक इल्या सुतस्केवर ने एक ब्लॉग पोस्ट में लिखा।

यहां जाएं:

ओपनएआई की सुपरएलाइनमेंट टीम अब भर्ती कर रही है एआई ट्रेनर अन्य एआई मॉडल को कतार में रख सकता है सुपरइंटेलिजेंट एआई: वास्तविक या विज्ञान कथा? OpenAI की सुपरअलाइनमेंट टीम अब भर्ती कर रही है सुपरअलाइनमेंट टीम समर्पित होगी 20 ओपनएआई की कुल गणना शक्ति का % भविष्य के एआई उत्पादों को लाइन में रखने के लिए मानव-स्तरीय स्वचालित संरेखण शोधकर्ता को प्रशिक्षित करने के लिए है। उस दिशा में, OpenAI का नया सुपरएलाइनमेंट समूह एक शोध इंजीनियर, शोध वैज्ञानिक और अनुसंधान प्रबंधक को नियुक्त कर रहा है।

OpenAI का कहना है कि AI को नियंत्रित करने की कुंजी संरेखण है, या यह सुनिश्चित करना कि एआई वह काम करता है जो मनुष्य करना चाहता है।

कंपनी ने यह भी कहा है कि उसका एक उद्देश्य “अधीक्षण बुद्धि” ,” या मानव से भी अधिक क्षमताओं वाला AI। यह महत्वपूर्ण है कि ये विज्ञान-कल्पना-जैसे हाइपरइंटेलिजेंट एआई “मानवीय इरादे का पालन करें,” लीके और सुतस्केवर ने लिखा। वे पिछले दशक के भीतर सुपरइंटेलिजेंट एआई के विकास की आशा करते हैं और अगले चार वर्षों के भीतर इसे नियंत्रित करने का एक तरीका चाहते हैं।

देखें: अपने संगठन में कृत्रिम बुद्धिमत्ता के उपयोग के लिए एक नैतिक नीति कैसे बनाएं (टेकरिपब्लिक प्रीमियम)

एआई ट्रेनर अन्य एआई मॉडल को कतार में रख सकता है आज, एआई प्रशिक्षण के लिए बहुत अधिक मानवीय इनपुट की आवश्यकता होती है। लीके और सुतस्केवर का प्रस्ताव है कि एआई विकसित करने के लिए भविष्य की चुनौती प्रतिकूल हो सकती है – अर्थात्, “हमारे मॉडल की प्रशिक्षण के दौरान पर्यवेक्षण का सफलतापूर्वक पता लगाने और उसे कमजोर करने में असमर्थता।”

इसलिए, वे कहते हैं, एक एआई को प्रशिक्षित करने के लिए एक विशेष एआई की आवश्यकता होगी जो इसे बनाने वाले लोगों को मात दे सके। एआई शोधकर्ता जो अन्य एआई मॉडलों को प्रशिक्षित करता है, ओपनएआई तनाव परीक्षण में मदद करेगा और कंपनी की संपूर्ण संरेखण पाइपलाइन का पुनर्मूल्यांकन करेगा।

ओपनएआई द्वारा संरेखण को संभालने के तरीके को बदलने में तीन प्रमुख लक्ष्य शामिल हैं :

एआई बनाना जो अन्य एआई का मूल्यांकन करने और उन मॉडलों को समझने में सहायता करता है उस प्रकार की निगरानी की व्याख्या करें जो मनुष्य आमतौर पर करता है। समस्याग्रस्त व्यवहार की खोज को स्वचालित करना या एआई के भीतर आंतरिक डेटा। जानबूझकर “बनाकर इस संरेखण पाइपलाइन का तनाव-परीक्षण यह सुनिश्चित करने के लिए कि संरेखण AI उनका पता लगा सके, गलत संरेखित” AI। ओपनएआई की पिछली संरेखण टीम के कार्मिक और अन्य टीमें नए कर्मचारियों के साथ सुपरसंरेखण पर काम करेंगी। नई टीम का निर्माण सुपरइंटेलिजेंट एआई में सुटस्केवर की रुचि को दर्शाता है। वह सुपरएलाइनमेंट को अपना प्राथमिक अनुसंधान फोकस बनाने की योजना बना रहा है।

सुपरइंटेलिजेंट एआई: वास्तविक या विज्ञान कथा? क्या “अधीक्षकता” कभी अस्तित्व में होगी, यह बहस का विषय है।

ओपनएआई सुपरइंटेलिजेंस को सामान्यीकृत बुद्धिमत्ता से ऊंचे स्तर के रूप में प्रस्तावित करता है, एआई का एक मानव-सदृश वर्ग जिसके बारे में कुछ शोधकर्ताओं का कहना है कि यह कभी अस्तित्व में नहीं होगा। हालाँकि, कुछ Microsoft शोधकर्ताओं का मानना ​​​​है कि GPT-4 मानकीकृत परीक्षणों पर उच्च स्कोरिंग इसे सामान्यीकृत बुद्धिमत्ता की सीमा तक पहुँचाता है।

अन्य लोगों को संदेह है कि बुद्धिमत्ता को वास्तव में मापा जा सकता है मानकीकृत परीक्षणों द्वारा, या आश्चर्य है कि क्या सामान्यीकृत एआई का विचार तकनीकी चुनौती के बजाय दार्शनिक दृष्टिकोण तक पहुंचता है। बड़े भाषा मॉडल “संदर्भ में” भाषा की व्याख्या नहीं कर सकते हैं और इसलिए मानव-जैसी सोच जैसी किसी चीज़ पर नहीं पहुंचते हैं, 2022 एआई के लिए कोहेरे के अध्ययन से पता चला। (इनमें से किसी भी अध्ययन की सहकर्मी-समीक्षा नहीं की गई है।)

देखें: एआई के कुछ उच्च जोखिम वाले उपयोगों को यूरोपीय संसद में विकसित किए जा रहे कानूनों के तहत कवर किया जा सकता है। (टेकरिपब्लिक)

OpenAI का लक्ष्य AI विकास की गति से आगे निकलना है ओपनएआई सुपरइंटेलिजेंस के खतरे को संभावित मानता है लेकिन आसन्न नहीं।

“हमारे पास विकास की गति को लेकर बहुत अनिश्चितता है अगले कुछ वर्षों में प्रौद्योगिकी, इसलिए हम अधिक सक्षम प्रणाली को संरेखित करने के लिए अधिक कठिन लक्ष्य का चयन करते हैं,” लीके और सुटस्केवर ने लिखा।

वे यह भी बताते हैं कि चैटजीपीटी जैसे मौजूदा एआई उत्पादों में सुरक्षा में सुधार करना एक प्राथमिकता है, और एआई सुरक्षा की चर्चा में “एआई से होने वाले जोखिम जैसे दुरुपयोग, आर्थिक व्यवधान, दुष्प्रचार, पूर्वाग्रह और भेदभाव, लत और अतिनिर्भरता, और अन्य” भी शामिल होने चाहिए। ” और “संबंधित सामाजिक-तकनीकी समस्याएं।” पहले से ही संरेखण पर काम नहीं कर रहा है – इसे हल करने के लिए महत्वपूर्ण होगा,” लीके और सुतस्केवर ने ब्लॉग पोस्ट में कहा।

Be First to Comment

Leave a Reply

Your email address will not be published. Required fields are marked *