डीप लर्निंग
यह लेख किसी और भाषा में लिखे लेख का खराब अनुवाद है। यह किसी ऐसे व्यक्ति द्वारा लिखा गया है जिसे हिन्दी अथवा स्रोत भाषा की सीमित जानकारी है। कृपया इस अनुवाद को सुधारें। मूल लेख "अन्य भाषाओं की सूची" में "{{{1}}}" में पाया जा सकता है। |
डीप लर्निंग सीखने के साथ तंत्रिका नेटवर्क पर आधारित मशीन लर्निंग विधियों का उपसमुच्चय है। विशेषण "डीप" नेटवर्क में कई परतों के उपयोग को संदर्भित करता है।[1] उपयोग की जाने वाली विधियाँ या तो पर्यवेक्षित, अर्ध-पर्यवेक्षित या अपर्यवेक्षित हो सकती हैं।
डीप तंत्रिका नेटवर्क, डीप बिलीफ नेटवर्क, रिकरेंट न्यूरल नेटवर्क, कन्वोल्यूशनल न्यूरल नेटवर्क और ट्रांसफॉर्मर जैसे डीप-लर्निंग आर्किटेक्चर को कंप्यूटर विज़न, स्पीच रिकग्निशन,कन्नड़ भाषाविज्ञान, मशीन अनुवाद, बायोइन्फॉर्मेटिक्स, औषधि डिजाइन, मेडिकल इमेज एनालिसिस, क्लाइमेट साइंस, मैटेरियल इंस्पेक्शन और बोर्ड गेम प्रोग्राम जैसे क्षेत्रों में लागू किया गया है, जहाँ उन्होंने मानव विशेषज्ञ प्रदर्शन के बराबर और भी मामलों में बेहतर परिणाम दिये हैं तंत्रिका नेटवर्क के शुरुआती रूप जैविक प्रणालियों, विशेष रूप से मानव मस्तिष्क में सूचना प्रसंस्करण और वितरित संचार नोड्स से प्रेरित थे। हालाँकि, वर्तमान तंत्रिका नेटवर्क जीवों के मस्तिष्क के कार्य[2] को मॉडल करने का इरादा नहीं रखते हैं, और आम तौर पर उस उद्देश्य के लिए कम गुणवत्ता वाले मॉडल के रूप में देखे जाते हैं। अवलोकन अधिकांश आधुनिक डीप लर्निंग मॉडल बहु-स्तरित तंत्रिका नेटवर्क जैसे कि कन्वोल्यूशनल न्यूरल नेटवर्क और ट्रांसफॉर्मर पर आधारित होते हैं, हालांकि वे डीप जेनेरेटिव मॉडल जैसे कि डीप बिलीफ नेटवर्क और डीप बोल्ट्जमैन मशीनों में नोड्स में परत-वार व्यवस्थित प्रस्ताव सूत्र या अव्यक्त चर भी शामिल कर सकते हैं।
मूल रूप से, डीप लर्निंग मशीन लर्निंग एल्गोरिदम के एक वर्ग को संदर्भित करता है जिसमें परतों के पदानुक्रम का उपयोग इनपुट डेटा को थोड़ा अधिक अमूर्त और समग्र प्रतिनिधित्व में बदलने के लिए किया जाता है। उदाहरण के लिए, एक छवि पहचान मॉडल में, कच्चा इनपुट एक छवि हो सकती है (पिक्सल के टेंसर के रूप में दर्शाया गया है)। पहली प्रतिनिधित्व परत रेखाओं और वृत्तों जैसी बुनियादी आकृतियों की पहचान करने का प्रयास कर सकती है, दूसरी परत किनारों की व्यवस्था की रचना और एन्कोड कर सकती है, तीसरी परत नाक और आंखों को एन्कोड कर सकती है, और चौथी परत पहचान सकती है कि छवि में एक चेहरा है। महत्वपूर्ण रूप से, एक गहन शिक्षण प्रक्रिया यह सीख सकती है कि किस स्तर पर कौन सी सुविधाएँ इष्टतम रूप से रखी जानी चाहिए। गहन शिक्षण से पहले, मशीन लर्निंग तकनीकों में अक्सर डेटा को एक वर्गीकरण एल्गोरिथ्म के संचालन के लिए अधिक उपयुक्त प्रतिनिधित्व में बदलने के लिए हाथ से तैयार की गई सुविधा इंजीनियरिंग शामिल होती थी। गहन शिक्षण दृष्टिकोण में, सुविधाएँ हाथ से तैयार नहीं की जाती हैं और मॉडल स्वचालित रूप से डेटा से उपयोगी सुविधा अभ्यावेदन खोजता है। यह हाथ से ट्यूनिंग की आवश्यकता को समाप्त नहीं करता है; उदाहरण के लिए, परतों और परत के आकार की अलग-अलग संख्याएँ अमूर्तता की विभिन्न डिग्री प्रदान कर सकती हैं। "डीप लर्निंग" में "डीप" शब्द परतों की संख्या को संदर्भित करता है जिसके माध्यम से डेटा को रूपांतरित किया जाता है। अधिक सटीक रूप से, डीप लर्निंग सिस्टम में पर्याप्त क्रेडिट असाइनमेंट पथ (CAP) गहराई होती है। CAP इनपुट से आउटपुट तक परिवर्तनों की श्रृंखला है। CAP इनपुट और आउटपुट के बीच संभावित कारण कनेक्शन का वर्णन करते हैं। फीडफॉरवर्ड न्यूरल नेटवर्क के लिए, CAP की गहराई नेटवर्क की गहराई होती है और छिपी हुई परतों की संख्या प्लस एक होती है (क्योंकि आउटपुट परत भी पैरामीटराइज़ की जाती है)। आवर्तक तंत्रिका नेटवर्क के लिए, जिसमें एक संकेत एक परत के माध्यम से एक से अधिक बार प्रसारित हो सकता है, CAP गहराई संभावित रूप से असीमित है। गहराई की कोई सार्वभौमिक रूप से सहमत सीमा उथले सीखने को डीप लर्निंग से अलग नहीं करती है, लेकिन अधिकांश शोधकर्ता इस बात से सहमत हैं कि डीप लर्निंग में 2 से अधिक CAP गहराई शामिल होती है। गहराई 2 के CAP को इस अर्थ में एक सार्वभौमिक सन्निकटनकर्ता के रूप में दिखाया गया है कि यह किसी भी फ़ंक्शन का अनुकरण कर सकता है। इससे आगे, अधिक परतें नेटवर्क की फ़ंक्शन सन्निकटन क्षमता में नहीं जुड़ती हैं। गहरे मॉडल उथले मॉडल की तुलना में बेहतर विशेषताएं निकालने में सक्षम हैं और इसलिए, अतिरिक्त परतें विशेषताओं को प्रभावी ढंग से सीखने में मदद करती हैं। डीप लर्निंग आर्किटेक्चर का निर्माण लालची परत-दर-परत विधि से किया जा सकता है।डीप लर्निंग इन अमूर्तताओं को अलग करने और यह चुनने में मदद करता है कि कौन सी विशेषताएँ प्रदर्शन को बेहतर बनाती हैं।
डीप लर्निंग एल्गोरिदम को अनसुपरवाइज्ड लर्निंग कार्यों पर लागू किया जा सकता है। यह एक महत्वपूर्ण लाभ है क्योंकि लेबल रहित डेटा लेबल वाले डेटा की तुलना में अधिक प्रचुर मात्रा में होता है। डीप संरचनाओं के उदाहरण जिन्हें अनसुपरवाइज्ड तरीके से प्रशिक्षित किया जा सकता है, वे डीप बिलीफ नेटवर्क हैं। व्याख्याएँ गहरे तंत्रिका नेटवर्क की व्याख्या आम तौर पर सार्वभौमिक सन्निकटन प्रमेय के संदर्भ में की जाती है इतिहास कृत्रिम तंत्रिका नेटवर्क (एएनएन) के दो प्रकार थे: फीडफॉरवर्ड न्यूरल नेटवर्क (एफएनएन) और आवर्तक तंत्रिका नेटवर्क (आरएनएन)। आरएनएन की कनेक्टिविटी संरचना में चक्र होते हैं, एफएनएन में नहीं। 1920 के दशक में, विल्हेम लेनज़ और अर्न्स्ट इसिंग ने इसिंग मॉडल का निर्माण और विश्लेषण किया जो अनिवार्य रूप से न्यूरॉन जैसे थ्रेशोल्ड तत्वों से युक्त एक गैर-शिक्षण आरएनएन वास्तुकला है। 1972 में, शुनिची अमारी ने इस वास्तुकला को अनुकूली बनाया। उनके शिक्षण आरएनएन को 1982 में जॉन हॉपफील्ड द्वारा लोकप्रिय बनाया गया था।
सन्दर्भ
[संपादित करें]- ↑ लेकुन, Yann; Bengio, Yoshua; Hinton, Geoffrey (मई 2015). "Deep learning". Nature (अंग्रेज़ी में). पपृ॰ 436–444. डीओआइ:10.1038/nature14539.
- ↑ "Study urges caution when comparing neural networks to the brain". MIT News | Massachusetts Institute of Technology (हिंदी में). 2 नवम्बर 2022.सीएस1 रखरखाव: नामालूम भाषा (link)