सदस्य:Navnnethp/प्रयोगपृष्ठ

मुक्त ज्ञानकोश विकिपीडिया से

CNN कृत्रिम तंत्रिका नेटवर्क[संपादित करें]

this picture represents nueral networks.

परिचय[संपादित करें]

सीएनएन[[1]] फीड फॉरवर्ड आर्किटेक्चर पर आधारित एक प्रकार का गहन कृत्रिम तंत्रिका नेटवर्क है जो दृश्य इमेजरी में लागू होने पर कुशल साबित होता है। इसकी बहु-परत अवधारणात्मक डिजाइन के कारण न्यूनतम प्री-प्रोसेसिंग की आवश्यकता होती है और हमेशा यह माना जाता है कि इसे प्राप्त इनपुट एक छवि है जो वास्तव में वास्तुकला में कुछ मापदंडों को पारित करने में मदद करता है। हालांकि, इस धारणा के कारण हम आगे के कार्य को अधिक कुशलता से लागू करने में सक्षम हैं और यह भी नेटवर्क में मापदंडों को कम करने में मदद करेगा। मशीन लर्निंग में, CNN, या कन्वनेट गहरे, फ़ीड-फॉरवर्ड कृत्रिम तंत्रिका नेटवर्क का एक वर्ग है, जिसे विज़ुअल इमेजरी का विश्लेषण करने के लिए सफलतापूर्वक लागू किया गया है। यह अन्य छवि वर्गीकरण एल्गोरिदम की तुलना में अपेक्षाकृत कम पूर्व-प्रसंस्करण का उपयोग करता है। नेटवर्क उन फिल्टर को सीखता है जो पारंपरिक एल्गोरिदम[[2]] में हाथ से इंजीनियर थे। पूर्व ज्ञान और फीचर डिजाइन में मानव प्रयास से यह स्वतंत्रता एक प्रमुख लाभ है। चित्र 4.2: सीएनएन का कार्य करना। एक CNN में एक इनपुट लेयर, आउटपुट लेयर और कई छिपी हुई लेयर्स होती हैं। इसकी वास्तुकला अलग-अलग परतों के ढेर से बनती है जो इनपुट वॉल्यूम को एक अलग फ़ंक्शन के माध्यम से आउटपुट वॉल्यूम में बदल देती है। कुछ विशिष्ट प्रकार की छिपी हुई परतें जो आमतौर पर उपयोग की जाती हैं वे हैं: संकेंद्रित परत: दृढ़ परत एक सीएनएन का कोर बिल्डिंग ब्लॉक है। परत के मापदंडों में सीखने योग्य फिल्टर (या गुठली) का एक सेट होता है, जिसमें एक छोटा सा ग्रहणशील क्षेत्र[[3]] होता है, लेकिन इनपुट वॉल्यूम की पूरी गहराई से विस्तार होता है। फ़ॉरवर्ड पास के दौरान, प्रत्येक फ़िल्टर को इनपुट वॉल्यूम की चौड़ाई और ऊँचाई पर फ़िल्टर और प्रविष्टियों के बीच डॉट उत्पाद की गणना करने और उस फ़िल्टर के 2-आयामी सक्रियण मानचित्र का निर्माण करने के लिए प्रेरित किया जाता है। नतीजतन, नेटवर्क फिल्टर को सीखता है जो इनपुट में कुछ स्थानिक स्थिति में कुछ विशिष्ट प्रकार की सुविधा का पता लगाने पर सक्रिय करता है।

नेटवर्क डिजाइन[संपादित करें]

चित्र 4.3: संवेदी परत। पूलिंग परत: CNNs की एक अन्य महत्वपूर्ण अवधारणा पूलिंग है, जो नॉनलाइनियर डाउन-सैंपलिंग का एक रूप है। पूलिंग को लागू करने के लिए कई गैर-रैखिक कार्य हैं जिनमें से अधिकतम पूलिंग सबसे आम है। यह गैर-अतिव्यापी आयतों के एक सेट में इनपुट छवि को विभाजित करता है और इस तरह के प्रत्येक उप-क्षेत्र के लिए, अधिकतम आउटपुट करता है। अंतर्ज्ञान यह है कि किसी विशेषता का सटीक स्थान अन्य विशेषताओं के सापेक्ष उसके किसी भी स्थान से कम महत्वपूर्ण नहीं है। पूलिंग परत उत्तरोत्तर रूप से प्रतिनिधित्व के स्थानिक आकार को कम करने, मापदंडों की संख्या और नेटवर्क में गणना की मात्रा को कम करने के लिए कार्य करती है, और इसलिए फिटिंग पर भी नियंत्रण रखती है। चित्रा 4.4: मैक्स पूलिंग लेयर। पूरी तरह से जुड़ा हुआ: पूरी तरह से जुड़ी हुई परतें एक परत में हर न्यूरॉन को एक परत में दूसरी न्यूरॉन से जोड़ती हैं। अंत में, कई दृढ़ और अधिकतम पूलिंग परतों के बाद, तंत्रिका नेटवर्क में उच्च-स्तरीय तर्क पूरी तरह से जुड़े परतों के माध्यम से किया जाता है।पूरी तरह से जुड़ी हुई परत में न्यूरॉन्स के पास पिछली परत में सभी सक्रियणों के कनेक्शन होते हैं, जैसा कि नियमित तंत्रिका नेटवर्क में देखा जाता है। इसलिए उनकी सक्रियता की गणना एक मैट्रिक्स गुणन के साथ की जा सकती है जिसके बाद पूर्वाग्रह ऑफसेट होता है।

अन्य[संपादित करें]

हमारे प्रशिक्षण डेटा के लिए मोनोक्रोम[[4]] चित्र इनपुट का आकार 128x128 था। हम अपने प्रयोगों के लिए वांछित पिक्सेल आकार प्राप्त करने के लिए हमारी इनपुट छवियों को क्रॉप कर सकते हैं। छवियों को संकेंद्रित परतों के ढेर के माध्यम से संसाधित किया जाता है जहां हमने 3x3.Our नेटवर्क के एक छोटे फिल्टर आकार का उपयोग किया है जिसमें कुल 21 परतें शामिल हैं। हमने 3x3 कंसॉलिडेटेड लेयर के लिए 1 पिक्सेल की पैडिंग के साथ 1 पिक्सेल[[5]] के एक निश्चित कंफ्यूशियल स्ट्राइड का उपयोग किया है। अधिकतम-पूलिंग के लिए हमने एक पिक्सेल विंडो का उपयोग किया है