सामग्री पर जाएँ

प्रेरणा अभियान्त्रण

मुक्त ज्ञानकोश विकिपीडिया से

प्रेरणा अभियान्त्रण या प्रॉम्प्ट अभियान्त्रण (अंग्रेज़ी: prompt engineering) वह प्रक्रिया है जिसके द्वारा कृत्रिम बुद्धिमत्ता (कृ॰बु॰) के सृजनात्मक मॉडल से उत्तम निष्पादन प्राप्त करने हेतु निर्देशों को सुव्यवस्थित अथवा सुसज्जित किया जाता है।[1]

प्रॉम्प्ट वह प्राकृतिक भाषा में लिखा गया पाठ होता है जो उस कार्य का वर्णन करता है जिसे कृ॰बु॰ को सम्पन्न करना चाहिए।[2] पाठ-से-पाठ भाषा मॉडल के लिए प्रॉम्प्ट एक प्रश्न, आदेश, अथवा एक विस्तृत कथन हो सकता है जिसमें प्रसंग, निर्देश तथा संवाद का इतिहास सम्मिलित होता है। प्रॉम्प्ट अभियान्त्रण में प्रश्न की रचना, शैली का निर्धारण, शब्दों एवं व्याकरण की चयन प्रक्रिया, उपयुक्त प्रसंग की प्रस्तुति अथवा कृ॰बु॰ द्वारा अनुकरण हेतु किसी पात्र का वर्णन सम्मिलित हो सकता है।[3][4]

जब किसी पाठ-से-चित्र अथवा पाठ-से-ध्वनि मॉडल से संवाद किया जाता है, तब सामान्य प्रॉम्प्ट उस इच्छित निष्पादन का वर्णन होता है, जैसे “एक उच्च गुणवत्ता वाला छायाचित्र जिसमें एक अन्तरिक्षयात्री घोड़े की सवारी कर रहा हो” अथवा “लो-फ़ाई, मंद बीपीएम, इलेक्ट्रो शीतल ध्वनि जिसमें जैविक नमूनों का प्रयोग हो।” पाठ-से-चित्र मॉडल को प्रॉम्प्ट करते समय इच्छित विषयवस्तु, शैली, विन्यास, प्रकाश व्यवस्था तथा सौन्दर्यबोध प्राप्त करने हेतु शब्दों को जोड़ना, हटाना अथवा विशेष रूप से उभारना आवश्यक हो सकता है।[5][6][7]

पाठ-से-पाठ

[संपादित करें]

प्रॉम्प्ट अभियान्त्रण की अनेक विशिष्ट तकनीकें प्रकाशित की जा चुकी हैं।

विचार-श्रृंखला

[संपादित करें]

विचार-श्रृंखला प्रॉम्प्टिंग एक ऐसी तकनीक है जिसके द्वारा विशाल भाषा मॉडल (वीभामो) किसी समस्या को अन्तिम उत्तर देने से पूर्व मध्यवर्ती चरणों की श्रृंखला के रूप में हल करते हैं। संवत् २०७९ (वर्ष २०२२ ई॰) में गूगल ब्रेन ने यह प्रतिवेदित किया कि विचार-श्रृंखला प्रॉम्प्टिंग से तर्कशक्ति में वृद्धि होती है, क्योंकि यह मॉडल को बहु-चरणीय समस्या को विचारों की श्रृंखला के रूप में हल करने हेतु प्रेरित करता है।[8][9]

यह तकनीक विशेष रूप से उन कार्यों के लिए विकसित की गई है जिनमें बहु-चरणीय तर्क आवश्यक होता है, जैसे गणितीय प्रश्न अथवा सामान्य बुद्धि पर आधारित प्रश्न।[10][11]

उदाहरणार्थ, यदि प्रश्न हो—“प्रश्न: भोजनालय में २३ सेब थे। यदि उन्होंने दोपहर के भोजन हेतु २० सेबों का प्रयोग किया और ६ सेब और खरीदे, तो उनके पास कितने सेब हैं?”, तो गूगल के अनुसार विचार-श्रृंखला प्रॉम्प्ट इस प्रकार उत्तर उत्पन्न कर सकता है—[12]

“उत्तर: प्रारम्भ में भोजनालय में २३ सेब थे। उन्होंने दोपहर के भोजन हेतु २० सेबों का प्रयोग किया। अतः उनके पास २३ − २० = ३ सेब बचे। उन्होंने ६ सेब और खरीदे, अतः उनके पास ३ + ६ = ९ सेब हैं। उत्तर है: ९।”[13]

जब यह तकनीक पाम नामक ५४० अरब पैरामीटर वाले भाषा मॉडल पर लागू की गई, तब गूगल के अनुसार यह मॉडल को उन कार्यों में उत्कृष्ट निष्पादन करने में सहायक सिद्ध हुई जिनमें विशिष्ट रूप से प्रशिक्षित मॉडल प्रयुक्त होते थे। उस समय यह जीएसएम८के गणितीय तर्कशक्ति मानक पर सर्वोत्तम परिणाम प्राप्त करने में सफल रहा।[14][15]

इस क्षमता को और अधिक विकसित करने हेतु विचार-श्रृंखला तर्कशक्ति डेटासेट पर मॉडल को पुनः प्रशिक्षित किया जा सकता है, जिससे व्याख्यायता में भी सुधार होता है।[16]

गूगल द्वारा मूल रूप से प्रस्तावित इस तकनीक में प्रत्येक विचार-श्रृंखला प्रॉम्प्ट के साथ एक इनपुट/आउटपुट उदाहरणों का समूह होता है, जिन्हें निदर्शक कहा जाता है। यह इसे कुछ-उदाहरणीय प्रॉम्प्टिंग तकनीक बनाता है।

किन्तु गूगल तथा टोक्यो विश्वविद्यालय के शोधकर्ताओं द्वारा प्रकाशित एक अन्य शोधपत्र के अनुसार केवल “आइए चरण-दर-चरण विचार करें” जैसे शब्द जोड़ना भी प्रभावी सिद्ध हुआ, जिससे यह तकनीक शून्य-उदाहरणीय रूप में भी प्रयुक्त की जा सकती है।

कुछ-उदाहरणीय विचार-श्रृंखला प्रॉम्प्टिंग का उदाहरणात्मक प्रारूप:[17]

प्रश्न: {उदाहरण प्रश्न १}

उत्तर: {उदाहरण उत्तर १}

 … प्रश्न: {उदाहरण प्रश्न n} उत्तर: {उदाहरण उत्तर n}

प्रश्न: {मुख्य प्रश्न} उत्तर: {वीभामो का निष्पादन}

शून्य-उदाहरणीय विचार-श्रृंखला प्रॉम्प्टिंग का उदाहरणात्मक प्रारूप:[18][19]

प्रश्न: {मुख्य प्रश्न}। आइए चरण-दर-चरण विचार करें। उत्तर: {वीभामो का निष्पादन}


सन्दर्भ

[संपादित करें]
  1. Genkina, Dina (2024-03-06). "AI Prompt Engineering is Dead: Long live AI prompt engineering". IEEE Spectrum. अभिगमन तिथि: 2025-01-18.
  2. Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya (2019). "Language Models are Unsupervised Multitask Learners" (PDF). OpenAI. We demonstrate language models can perform down-stream tasks in a zero-shot setting – without any parameter or architecture modification
  3. Wahle, Jan Philip; Ruas, Terry; Xu, Yang; Gipp, Bela (2024). "Paraphrase Types Elicit Prompt Engineering Capabilities". In Al-Onaizan, Yaser; Bansal, Mohit; Chen, Yun-Nung (eds.). Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing. Miami, Florida, USA: Association for Computational Linguistics. pp. 11004–11033. आर्काइव:2406.19898. डीओआई:10.18653/v1/2024.emnlp-main.617.
  4. Wahle, Jan Philip; Ruas, Terry; Xu, Yang; Gipp, Bela (2024). "Paraphrase Types Elicit Prompt Engineering Capabilities". In Al-Onaizan, Yaser; Bansal, Mohit; Chen, Yun-Nung (eds.). Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing. Miami, Florida, USA: Association for Computational Linguistics. pp. 11004–11033. आर्काइव:2406.19898. डीओआई:10.18653/v1/2024.emnlp-main.617.
  5. Heaven, Will Douglas (April 6, 2022). "This horse-riding astronaut is a milestone on AI's long road towards understanding". MIT Technology Review. अभिगमन तिथि: 2023-08-14.
  6. Mittal, Aayush (2023-07-27). "Mastering AI Art: A Concise Guide to Midjourney and Prompt Engineering". Unite.AI (अमेरिकी अंग्रेज़ी भाषा में). अभिगमन तिथि: 2025-05-09.
  7. Wiggers, Kyle (2023-06-12). "Meta open sources an AI-powered music generator". TechCrunch. अभिगमन तिथि: 2023-08-15. Next, I gave a more complicated prompt to attempt to throw MusicGen for a loop: "Lo-fi slow BPM electro chill with organic samples."
  8. Wei, Jason; Wang, Xuezhi; Schuurmans, Dale; Bosma, Maarten; Ichter, Brian; Xia, Fei; Chi, Ed H.; Le, Quoc V. एवम् अन्य (31 October 2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models" (en में). 35. Advances in Neural Information Processing Systems (NeurIPS 2022).
  9. Narang, Sharan; Chowdhery, Aakanksha (2022-04-04). "Pathways Language Model (PaLM): Scaling to 540 Billion Parameters for Breakthrough Performance". ai.googleblog.com.
  10. Dang, Ekta (8 February 2023). "Harnessing the power of GPT-3 in scientific research". VentureBeat. मूल से से 18 मार्च 2023 को पुरालेखित।. अभिगमन तिथि: 10 March 2023.
  11. Montti, Roger (13 May 2022). "Google's Chain of Thought Prompting Can Boost Today's Best Algorithms". Search Engine Journal (अंग्रेज़ी भाषा में). अभिगमन तिथि: 10 March 2023.
  12. Wei, Jason; Wang, Xuezhi; Schuurmans, Dale; Bosma, Maarten; Ichter, Brian; Xia, Fei; Chi, Ed H.; Le, Quoc V. एवम् अन्य (31 October 2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models" (en में). 35. Advances in Neural Information Processing Systems (NeurIPS 2022).
  13. Wei, Jason; Wang, Xuezhi; Schuurmans, Dale; Bosma, Maarten; Ichter, Brian; Xia, Fei; Chi, Ed H.; Le, Quoc V. एवम् अन्य (31 October 2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models" (en में). 35. Advances in Neural Information Processing Systems (NeurIPS 2022).
  14. "Scaling Instruction-Finetuned Language Models" (PDF). Journal of Machine Learning Research. 2024.
  15. Wei, Jason; Tay, Yi (29 November 2022). "Better Language Models Without Massive Compute". ai.googleblog.com (अंग्रेज़ी भाषा में). अभिगमन तिथि: 10 March 2023.
  16. Wei, Jason; Wang, Xuezhi; Schuurmans, Dale; Bosma, Maarten; Ichter, Brian; Xia, Fei; Chi, Ed H.; Le, Quoc V. एवम् अन्य (31 October 2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models" (en में). 35. Advances in Neural Information Processing Systems (NeurIPS 2022).
  17. weipaper
  18. Kojima, Takeshi; Shixiang Shane Gu; Reid, Machel; Matsuo, Yutaka; Iwasawa, Yusuke (2022). "Large Language Models are Zero-Shot Reasoners". NeurIPS. आर्काइव:2205.11916.
  19. Kojima, Takeshi; Shixiang Shane Gu; Reid, Machel; Matsuo, Yutaka; Iwasawa, Yusuke (2022). "Large Language Models are Zero-Shot Reasoners". NeurIPS. आर्काइव:2205.11916.