जनरेटिव आर्टिफ़िशियल इंटेलिजेंस (एआई) मॉडल को बेहतर बनाने से, मॉडल के काम करने का तरीका बदल जाता है. जैसे, Gemma. आम तौर पर, Gemma को किसी खास टास्क या डोमेन पर उसकी परफ़ॉर्मेंस को बेहतर बनाने या ग्राहक सेवा जैसी भूमिका को बेहतर तरीके से निभाने के लिए, बेहतर बनाया जाता है. Gemma मॉडल, ओपन वज़न के साथ रिलीज़ किए जाते हैं. इसका मतलब है कि उन वज़न में बदलाव किया जा सकता है. इससे मॉडल के काम करने का तरीका बदल जाता है. Gemma मॉडल को बेहतर बनाने के लिए, यह तरीका अपनाएं:
कोई फ़्रेमवर्क चुनना
Gemma मॉडल, एआई ट्यूनिंग के कई फ़्रेमवर्क के साथ काम करते हैं. हर फ़्रेमवर्क के कई फ़ायदे होते हैं. आम तौर पर, यह किसी खास मॉडल फ़ॉर्मैट तक ही सीमित होता है. यहां अलग-अलग फ़्रेमवर्क के साथ Gemma मॉडल को ट्यून करने के लिए गाइड दी गई हैं:
- LoRA का इस्तेमाल करने वाला Keras
- JAX के लिए Gemma लाइब्रेरी
- गले लगाने वाला चेहरा
- Google Cloud GKE (एचएफ ट्रांसफ़ॉर्मर के साथ मल्टी-जीपीयू)
- Unsloth
- Axolotl
- डिस्ट्रिब्यूटेड ट्यूनिंग का इस्तेमाल करने वाला Keras
पक्का करें कि आपने जिस मॉडल फ़ॉर्मैट (जैसे, Keras फ़ॉर्मैट, Safetensors या GGUF) को डिप्लॉय करने का फ़ैसला लिया है वह आपके चुने गए फ़्रेमवर्क के साथ काम करता हो.
डेटा संग्रहित करें
मॉडल ट्यूनिंग के लिए डेटा की ज़रूरत होती है. आम तौर पर, ट्यूनिंग डेटा में, अनुमानित रिस्पॉन्स के साथ इनपुट डेटा के पेयर होते हैं. अलग-अलग टास्क या आउटपुट के लिए, ऑनलाइन कई सार्वजनिक डेटासेट उपलब्ध हैं. उदाहरण के लिए, अगर आपको कार के हिस्से की जानकारी को पार्ट नंबर में बदलने के लिए, Gemma मॉडल को ट्रेन करना है, तो आपके डेटासेट में ये चीज़ें शामिल हो सकती हैं:
training_data = [
{"input_text": "Part number for A4 brake caliper", "output_text": "4M0615107BS"},
{"input_text": "Part number for Beetle fuel pump", "output_text": "6A127026H"},
{"input_text": "Part number for Camaro cylinder head", "output_text": "12711770"},
]
अगर आपको Gemma मॉडल से किसी खास टास्क या भूमिका को पूरा कराना है, तो आम तौर पर आपको उस टास्क के कई वैरिएशन दिखाने वाला डेटासेट इकट्ठा करना होगा. मॉडल को ट्यून करने के लिए, आपको कितना डेटा चाहिए, यह आपके लक्ष्यों पर निर्भर करता है. खास तौर पर, आपको मॉडल से व्यवहार में कितना बदलाव चाहिए और आपको मॉडल को, पूरे किए जाने वाले टास्क और इनपुट डेटा में बदलाव के लेवल के आधार पर, कितनी अच्छी परफ़ॉर्मेंस चाहिए.
आम तौर पर, आपको टास्क ट्यून करने के लिए, डेटा के छोटे सेट से शुरू करना चाहिए. इसके बाद, ट्रेनिंग पैरामीटर में बदलाव करें और तब तक डेटा जोड़ें, जब तक आपको अपनी ज़रूरतों के हिसाब से टास्क की परफ़ॉर्मेंस नहीं मिल जाती. हमारे कुछ ऐप्लिकेशन के उदाहरणों से पता चलता है कि 20 प्रॉम्प्ट और रिस्पॉन्स के पेयर की मदद से, Gemma मॉडल के व्यवहार पर असर डाला जा सकता है. ज़्यादा जानकारी के लिए, Gemma की मदद से, कारोबार के ईमेल के लिए एआई असिस्टेंट बनाएं और Gemma की मदद से, बोली जाने वाली भाषाओं में टास्क पूरा करें लेख पढ़ें.
मॉडल को ट्यून करना और उसकी जांच करना
ट्यूनिंग फ़्रेमवर्क और ट्यूनिंग डेटा सेट अप करने के बाद, Gemma मॉडल को ट्यून करने की प्रोसेस शुरू की जा सकती है. ट्यूनिंग करते समय, आपके पास ट्यून करने के कुछ विकल्प होते हैं. इन विकल्पों से, ट्यूनिंग पूरी करने के लिए ज़रूरी रिसॉर्स पर असर पड़ता है. आपके पास ट्यून किए गए मॉडल के लिए, जांच करने का प्लान भी होना चाहिए. इससे यह पता चलता है कि ट्यून करने के बाद, मॉडल आपकी उम्मीद के मुताबिक परफ़ॉर्म कर रहा है या नहीं.
पैरामीटर-इफ़िशिएंट ट्यूनिंग
Gemma जैसे ओपन वेट मॉडल को बेहतर बनाने के लिए, आपके पास मॉडल के सभी पैरामीटर को ट्यून करने का विकल्प होता है. इसके अलावा, कम रिसॉर्स का इस्तेमाल करने वाली पैरामीटर ट्यूनिंग तकनीक का इस्तेमाल करके, उनके सबसेट को अपडेट किया जा सकता है. पूरी ट्यूनिंग के तरीके का मतलब है कि ट्यूनिंग डेटा लागू करने पर, मॉडल के सभी पैरामीटर के लिए नए वेट का हिसाब लगाया जाता है. यह तरीका, कंप्यूट और मेमोरी के लिहाज़ से ज़्यादा खर्चीला होता है, क्योंकि इसमें अरबों पैरामीटर के लिए गणना की जाती है. पैरामीटर के हिसाब से बेहतर तरीके से ट्यून करने (पीएफ़ईटी) का इस्तेमाल करके, कम रिसॉर्स वाले ट्यूनिंग तरीके अपनाए जा सकते हैं. इनमें लो रैंक अडैप्टर (LoRA) ट्यूनिंग जैसी तकनीकें शामिल हैं. इनसे कम कंप्यूट रिसॉर्स का इस्तेमाल करके, मिलते-जुलते नतीजे मिल सकते हैं. LoRA का इस्तेमाल करके, कम संसाधनों के साथ ट्यूनिंग करने का तरीका जानने के लिए, LoRA का इस्तेमाल करके, Keras में Gemma मॉडल को फ़ाइन-ट्यून करना और Hugging Face में Gemma मॉडल को फ़ाइन-ट्यून करना लेख पढ़ें.
ट्यून किए गए मॉडल की जांच करना
किसी खास टास्क के लिए मॉडल को ट्यून करने के बाद, आपको उन टास्क के लिए मॉडल की परफ़ॉर्मेंस की जांच करनी चाहिए जिन्हें आपको पूरा करना है. आपको अपने मॉडल को उन टास्क या अनुरोधों के साथ टेस्ट करना चाहिए जिनके लिए उसे खास तौर पर ट्रेनिंग नहीं दी गई थी. ट्यून किए गए मॉडल की जांच करने का तरीका इस बात पर निर्भर करता है कि आपको उसे कौनसा काम करना है. साथ ही, यह भी ज़रूरी है कि मॉडल के इनपुट और आउटपुट को कितनी बारीकी से मैनेज किया जाए. जनरेटिव मॉडल की जांच को मैनेज करने का एक सामान्य तरीका यह है कि सफलता, असफलता, और बॉर्डरलाइन के मामलों का इस्तेमाल किया जाए:
- सफलता की जांच: यह अनुरोध करता है कि ट्यून किया गया मॉडल हमेशा बेहतर तरीके से काम करे.
- फ़ेल होने की जांच: अनुरोध करता है कि ट्यून किया गया मॉडल हमेशा काम न करे या अनुरोध किए जाने पर साफ़ तौर पर काम करने से मना करे.
- सीमा से जुड़ी जांच: इनसे यह अनुरोध किया जाता है कि ट्यून किए गए मॉडल को, तय सीमा या सीमाओं के सेट में आने वाले आउटपुट के व्यवहार के हिसाब से काम करना चाहिए.
अपने जनरेटिव एआई ऐप्लिकेशन के लिए, गड़बड़ी या सीमाओं की जांच करते समय, आपको जनरेटिव एआई की सुरक्षा के तरीकों, तकनीकों, और टूल को भी लागू करना चाहिए. इनके बारे में ज़िम्मेदारी के साथ इस्तेमाल किए जाने वाले जनरेटिव एआई टूलकिट में बताया गया है.
मॉडल को डिप्लॉय करना
ट्यूनिंग और टेस्टिंग पूरी करने के बाद, मॉडल को डिप्लॉय करने का समय आ गया है. आम तौर पर, बेहतर बनाया गया मॉडल डिप्लॉय करने का तरीका जानने के लिए, चुने गए फ़्रेमवर्क के दस्तावेज़ देखे जा सकते हैं.
अगर LoRA ट्यून किए गए वेट के साथ मॉडल डिप्लॉय किया जा रहा है, तो ध्यान दें कि इस तकनीक का इस्तेमाल करके, आम तौर पर ओरिजनल मॉडल और उसके वेट, दोनों को डिप्लॉय किया जाता है. साथ ही, मॉडल के लिए अतिरिक्त कैलकुलेशन लेयर के तौर पर LoRA वेट का इस्तेमाल किया जाता है.