Robots.txt

From binaryoption
Jump to navigation Jump to search
Баннер1

रोबोट्स.txt

रोबोट्स.txt एक टेक्स्ट फ़ाइल है जिसका उपयोग वेबसाइटें वेब क्रॉलर (जिन्हें अक्सर "रोबोट" या "स्पाइडर" भी कहा जाता है) को यह बताने के लिए करती हैं कि वेबसाइट के किन हिस्सों को क्रॉल (अनुक्रमणित) नहीं करना है। यह एक महत्वपूर्ण उपकरण है सर्च इंजन ऑप्टिमाइजेशन (SEO) में, क्योंकि यह वेबसाइट के मालिकों को यह नियंत्रित करने की अनुमति देता है कि सर्च इंजन उनकी वेबसाइट को कैसे देखते हैं। हालांकि रोबोट्स.txt सर्च इंजन को वेबसाइट के कुछ हिस्सों को क्रॉल करने से रोक सकता है, लेकिन यह गारंटी नहीं देता है कि वे ऐसा करेंगे।

रोबोट्स.txt का इतिहास

रोबोट्स.txt प्रोटोकॉल की शुरुआत 1997 में हुई थी। उस समय, वेब तेजी से बढ़ रहा था और सर्च इंजन वेब पेजों को क्रॉल करने के लिए संघर्ष कर रहे थे। इससे वेबसाइटों पर अनावश्यक भार पड़ रहा था और कुछ मामलों में, वेबसाइटें क्रॉलिंग के कारण क्रैश भी हो रही थीं। रोबोट्स.txt प्रोटोकॉल का उद्देश्य सर्च इंजन को यह बताने का एक तरीका प्रदान करना था कि वेबसाइट के किन हिस्सों को क्रॉल नहीं करना है, जिससे वेबसाइटों पर भार कम हो सके और सर्च इंजन के लिए वेब को अधिक कुशलता से क्रॉल करना आसान हो सके।

रोबोट्स.txt कैसे काम करता है

रोबोट्स.txt फाइल वेबसाइट के रूट डायरेक्टरी में स्थित होनी चाहिए। इसका नाम हमेशा "robots.txt" होना चाहिए और यह एक साधारण टेक्स्ट फ़ाइल होती है। रोबोट्स.txt फ़ाइल में नियम होते हैं जो यह बताते हैं कि कौन से वेब क्रॉलर वेबसाइट के किन हिस्सों को क्रॉल करने की अनुमति है और किन हिस्सों को नहीं।

रोबोट्स.txt फ़ाइल में दो मुख्य घटक होते हैं:

  • यूजर-एजेंट (User-agent): यह वेब क्रॉलर का नाम बताता है जिसके लिए नियम लागू होते हैं। उदाहरण के लिए, "Googlebot" गूगल के वेब क्रॉलर के लिए यूजर-एजेंट है।
  • डिसअलाउ (Disallow): यह उन URL या डायरेक्टरी को बताता है जिन्हें क्रॉलर को क्रॉल नहीं करना चाहिए।

यहां एक सरल रोबोट्स.txt फ़ाइल का उदाहरण दिया गया है:

``` User-agent: Googlebot Disallow: /admin/ Disallow: /tmp/ ```

इस उदाहरण में, Googlebot को /admin/ और /tmp/ डायरेक्टरी को क्रॉल करने से मना किया गया है।

रोबोट्स.txt के नियम

रोबोट्स.txt फ़ाइल में कई अलग-अलग नियम हो सकते हैं। यहां कुछ सबसे सामान्य नियम दिए गए हैं:

  • यूजर-एजेंट (User-agent): यह नियम बताता है कि नियम किस वेब क्रॉलर पर लागू होते हैं। यदि कोई यूजर-एजेंट निर्दिष्ट नहीं है, तो नियम सभी वेब क्रॉलर पर लागू होते हैं।
  • डिसअलाउ (Disallow): यह नियम बताता है कि क्रॉलर को किन URL या डायरेक्टरी को क्रॉल नहीं करना चाहिए।
  • अलाउ (Allow): यह नियम बताता है कि क्रॉलर को किन URL या डायरेक्टरी को क्रॉल करने की अनुमति है। यह नियम आमतौर पर डिसअलाउ नियम को ओवरराइड करने के लिए उपयोग किया जाता है।
  • क्रॉल-डिले (Crawl-delay): यह नियम बताता है कि क्रॉलर को दो अनुरोधों के बीच कितने सेकंड तक इंतजार करना चाहिए। यह वेबसाइट पर भार कम करने में मदद कर सकता है। (ध्यान दें: सभी क्रॉलर क्रॉल-डिले का समर्थन नहीं करते हैं।)
  • साइटमैप (Sitemap): यह नियम वेबसाइट के साइटमैप का URL बताता है। साइटमैप सर्च इंजन को वेबसाइट के सभी पेजों को खोजने और अनुक्रमणित करने में मदद करता है।

रोबोट्स.txt के उपयोग के उदाहरण

यहां कुछ उदाहरण दिए गए हैं कि रोबोट्स.txt का उपयोग कैसे किया जा सकता है:

  • निजी क्षेत्रों को क्रॉलिंग से रोकना: आप रोबोट्स.txt का उपयोग अपनी वेबसाइट के उन क्षेत्रों को क्रॉलिंग से रोकने के लिए कर सकते हैं जो सार्वजनिक रूप से उपलब्ध नहीं हैं, जैसे कि आपके प्रशासनिक क्षेत्र या विकास क्षेत्र।
  • डुप्लिकेट सामग्री को क्रॉलिंग से रोकना: यदि आपकी वेबसाइट में डुप्लिकेट सामग्री है, तो आप रोबोट्स.txt का उपयोग सर्च इंजन को डुप्लिकेट सामग्री को क्रॉल करने से रोकने के लिए कर सकते हैं। इससे आपकी वेबसाइट की सर्च इंजन रैंकिंग में सुधार करने में मदद मिल सकती है।
  • सर्वर पर भार कम करना: आप रोबोट्स.txt का उपयोग क्रॉलिंग की गति को धीमा करने के लिए कर सकते हैं, जिससे आपके सर्वर पर भार कम हो सकता है।
  • अस्थायी फ़ाइलों को क्रॉलिंग से रोकना: आप रोबोट्स.txt का उपयोग अस्थायी फ़ाइलों या अन्य गैर-महत्वपूर्ण फ़ाइलों को क्रॉलिंग से रोकने के लिए कर सकते हैं।

रोबोट्स.txt के साथ सामान्य गलतियाँ

रोबोट्स.txt का उपयोग करते समय कुछ सामान्य गलतियाँ हैं जिनसे बचना चाहिए:

  • गलत सिंटैक्स: रोबोट्स.txt फ़ाइल में गलत सिंटैक्स होने पर यह काम नहीं करेगा। सुनिश्चित करें कि आपकी फ़ाइल सही ढंग से स्वरूपित है।
  • अति-प्रतिबंधात्मक नियम: यदि आप अपनी रोबोट्स.txt फ़ाइल में बहुत अधिक प्रतिबंधात्मक नियम बनाते हैं, तो आप सर्च इंजन को अपनी वेबसाइट के महत्वपूर्ण हिस्सों को क्रॉल करने से रोक सकते हैं।
  • रोबोट्स.txt को अनदेखा करना: कुछ वेब क्रॉलर रोबोट्स.txt फ़ाइल को अनदेखा कर सकते हैं। इसका मतलब है कि आपकी वेबसाइट के कुछ हिस्सों को अभी भी क्रॉल किया जा सकता है, भले ही आपने उन्हें रोबोट्स.txt में ब्लॉक कर दिया हो।
  • महत्वपूर्ण फ़ाइलों को ब्लॉक करना: गलती से महत्वपूर्ण फ़ाइलों जैसे सीएसएस, जावास्क्रिप्ट, या छवियों को ब्लॉक न करें। इससे आपकी वेबसाइट का प्रदर्शन प्रभावित हो सकता है।

रोबोट्स.txt का परीक्षण

आप यह सुनिश्चित करने के लिए अपनी रोबोट्स.txt फ़ाइल का परीक्षण कर सकते हैं कि यह सही ढंग से काम कर रही है। गूगल सर्च कंसोल एक ऐसा उपकरण है जिसका उपयोग आप अपनी रोबोट्स.txt फ़ाइल का परीक्षण करने और यह देखने के लिए कर सकते हैं कि गूगल बोट आपकी वेबसाइट को कैसे देखेगा।

रोबोट्स.txt और .htaccess

.htaccess फ़ाइल सर्वर कॉन्फ़िगरेशन को नियंत्रित करने के लिए उपयोग की जाती है। जबकि रोबोट्स.txt क्रॉलर को सुझाव देता है कि क्या क्रॉल करना है, .htaccess क्रॉलर को सीधे ब्लॉक कर सकता है। .htaccess का उपयोग करके क्रॉलर को ब्लॉक करना अधिक प्रभावी है, लेकिन यह अधिक जटिल भी है।

रोबोट्स.txt और मेटा टैग्स

आप रोबोट्स.txt के अलावा मेटा टैग्स का उपयोग करके भी सर्च इंजन को अपनी वेबसाइट के कुछ हिस्सों को क्रॉल करने से रोक सकते हैं। मेटा टैग्स HTML कोड में जोड़े जाते हैं और सर्च इंजन को यह बताते हैं कि किसी विशेष पेज को अनुक्रमणित करना है या नहीं।

निष्कर्ष

रोबोट्स.txt एक शक्तिशाली उपकरण है जिसका उपयोग वेबसाइट के मालिक अपनी वेबसाइट के क्रॉलिंग को नियंत्रित करने के लिए कर सकते हैं। रोबोट्स.txt का उपयोग करके, आप अपनी वेबसाइट पर भार कम कर सकते हैं, डुप्लिकेट सामग्री को क्रॉलिंग से रोक सकते हैं और अपनी सर्च इंजन रैंकिंग में सुधार कर सकते हैं।

अतिरिक्त संसाधन

बाइनरी ऑप्शन से सम्बन्धित कुछ लिंक (संदर्भ के लिए)

हालांकि यह लेख मुख्य रूप से robosts.txt पर केंद्रित है, बाइनरी ऑप्शन के संदर्भ में कुछ प्रासंगिक लिंक यहां दिए गए हैं:

अभी ट्रेडिंग शुरू करें

IQ Option पर रजिस्टर करें (न्यूनतम जमा $10) Pocket Option में खाता खोलें (न्यूनतम जमा $5)

हमारे समुदाय में शामिल हों

हमारे Telegram चैनल @strategybin से जुड़ें और प्राप्त करें: ✓ दैनिक ट्रेडिंग सिग्नल ✓ विशेष रणनीति विश्लेषण ✓ बाजार की प्रवृत्ति पर अलर्ट ✓ शुरुआती के लिए शिक्षण सामग्री

Баннер