ما هي أنواع Bots المستخدمة في المواقع ومحركات البحث ؟
تبليغسؤال
يرجى شرح بإيجاز لمإذا تشعر أنك ينبغي الإبلاغ عن هذا السؤال.
هناك انواع كثيرة للروبوتات أو Bots التي تستخدمها شركة جوجل وخوادم تقوم بجلب المعلومات من المواقع وتجميع كل شيء عنها من ناحية التصميم حجم الصفحات عدد الروابط والصفحات وهي مستخدمة من مواقع كثيرة منها محركات البحث واشهرها جوجل.
ما هي Bots وكيف يمكن استغلالها للحصول على مفاءة عالية في تصدر المقالات في نتائج البحث ؟
إجابة ( 1 )
يرجى شرح بإيجاز لمإذا تشعر أنك ينبغي الإبلاغ عن هذه الإجابة.
Bots برمجيات ذكية جدا تقوم محركات البحث بإرسالها إلى جميع المواقع حول العالم وتدخل بصفتها زائر عادي يقوم بتحليل الموقع الخاص بك ومعرفة كل التحديثات التي تقوم بها لكي يتم مطابقتها مع الفهرسة التي تمتلكها في قاعدة البيانات ومنها تقوم بالاضافة أو التحديث داخل القواعد الخاصة بمحرك البحث جوجل وباقي المحركات.
المحرك الاساسي لهذه الروبوتات هو ملف يجب ان يكون موجود في كل موقع في المسار الرئيسي ولا يجب أن يتكرر بل توضع كل الأوامر والشفرات لجميع المنصات التابعة الى موقع واحد باختلاف المسارات الخاصة بها داخل الموقع ويسمى Robots.txt وهو المحرك الرئيسي لها ويجب أن تتبع الاوامر الموجودة فيها.
اغلب الاوامر الموجودة في الملف Robots.txt هي Allow التي تستخدم عندما يكون هناك مجلد كامل غير مسموح بالدخول اليه من عناكب البحث ولكن يوجد مجلد جزئي أو ملف معين داخله يتطلب أن يتم فهرسته أما DisAllow فهي تحديد المسار الذي تعتبر أرشفته ممنوعة والأمر sitemap حيث يمكن أن يتم تكراره في حالة وجود خريطة XML لأكثر من منصة واحدة.
بعض البوتات هذه تكون إما مرسلة لمهمة محددة وهي الفهرسة او الحصول على احصائية معينة أو من اجل اكثر من مهمة ولو كنت تستخدم شفرة او برمجية تحسب عدد الزوار اليومي وفي وقت معين و تستعرضها سوف نجدها كزائر ولكن التقنيات المتقدمة في مجال البرمجة سوف تميزها.
أشهر العناكب أو الروبوتات التابعة لجوجل هي :