كيف تعمل محركات البحث
الزحف crawling
- تقوم محركات البحث بعملية زحف مستمر عبر googlebot لصفحات المواقع
الاكترونية بطريقة عشوائية في البداية وتتبع الروابط من خلال روابط وصل اليها الى
ان يقوم مالك الموقع بإنشاء خريطة للموقع sitemap
ويعطيها لجوجل وفق برمجة محددة يقوم بها المبرمج لتكون مرشدا لجوجل google search
- بعد ان يصل جوجل الى عنوان رابط url
يعرض محرّك البحث Google
الصفحة ويحلّل المحتوى النصي وغير النصي ويحلّل التصميم المرئي العام لتحديد
المكان المناسب لظهور الصفحة في نتائج البحث. وكلما تمكّن محرّك البحث Google من فهم موقعك الإلكتروني بشكل أفضل، زادت
قدرته على المطابقة بين موقعك الإلكتروني والمستخدمين الذين يبحثون عن المحتوى
الذي تنشره
- نموذج عملي لطريقة عمل googlebot من
خلال موقع awamp.com
- تستخدم جوجل مجموعة ضخمة من أجهزة
الكمبيوتر للزحف الى مليارات الصفحات على الويب وجلبها من خلال برنامج googlebot وهو معروف أيضًا باسم برنامج روبوت أو برنامج
تتبّع أو برنامج عنكبوت .
يستخدم
Googlebot عملية تعتمد على
الخوارزميات لتحديد المواقع الإلكترونية التي يزحف إليها وعدد مرات الزحف وعدد
الصفحات التي يجلبها من كل موقع إلكتروني.
انواع الزحف
الزحف الأساسي / الزحف الثانوي
يستخدم
محرّك البحث Google زاحفَين مختلفَين للزحف
إلى المواقع الإلكترونية: زاحف خاص بالأجهزة الجوّالة وآخر خاص بأجهزة كمبيوتر سطح
المكتب. يحاكي كل نوع زاحف مستخدمًا يزور صفحتك على جهاز من ذلك النوع.
يتم
الزحف إلى جميع صفحات موقعك الإلكتروني التي يزحف إليها محرّك البحث Google باستخدام الزاحف
الأساسي. ويتم استخدام الزاحف الخاص بالأجهزة الجوّالة كزاحف أساسي إلى جميع
المواقع الإلكترونية الجديدة
* يعيد محرّك البحث Google الزحف إلى بعض صفحات
موقعك الإلكتروني بنوع الزاحف الآخر (الخاص بالأجهزة الجوّالة أو أجهزة كمبيوتر
سطح المكتب). ويُعرف هذا الإجراء باسم الزحف الثانوي، ويتم تنفيذه لتقييم أداء
موقعك الإلكتروني على النوع الآخر من الأجهزة.
اساليب
مساعدة محرك البحث للوصل الى صفحات الموقع او منع الوصول اليها
Sitemap
يعد
انشاء ملف sitemap
او ملف خريطة بصفحات الموقع المراد توجيه محرك البحث اليها هو الافضل على الاطلاق
والمقصود به برمجة نص بلغة xml وارسالها لمحرك البحث عبر الموقع الالكتروني
تتضمن روابط صفحات الموقع وذلك لتسهيل عمله.
سكربت
برمجي لـ sitemap
يتم
رفع السكريبت الى ملفات الموقع الخاص بك ..يفضل ان يقوم بذلك مبرمج.
<urlset
xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://www.awamp.com/>
<lastmod>2021-10-01>
<changefreq>monthly>
<priority>0.5>
url>
<url>
<loc>https://www.awamp.com/blog_single.php?awa=81>
<changefreq>daily>
url>
<url>
<loc>https://www.awamp.com/your_code.php>
<lastmod>2021-11-01>
<changefreq>monthly>
url>
<url>
<loc>https://www.awamp.com/sourceCode.php>
<lastmod>2021-11-20>
<priority>0.5>
url>
<url>
<loc>https://www.awamp.com/courses.php>
<lastmod>2021-11-20>
url>
<url>
<loc>https://www.awamp.com/exam>
<lastmod>2021-11-20>
url>
<url>
<loc>https://www.awamp.com/exam>
<lastmod>2021-11-20>
url>
<url>
<loc>https://www.awamp.com/phpLang.php>
<lastmod>2021-11-20>
url>
<url>
<loc>https://www.awamp.com/htmllang.php>
<lastmod>2021-11-20>
url>
urlset>
كيف يتعرّف محرّك البحث على الصفحات المطلوب
عدم الزحف إليها؟
- بعد ان
تعرفنا على آلية اخبار محرك البحث بالصفحات المراد البحث عنها يمكنا ان نخبره
بالصفحات المراد عدم البحث عنها.
يتم ذلك من خلال ملف robots.text
والذي يتم ارسال تعليماته الى جوجل
ايضا عبر الموقع الخاص بي ولكن لا يعني ذلك ان محرك البحث لن يقوم بالفهرسة بل
سيجري عملية فهرسة للصفحة وربما يستخدمها لاحقا اذا عثر على رابط الصفحة كرابط في
موقع اخر ويعد تخفيف الضغط على الخادم او السيرفر الذي يستضيف موقعك اهم مميزات
عدم زحف محرك البحث حيث انه يستنزف موارد الموقع.
علينا ايضا كمطورين واصحاب مواقع اخبار جوجل بالصفحات
المدفوعة او الروابط التي تتطلب تسجيل دخول او محتوى غير مرغوب فيه لتجنب تمرير
اشارات الجودة الخاصة التي يرفعها جوجل عن موقعك بالاضافة لتقليل استنزاف موارد
الموقع ويتم ذلك من خلال استخدام خاصية nofollow
وتدرج في قسم head بموقعك الالكتروني كالاتي:
<a
rel="nofollow"
href="http://www.awamp.com/your_code">alam wahed>
اما في حالة الرغبة في عدم فهرسة صفحة محددة مع عدم استخدام
robots.text فاننا نستخدم الخاصية noindex
كالاتي
<meta name="robots" content="noindex"
/>
التعامل مع آلية العمل بـ AJAX
اذا كان موقعك الالكتروني يستخدم في برمجته ajax وهو
المرجح مثل مواقع يوتيوب وفيس بوك وغيرها من المواقع الكبرى فعليك الاتي:
اولا اجاكس Ajax ليست لغة برمجة مستقلة انما تقنية لارسال
واستقبال طلبات HTTP بدون الحاجة
إلى اعادة تحميل صفحة الويب كاملة مما يزيد من سرعة الصفحة.
ثانيا اجاكس
تستخدم بشكل اساسي لغة جافا سكريبت وهو الامر الذي يعطل برامج الزحف مثل googlebot
لذللك يجب الحذر عن برمجة موقع واستخدام الاجاكس فافضل الطرق هي إنشاء بنية
موقعك الإلكتروني وروابط التنقل في الموقع باستخدام تنسيق HTML فقط. وبعد إنشاء صفحات وروابط ومحتوى الموقع
الإلكتروني، يمكنك تحسين المظهر والواجهة باستخدام AJAX. ولن يواجه Googlebot أي صعوبة في فحص محتوى HTML، ويظل بإمكان مستخدمي المتصفحات الحديثة
الاستفادة من الميزات الإضافية التي يقدمها لهم تنسيق AJAX في موقعك الإلكتروني.
شهادة التأمين ssl
اذا لم تكن قد حصلت على شهادة تامين لموقعك بعد وتستخدم
بروتوكول http فافعل ذلك الان واستخدم بروتوكول https
تقارير تحسين محركات البحث واثبات ملكية
الموقع search console and google
analytics
· توفر هذه التقارير مقاييس رئيسية تشمل مرات الظهور ونسبة
النقر إلى الظهور حسب الكلمة الرئيسية (طلب البحث) والجهاز وغير ذلك الكثير.
· طريقة التعامل مع serach console واثبات ملكيتك للموقع
· الربط مع google
analytics
والاستفادة من التقارير