دورة تصدر محركات البحث SEO

 محمد الضبعان   تاريخ النشر2021-12-04 12:52:33.935855 48363769

كيف تعمل محركات البحث

الزحف  crawling

   - تقوم محركات البحث بعملية زحف مستمر عبر googlebot لصفحات المواقع الاكترونية بطريقة عشوائية في البداية وتتبع الروابط من خلال روابط وصل اليها الى ان يقوم مالك الموقع بإنشاء خريطة للموقع sitemap ويعطيها لجوجل وفق برمجة محددة يقوم بها المبرمج لتكون مرشدا لجوجل google search

   - بعد ان يصل جوجل الى عنوان رابط url  يعرض محرّك البحث Google الصفحة ويحلّل المحتوى النصي وغير النصي ويحلّل التصميم المرئي العام لتحديد المكان المناسب لظهور الصفحة في نتائج البحث. وكلما تمكّن محرّك البحث Google من فهم موقعك الإلكتروني بشكل أفضل، زادت قدرته على المطابقة بين موقعك الإلكتروني والمستخدمين الذين يبحثون عن المحتوى الذي تنشره

  - نموذج عملي لطريقة عمل googlebot  من خلال موقع awamp.com

    - تستخدم جوجل مجموعة ضخمة من أجهزة الكمبيوتر للزحف الى مليارات الصفحات على الويب وجلبها من خلال برنامج googlebot  وهو معروف أيضًا باسم برنامج روبوت أو برنامج تتبّع أو برنامج عنكبوت .

يستخدم Googlebot عملية تعتمد على الخوارزميات لتحديد المواقع الإلكترونية التي يزحف إليها وعدد مرات الزحف وعدد الصفحات التي يجلبها من كل موقع إلكتروني.

انواع الزحف

الزحف الأساسي / الزحف الثانوي

يستخدم محرّك البحث  Google زاحفَين مختلفَين للزحف إلى المواقع الإلكترونية: زاحف خاص بالأجهزة الجوّالة وآخر خاص بأجهزة كمبيوتر سطح المكتب. يحاكي كل نوع زاحف مستخدمًا يزور صفحتك على جهاز من ذلك النوع.

يتم الزحف إلى جميع صفحات موقعك الإلكتروني التي يزحف إليها محرّك البحث Google باستخدام الزاحف الأساسي. ويتم استخدام الزاحف الخاص بالأجهزة الجوّالة كزاحف أساسي إلى جميع المواقع الإلكترونية الجديدة

*  يعيد محرّك البحث Google الزحف إلى بعض صفحات موقعك الإلكتروني بنوع الزاحف الآخر (الخاص بالأجهزة الجوّالة أو أجهزة كمبيوتر سطح المكتب). ويُعرف هذا الإجراء باسم الزحف الثانوي، ويتم تنفيذه لتقييم أداء موقعك الإلكتروني على النوع الآخر من الأجهزة.

اساليب مساعدة محرك البحث للوصل الى صفحات الموقع او منع الوصول اليها

Sitemap

يعد انشاء ملف sitemap او ملف خريطة بصفحات الموقع المراد توجيه محرك البحث اليها هو الافضل على الاطلاق والمقصود به برمجة نص بلغة xml وارسالها لمحرك البحث عبر الموقع الالكتروني تتضمن روابط صفحات الموقع وذلك لتسهيل عمله.

سكربت برمجي لـ sitemap

يتم رفع السكريبت الى ملفات الموقع الخاص بك ..يفضل ان يقوم بذلك مبرمج.

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">

<url>

<loc>https://www.awamp.com/>

<lastmod>2021-10-01>

<changefreq>monthly>

<priority>0.5>

url>

<url>

<loc>https://www.awamp.com/blog_single.php?awa=81>

<changefreq>daily>

url>

<url>

<loc>https://www.awamp.com/your_code.php>

<lastmod>2021-11-01>

<changefreq>monthly>

url>

<url>

<loc>https://www.awamp.com/sourceCode.php>

<lastmod>2021-11-20>

<priority>0.5>

url>

<url>

<loc>https://www.awamp.com/courses.php>

<lastmod>2021-11-20>

url>

<url>

<loc>https://www.awamp.com/exam>

<lastmod>2021-11-20>

url>

<url>

<loc>https://www.awamp.com/exam>

<lastmod>2021-11-20>

url>

<url>

<loc>https://www.awamp.com/phpLang.php>

<lastmod>2021-11-20>

url>

<url>

<loc>https://www.awamp.com/htmllang.php>

<lastmod>2021-11-20>

url>

urlset>

 

كيف يتعرّف محرّك البحث على الصفحات المطلوب عدم الزحف إليها؟

  - بعد ان تعرفنا على آلية اخبار محرك البحث بالصفحات المراد البحث عنها يمكنا ان نخبره بالصفحات المراد عدم البحث عنها.

يتم ذلك من خلال ملف robots.text   والذي يتم ارسال تعليماته  الى جوجل ايضا عبر الموقع الخاص بي ولكن لا يعني ذلك ان محرك البحث لن يقوم بالفهرسة بل سيجري عملية فهرسة للصفحة وربما يستخدمها لاحقا اذا عثر على رابط الصفحة كرابط في موقع اخر ويعد تخفيف الضغط على الخادم او السيرفر الذي يستضيف موقعك اهم مميزات عدم زحف محرك البحث حيث انه يستنزف موارد الموقع.

علينا ايضا كمطورين واصحاب مواقع اخبار جوجل بالصفحات المدفوعة او الروابط التي تتطلب تسجيل دخول او محتوى غير مرغوب فيه لتجنب تمرير اشارات الجودة الخاصة التي يرفعها جوجل عن موقعك بالاضافة لتقليل استنزاف موارد الموقع ويتم ذلك من خلال استخدام خاصية nofollow وتدرج في قسم head  بموقعك الالكتروني كالاتي:

<a rel="nofollow" href="http://www.awamp.com/your_code">alam wahed>

اما في حالة الرغبة في عدم فهرسة صفحة محددة مع عدم استخدام robots.text  فاننا نستخدم الخاصية    noindex كالاتي

 <meta name="robots" content="noindex" />

 

التعامل مع آلية العمل بـ AJAX

اذا كان موقعك الالكتروني يستخدم في برمجته ajax  وهو المرجح مثل مواقع يوتيوب وفيس بوك وغيرها من المواقع الكبرى فعليك الاتي:

اولا اجاكس Ajax   ليست لغة برمجة مستقلة انما تقنية لارسال واستقبال طلبات HTTP بدون الحاجة إلى اعادة تحميل صفحة الويب كاملة مما يزيد من سرعة الصفحة.

 ثانيا اجاكس تستخدم بشكل اساسي لغة جافا سكريبت وهو الامر الذي يعطل برامج الزحف مثل googlebot   لذللك يجب الحذر عن برمجة موقع واستخدام الاجاكس فافضل الطرق هي إنشاء بنية موقعك الإلكتروني وروابط التنقل في الموقع باستخدام تنسيق HTML فقط. وبعد إنشاء صفحات وروابط ومحتوى الموقع الإلكتروني، يمكنك تحسين المظهر والواجهة باستخدام AJAX. ولن يواجه Googlebot أي صعوبة في فحص محتوى HTML، ويظل بإمكان مستخدمي المتصفحات الحديثة الاستفادة من الميزات الإضافية التي يقدمها لهم تنسيق AJAX في موقعك الإلكتروني.

 

شهادة التأمين ssl

اذا لم تكن قد حصلت على شهادة تامين لموقعك بعد وتستخدم بروتوكول http  فافعل ذلك الان واستخدم بروتوكول https

 

تقارير تحسين محركات البحث واثبات ملكية الموقع search console and google analytics

·       توفر هذه التقارير مقاييس رئيسية تشمل مرات الظهور ونسبة النقر إلى الظهور حسب الكلمة الرئيسية (طلب البحث) والجهاز وغير ذلك الكثير.

·       طريقة التعامل مع serach console واثبات ملكيتك للموقع

·       الربط مع google analytics  والاستفادة من التقارير

 

 

موضوعات ذات صلة

  • اهم عوامل ترتيب المواقع لدى جوجل....

  • أهم 11 معيار في تحسين محركات البحث....

  • البيانات-المنظمة-والاوصاف-التعر....

  • طريقة عمل لازانيا باللحم المفروم....

  • كيف يفهم نظام (RankBrain) الكلمة التي ....

  • تتضمن مهارات محركات البحث seo , الد....