Website technical analysis

التحليل الفني للموقع

التحليل الفني للموقع.

  1. تحقق من بنية عنوان URL لموقع الويب: يتم عرض عنوان URL في نتائج البحث بعد عنوان الصفحة ، لذلك يجب أن تكون أسماء ملفات موقع الويب وصفية وواضحة لتنظيم عنوان URL لموقع الويب وجعله مناسبًا لمحركات البحث.
  2. تحقق من موقع الويب بحثًا عن الروابط الميتة أو عمليات إعادة التوجيه المعطلة وصفحات الخطأ 404: أثناء عملية الزحف إلى موقع الويب من SE spiders ، عندما تصل spiders إلى الروابط المعطلة ، تتوقف على الفور عن الزحف وتترك الموقع مما يؤثر سلبًا على فهرسة موقع الويب ،بالإضافة إلى ذلك  فإن العديد من الروابط المعطلة في مجال موقع الويب تعتبر مؤشرًا لضعف موقع الويب وتجربة مستخدم منخفضة الجودة مما قلل من ترتيبه في SERP ،لذا يجب إصلاح الروابط المعطلة أو عمليات إعادة التوجيه المعطلة ،بالإضافة إلى ذلك ،يجب أن يتضمن الموقع 404 صفحات مفيدة يتم عرضها في حالة عدم وجود صفحات أو عناوين URL معطلة. 404 صفحة لنقل spider إلى صفحة متاحة ، كما أنها تستخدم لتحسين تجربة مستخدم موقع الويب عند إرشاد الزائرين إلى روابط مفيدة أو يمكنهم إعادتهم إلى الصفحة الرئيسية.
  3. تحقق من موقع الويب ذو المحتوى المكرر: تعتبر صفحات الويب مكررة إذا كان محتواها متطابقًا بنسبة 85٪. قد يؤثر وجود محتوى مكرر بشكل كبير على أداء تحسين محركات البحث ،أولاً وقبل كل شيء ، ستعرض جوجل عادةً صفحة مكررة واحدة فقط ، وتقوم بتصفية النسخ الأخرى من فهرسها ونتائج البحث ، وقد لا تكون هذه الصفحة هي الصفحة التي تريد ترتيبها. في بعض الحالات ، قد تنظر محركات البحث إلى الصفحات المكررة كمحاولة للتلاعب بترتيب محركات البحث ، ونتيجة لذلك ، قد يتم إرجاع موقع الويب إلى التصنيف الأدنى أو حتى منعه من نتائج البحث (Oetting، 2019).
  4. تحقق من خريطة موقع الويب ‘sitemap’: ملف Sitemap هو ملف يحتوي على قائمة بجميع صفحات موقع الويب ويقدم التسلسل الهرمي وهيكل المحتوى ،بغض النظر عما إذا كانت بناء موقع الويب منظمة بشكل واضح أم لا ، فمن الأفضل دائمًا إرسال خريطة الموقع لأنها ستحسن بشدة إمكانية الزحف إلى موقع الويب ، يحتوي على الصفحات التي سيتم الزحف إليها وعرضها في نتائج البحث ، وتنظيمها في التسلسل الهرمي المناسب (amal & Hatab ,2015). في هذه المرحلة ، سيتم فحص خريطة موقع الويب إذا كانت متوفرة وإذا تمت كتابتها بشكل صحيح.
  5. ملف robot.txt: ملف Arobot.txt هو ملف إرشادات في موقع الويب يشير إلى الصفحات المسموح لها بالزحف في SE والتي تم منعها من الزحف. يرسل خريطة موقع إلى SE ويحمي الخادم من الانشغال الشديد عن طريق منع برامج الزحف من مسح الصفحات غير المهمة أو المماثلة ،قبل أن تبدأ spiders في الزحف إلى موقع الويب ، فإنها تلتقط التعليمات من ملف robots.txt (جمال وحطب ، 2015) (أوزكان وآخرون ، 2019). في هذه المرحلة ، سيتم التحقق من ملف robot.txt إذا كان متاحًا وإذا تمت كتابته بشكل صحيح.
  6. Crawl Depth: يمثل عدد النقرات اللازمة للوصول إلى صفحات الويب من الصفحة الرئيسية ،بشكل عام ، لا تحب برامج الزحف وزوار موقع الويب الوصول إلى صفحات عميقة على موقع الويب ،لهذا السبب يجب ألا تبعد الصفحات التي تحتوي على محتوى مهم أكثر من ثلاث نقرات من الصفحة الرئيسية للموقع (ThatWare LLP ، 2019).
  7. HTTP Status Code: تشير رموز حالة HTTP إلى الطلبات المقدمة إلى خادم الويب بواسطة محركات البحث أو زوار موقع الويب ،يمكن أن يتأثر زحف مواقع الويب التي يواجهها مستخدمو مواقع الويب بشكل سلبي عندما يعرض موقع الويب الذي يحتوي على الكثير من الصفحات رموز الحالة 4xx و 5xx. قد تؤدي هذه المشكلة إلى انخفاض حركة المرور. لذلك ، يجب مراقبة رمز حالة HTTP وإدارته للحصول على تصنيف أفضل على الصفحة الرئيسية لـ SERP(ThatWare LLP, 2019).

الجدول رقم (1) يلخص التحليل الفني للموقع في قائمة مرجعية تستخدم في الفصل الخامس لتحليل المواقع قيد الدراسة فنياً.

Table (1): website technical analysis checklist

#

Checklist item

Notes

1

Test website URL structure

Webpage URL must contains pages title after website domain like: http://domainname.com/testPage

2

Check website against dead links or broken redirects.

Dead links must be removed and broken redirect must be fixed to correct position and custom 404 error page must be added to website pages

3

Check website against duplicate content.

Duplicate content should be removed or prevent from indexing

4

check sitemap, Robots.txt file & error page

Add sitemap and roborts.txt files to help Google spiders to index website correctly.

5

Crawl Depth

Most important pages should have low crawl depth to access it easily from Google spiders or visitors.

6

HTTP Status Code

Monitor webpages HTTP status code and remove 4xx error pages and 3xx unnecessary redirects.

(Jamal & Hatab

Tags: No tags

Comments are closed.