عرض مشاركة مفردة
 
  #2  
قديم 07-09-2010, 11:17 AM
MoRsTa MoRsTa غير متصل
عضو
 
تاريخ التسجيل: May 2009
مشاركة: 53
مستوى تقييم العضوية: 15
MoRsTa is on a distinguished road
الافتراضي

اولا نشر الموقع بجميع محركات البحث العالمية واهمها google و yahoo و msn .
هنـاك طريقتين

الطريقة الاولى إضافة الموقع يدويا عن طريق مواقع محركات البحث كتالي :-


1/ إضافة موقعـك في محرك البحث قـوقل google عن طـريـق الرابـط الـتالي :-

http://www.google.com/intl/ar/add_url.html

2/ إضافة موقعك في محرك البحث ياهو yahoo عن طريق الرابط التالي :-

http://submit.search.yahoo.com/free/request

3/ إضافة موقعك في محرك البحث Msn عن طريق الرابط التالي :-
http://www.bing.com/webmaster/SubmitSitePage.aspx

وإذا طلب منك إدخال اسم المستجدم وكلمة المرور فادخلها طبعاً إذا كان معك بريد في الياهو يمكنك

الحصول عليه بسهولة

الطريقه الثانية هي اضافة الموقع عن طريق استخدام مواقع و السكربتات النشــر

تركيب هاك ارشفه الصفحات بالارقام اسفل الفوتر .

هاك حفظ الحقوق في المواضيع

هاك اسماء وروابط اقسام المنتدى بالفوتر لزيادة الارشفة

ثم

قم بأنشاء ملف نصى على جهازك وسميه robots.txt
سوف احاول ان ابين كل كود و دروه و قد اقتبسته لكم من احد الموضيع
اقتباس:
User-Agent: *
هذا الأمر يسمح بالروبوتس الخاصة بمحركات البحث بفهرسة موقعك

و من اهم التعريفات الاخرى
user-agent:هو اسم سبيدر او المتصفح اوحتى الهاتف المحمول. طبعا هنا نحن نتكلم عن روبوتس فهو اسم السبيدر.

Disallow:طريقة المنع

Crawl-delay:مدة تاخير بين زيارة اخرى

Request-rate:معدل طلب الصفحة

Visit-time:الاوقات المسموح بها بالزيارة

sitemap:خارطة الموقع بصيغة .xml او

اقتباس:
User-agent: *
Disallow: /
هنا نحن نمنع كل السبيدر من زيارة اي صفحة في الموقع.

اقتباس:
User-agent: *
Disallow: /xxxxx/index.html
نمنع الجميع من زيارة صفحة معينة

اقتباس:
User-agent: *
Disallow: /
Request-rate: 1/5
Visit-time: 0600-0800
مسموح بزيارة كل السبيدر لكل صفحات موقعي بس بالشروط التالية: معدل الوقت المسموح هو 5 ثواني لكل صفحة واحدة. وايضا الوقت المسموح فيه بالزيارة هو من 6 الى 8 صباحا gmt



تقول لروبوت هدا هو رابط خريطة موقعي و اكز عليه بشدة

ارفع ملف الـ robots.txt الى مجلد موقعك الرئيسى حيث يكون مساره كالتالى http://www.yoursite.com/robots.txt