Back to Question Center
0

Семалт: robots.txt: блокиране на всички уеб страници, с изключение на няколко броя уеб страници?

1 answers:

Имам няколко съмнения относно роботите. txt . Кажи, домейнът ми е stackoverflow. com ,

A) Ще направи ли кода по-долу за всички роботи?

     Потребител-агент: *Забрана: /Допускане: / $
Допускане: / a / $
Допускане: / a / вход. PHP
Допускане: / a / вход. PHP? върне = / Pligg /    
  1. Приемане http: // stackoverflow - palline colorate per playground slides. com / ще приеме http: // stackoverflow. com също?

  2. Приемане http: // stackoverflow. com / a /

  3. Приемане http: // stackoverflow. COM / а / вход. php

  4. Приемане http: // stackoverflow. COM / а / вход. php? return = / pligg /

  5. Не приемате друга страница на http: // stackoverflow. com

Б) Което е правилно: роботи. txt или робот. txt ?

February 13, 2018