Правильно ли сделан Robots.txt для Dle
Страницы: 1
[ Закрыто ] Правильно ли сделан Robots.txt для Dle, Правильно ли сделан Robots.txt для Dle
Помогите! Правильный ли такой вариант
 Robots.txt для Dle


User-agent: *
Allow: /uploads/posts/
Disallow: /engine/go.php
Disallow: /favorites/
Disallow: /cache/
Disallow: /cgi-bin/
Disallow: /page/
Disallow: */page/*
Disallow: /engine/
Disallow: /language/
Disallow: /templates/
Disallow: /uploads/
Disallow: /backup/
Disallow: /newposts/
Disallow: /lastnews/
Disallow: /catalog/
Disallow: /tags/
Disallow: /autobackup.php
Disallow: /admin.php
Disallow: /statistics.html
Disallow: /banners/
Disallow: /user/
Disallow: /2011/
Disallow: /*action=mobile$
Disallow: /do=*
Disallow: /*do=*
Disallow: /?*
Host: урл сайта
Sitemap: http://урл сайта/sitemap.xml
Disallow: /page/
Disallow: */page/*
Эти две строчки равносильны, у меня стоит только первый вариант

Так же в моем имеются вот такие строчки:
Disallow: /*print
Disallow: /2012/
Disallow: /2013/
Disallow: /2014/
Disallow: /index.php?subaction=*
Disallow: /statistics.html
Disallow: /rules.html
Disallow: /addnews.html
Цитата
Katrin пишет:
Disallow: /page/
Disallow: */page/*
Эти две строчки равносильны, у меня стоит только первый вариант
Но разницы не ту, будет две или одна, правильно ? Просто лишнее место занимает.
Изменено: Юра Юрченко - 31 Декабря 2013 23:23
Цитата
Katrin пишет:
Disallow: /page/
Disallow: */page/*
Эти две строчки равносильны, у меня стоит только первый вариант

Так же в моем имеются вот такие строчки:
Disallow: /*print
Disallow: /2012/
Disallow: /2013/
Disallow: /2014/
Disallow: /index.php?subaction=*
Disallow: /statistics.html
Disallow: /rules.html
Disallow: /addnews.html
А что они запрещают ? Именно вот Disallow: /*print
Изменено: Юра Юрченко - 31 Декабря 2013 23:26
Юра Юрченко, smile:) искать не буду, с проиндексированных страниц вылавливала и убирала, все что мне не нужно в поиске.
Цитата
Katrin пишет:
Юра Юрченко, smile:) искать не буду, с проиндексированных страниц вылавливала и убирала, все что мне не нужно в поиске.
Понятно, и еще один вопрос. С Robots.txt сразу затупил, и теперь в индексе не нужные страницы. Сейчас вроде их запретил, если их не удалять через вебмастер гугла и яши, как быстро они сами отпадут.
Юра Юрченко,  в яше обычно в течении месяца отваливаются, гугл быстро хавает, но трудно расстается, от чего в гугле вечно соплями все висит)))
Цитата
Katrin пишет:
Юра Юрченко, в яше обычно в течении месяца отваливаются, гугл быстро хавает, но трудно расстается, от чего в гугле вечно соплями все висит)))
Спасибо большое Katrin за помощь. Вы ответили на все что мне нужно было. Ветку можно закрывать smile:)
Пожалуйста.
Тема закрыта.
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:45 этот контент krab6a cc 
16:35 Телега на ручнике: РКН включил замедление и логи админок покраснели 
11:48 WB и Ozon - новые "русские поисковики"? Яндекс теряет коммерческую выдачу 
13:45 SEO под нейро 
13:07 MAX выкатил приватные каналы - закрытые тусы теперь лепишь за минуту 
21:45 Раскрутка форума 
18:07 Гугл уходит из России: почему интернет тормозит и что делать 
22:01 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
16:40 Monitex: Мониторинг с кэшбэком 80% в USDT 
16:36 Мониторинг обменников Сrypto-scout.io 
15:53 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
13:49 Linken Sphere – браузер-антидетект нового поколения 
12:15 Скрипт обменника валют 
04:47 Onechange.me — надежный обменник криптовалют и фиатных средств 
00:33 Точные прогнозы на футбол 
22:26 Добро пожаловать в цифровой мир... 
18:38 Оцифровка старых физических фотографий 
14:02 блокировка youtube 2026: ркн начинает «выдавливание». кто уже пробовал вк видео? 
13:55 Туалетные секреты: Замурчательная тема 
23:03 Ставки на супер тренды в спорте 
18:43 Индия влепила Intel 3 ляма баксов за дискриминацию по гарантии