Снова появились дубли в Яндексе
Страницы: 1 2 След.
Снова появились дубли в Яндексе
Всем привет. У меня сайт на wp, создал год назад, знал что с wp есть проблемы в плане дублей страниц, по этому сразу установил данную функцию.
Код
function mayak_meta_robots () {
if (is_archive() or is_category() or is_feed () or is_author() or is_date() or is_day() or is_month() or is_year() or is_tag() or is_tax() or is_attachment() or is_paged() or is_search()) 
{
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'mayak_meta_robots');  
И все было замечательно, не одного дубля. Сайтом давно не занимался, сегодня решил посмотреть как дела, и заметил что в выдачи Яндекса куча дублей типа рубрик, меток и т.д. 
Может я пропустил какие-то обновления? почему данная функция перестала работать?
может в тему: недавно яндекс проиндексировал все страницы с окончанием на .xml , хотя до этого год роботс не трогал все норм было, не знаю закрыл теперь и эти страницы.
Больше 100 просмотров и один ответ..
Проверьте, если на ненужных страницах в коде все такие стоит <meta name="robots" content="noindex,nofollow" />, то можете не заморачиваться, это скорее клюк яндекса
Цитата
Иван Севостьянов пишет:
Проверьте, если на ненужных страницах в коде все такие стоит <meta name="robots" content="noindex,nofollow" />, то можете не заморачиваться, это скорее клюкяндекса.
Вот страница из поиска Яндекса ( http://strofeyem.ru/tag/karp/feed ) буду рад если посмотрите и может поможете советом. Функция которую я указал выше по всей видимости перестала работать, или яндекс начал думать по другому..
Проверьте настройки плагина All in One SEO Pack. Возможно функция прописанная у вас в functions.php противоречит тому, что вы указали в настройках плагина.

Цитата
masterrabot пишет:
Проверьте настройки плагина All in One SEO Pack
Спасибо за идею) Проверил, но к сожалению в настройках индексирования сняты все галочки...
Сделайте нормальный rorbots.txt, а то у вас он практически пустой. И не будет нужен "велосипед" в виде функции. Для конкретно этого дубля там не хватает строчки 
Код
Disallow: */feed 
Ну а вообще там много чего не хватает. Просто нагуглите  "robots.txt для вордпресс". Ваша функция прописывает запрет на индексацию многих страниц, но эту она не затронула и подобные ей тоже не тронет. Вообще она не нужна при правильном робосте.
Изменено: Иван - 17 Октября 2016 17:26
Цитата
Иван пишет:
Ну а вообще там много чего не хватает. Просто нагуглите "robots.txt для вордпресс". Ваша функция прописывает запрет на индексацию многих страниц, но эту она не затронула и подобные ей тоже не тронет. Вообще она не нужна при правильном робосте.
Спасибо за ответа! Удалю функцию, настрою All in One SEO Pack и robots.tx и посмотрю что будет через месяц..
Цитата
slonikk пишет:
Всем привет. У меня сайт на wp, создал год назад, знал что с wp есть проблемы в плане дублей страниц, по этому сразу установил данную функцию.
Код
 function mayak_meta_robots () {
if (is_archive() or is_category() or is_feed () or is_author() or is_date() or is_day() or is_month() or is_year() or is_tag() or is_tax() or is_attachment() or is_paged() or is_search()) 
{
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'mayak_meta_robots');   
И все было замечательно, не одного дубля. Сайтом давно не занимался, сегодня решил посмотреть как дела, и заметил что в выдачи Яндекса куча дублей типа рубрик, меток и т.д.
Может я пропустил какие-то обновления? почему данная функция перестала работать?

Держи гитару Джимми. Только домен на свой смени



# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.vikistars.com$ [NC]
RewriteRule ^(.*)$ vikistars.com/$1 [R=301,L]
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
<Files xmlrpc.php>
order deny,allow
Deny from all
</Files>
вот хороший (по моему мнению) файл роботс _http://wp-kama.ru/robots.txt , взял его на "вооружение", но на своем сайте продублировал строки отдельно для яши, возможно и не нужно было это делать, вот пример _http://karpaty-travel.biz.ua/robots.txt
Цитата
Злоядный Сеошник пишет:
# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.vikistars.com$ [NC]
RewriteRule ^(.*)$ vikistars.com/$1 [R=301,L]
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
<Files xmlrpc.php>
order deny,allow
Deny from all
</Files>
Спасибо за совет! Суть данного файла я понял, теперь вот нужно определиться чем пользоваться, и возможно ли сразу использовать все в месте. К примеру настройка All in One SEO Pack и robots.tx понятное дело что вместе все будет работать. А если еще и использовать ваш способ?
/* ========================================================================== *  Добавляем свой <META name="robots" content="noindex,nofollow" > * ========================================================================== */
function my_meta_noindex () {
if (
//is_archive() OR // любые страницы архивов - за месяц, за год, по рубрике, по авторам
//is_category() OR // архивы рубрик
is_author() OR // архивы статей по авторам
is_time() OR // архивы статей по времени
is_date() OR // архивы статей по любым датам
is_day() OR // архивы статей по дням
is_month() OR // архивы статей по месяцам
is_year() OR // архивы статей по годам
is_tag() OR // архивы статей по тегам
is_tax() OR // архивы статей для пользовательской таксономии
is_post_type_archive() OR // архивы для пользовательского типа записи
//is_front_page() OR // статическая главная страница
//is_home() OR // главная страница блога с последними записями
//is_singular() OR // любые типы записей - одиночные посты, страницы, вложения и т.д.
//is_single() OR // любой одиночный пост любого типа постов (кроме вложений и Страниц)
//is_page() OR // любая одиночная Страница ("Страницы" в админке)
is_attachment() OR // любая страница вложения
is_paged() OR // все и любые страницы пагинации
is_search() // страницы результатов поиска по сайту
) {
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'my_meta_noindex', 3);
/* ========================================================================== */
(В строчках, начинающихся с // метатег не будет выводится)Вот такой вод способ еще нашел, только я бы еще первые два пункта закрыл... Теперь я в замешательстве, способов много, но какой самый верный.. Кто чем пользуется калитессь?smile:)
Цитата
slonikk пишет:
Спасибо за совет! Суть данного файла я понял, теперь вот нужно определиться чем пользоваться, и возможно ли сразу использовать все в месте. К примеру настройка All in One SEO Pack и robots.tx понятное дело что вместе все будет работать. А если еще и использовать ваш способ?

Этот способ тогда будет лишним, ведь плагин прописывает ту же самую строчку. Единственное - это можно сравнить типы страниц в его настройках с этими, но думаю все остальное он сделает.
Изменено: Иван - 21 Октября 2016 12:25
Цитата
Иван пишет:
Этот способ тогда будет лишним, ведь плагин прописывает ту же самую строчку. Единственное - это можно сравнить типы страниц в его настройках с этими, но думаю все остальное он сделает
Спасибо за информацию. В теми предложили много вариантов, какой сейчас самый оптимальный? понимаю что только экспериментом можно добиться хорошего результата, я пока вижу так All in One SEO Pack(полная настройка) и robots.tx + редирикт ( что предложил Злоядный Сеошник) . Интересно мнение остальных...
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
01:46 Настроить поставщиков в программе E-Trade PriceList Importer 
15:26 Найти элемент в коде 
11:51 Bropush - твой бро в монетизации сайта push-уведомлениями 
03:12 Сайты-копипасты 
21:47 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
09:59 Ошибка после размещения кода HTML! 
15:34 Adtrafico - Правильная партнёрская сеть под бурж трафик 
11:40 Высококачественные и надежные прокси-серверы и 5G 
11:37 Google Voice - OLD аккаунты "SMS и звонки" 
10:42 CryptoScan.one - Принимайте USDT TRC-20 на свой личный счет 
08:34 Transit-Bit.com - Обмен USDT на IDR, THB, RUB и наличные 
20:17 4G/LTE Mobile Proxy 30+ geo  
18:03 Обмен без AML и верификации Aztor.pro 
17:30 Комплексный прогон по трастовым сайтам, статейное размещение. Рост НЧ-СЧ, Тиц-пр. 
10:56 Видимо, похороны СУПРа уже прошли как-то по-тихому 
12:48 Каспкрски ОС 
11:21 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди 
01:05 Точные прогнозы на футбол 
14:41 Бесплатный мини-аудит юзабилити и конверсии + технический SEO-аудит в подарок 
15:24 Добро пожаловать в цифровой мир... 
22:58 У меня дикая просадка по РСЯ за последние 3 суток