Снова появились дубли в Яндексе
Страницы: 1 2 След.
Снова появились дубли в Яндексе
Всем привет. У меня сайт на wp, создал год назад, знал что с wp есть проблемы в плане дублей страниц, по этому сразу установил данную функцию.
Код
function mayak_meta_robots () {
if (is_archive() or is_category() or is_feed () or is_author() or is_date() or is_day() or is_month() or is_year() or is_tag() or is_tax() or is_attachment() or is_paged() or is_search()) 
{
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'mayak_meta_robots');  
И все было замечательно, не одного дубля. Сайтом давно не занимался, сегодня решил посмотреть как дела, и заметил что в выдачи Яндекса куча дублей типа рубрик, меток и т.д. 
Может я пропустил какие-то обновления? почему данная функция перестала работать?

Бесплатная контекстная реклама

может в тему: недавно яндекс проиндексировал все страницы с окончанием на .xml , хотя до этого год роботс не трогал все норм было, не знаю закрыл теперь и эти страницы.
Больше 100 просмотров и один ответ..
Проверьте, если на ненужных страницах в коде все такие стоит <meta name="robots" content="noindex,nofollow" />, то можете не заморачиваться, это скорее клюк яндекса
Цитата
Иван Севостьянов пишет:
Проверьте, если на ненужных страницах в коде все такие стоит <meta name="robots" content="noindex,nofollow" />, то можете не заморачиваться, это скорее клюкяндекса.
Вот страница из поиска Яндекса ( http://strofeyem.ru/tag/karp/feed ) буду рад если посмотрите и может поможете советом. Функция которую я указал выше по всей видимости перестала работать, или яндекс начал думать по другому..
Проверьте настройки плагина All in One SEO Pack. Возможно функция прописанная у вас в functions.php противоречит тому, что вы указали в настройках плагина.
Цитата
masterrabot пишет:
Проверьте настройки плагина All in One SEO Pack
Спасибо за идею) Проверил, но к сожалению в настройках индексирования сняты все галочки...
Сделайте нормальный rorbots.txt, а то у вас он практически пустой. И не будет нужен "велосипед" в виде функции. Для конкретно этого дубля там не хватает строчки 
Код
Disallow: */feed 
Ну а вообще там много чего не хватает. Просто нагуглите  "robots.txt для вордпресс". Ваша функция прописывает запрет на индексацию многих страниц, но эту она не затронула и подобные ей тоже не тронет. Вообще она не нужна при правильном робосте.
Изменено: Иван - 17 Октября 2016 17:26
Цитата
Иван пишет:
Ну а вообще там много чего не хватает. Просто нагуглите "robots.txt для вордпресс". Ваша функция прописывает запрет на индексацию многих страниц, но эту она не затронула и подобные ей тоже не тронет. Вообще она не нужна при правильном робосте.
Спасибо за ответа! Удалю функцию, настрою All in One SEO Pack и robots.tx и посмотрю что будет через месяц..
Цитата
slonikk пишет:
Всем привет. У меня сайт на wp, создал год назад, знал что с wp есть проблемы в плане дублей страниц, по этому сразу установил данную функцию.
Код
 function mayak_meta_robots () {
if (is_archive() or is_category() or is_feed () or is_author() or is_date() or is_day() or is_month() or is_year() or is_tag() or is_tax() or is_attachment() or is_paged() or is_search()) 
{
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'mayak_meta_robots');   
И все было замечательно, не одного дубля. Сайтом давно не занимался, сегодня решил посмотреть как дела, и заметил что в выдачи Яндекса куча дублей типа рубрик, меток и т.д.
Может я пропустил какие-то обновления? почему данная функция перестала работать?

Держи гитару Джимми. Только домен на свой смени



# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.vikistars.com$ [NC]
RewriteRule ^(.*)$ vikistars.com/$1 [R=301,L]
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
<Files xmlrpc.php>
order deny,allow
Deny from all
</Files>
вот хороший (по моему мнению) файл роботс _http://wp-kama.ru/robots.txt , взял его на "вооружение", но на своем сайте продублировал строки отдельно для яши, возможно и не нужно было это делать, вот пример _http://karpaty-travel.biz.ua/robots.txt
Цитата
Злоядный Сеошник пишет:
# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.vikistars.com$ [NC]
RewriteRule ^(.*)$ vikistars.com/$1 [R=301,L]
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
<Files xmlrpc.php>
order deny,allow
Deny from all
</Files>
Спасибо за совет! Суть данного файла я понял, теперь вот нужно определиться чем пользоваться, и возможно ли сразу использовать все в месте. К примеру настройка All in One SEO Pack и robots.tx понятное дело что вместе все будет работать. А если еще и использовать ваш способ?
/* ========================================================================== *  Добавляем свой <META name="robots" content="noindex,nofollow" > * ========================================================================== */
function my_meta_noindex () {
if (
//is_archive() OR // любые страницы архивов - за месяц, за год, по рубрике, по авторам
//is_category() OR // архивы рубрик
is_author() OR // архивы статей по авторам
is_time() OR // архивы статей по времени
is_date() OR // архивы статей по любым датам
is_day() OR // архивы статей по дням
is_month() OR // архивы статей по месяцам
is_year() OR // архивы статей по годам
is_tag() OR // архивы статей по тегам
is_tax() OR // архивы статей для пользовательской таксономии
is_post_type_archive() OR // архивы для пользовательского типа записи
//is_front_page() OR // статическая главная страница
//is_home() OR // главная страница блога с последними записями
//is_singular() OR // любые типы записей - одиночные посты, страницы, вложения и т.д.
//is_single() OR // любой одиночный пост любого типа постов (кроме вложений и Страниц)
//is_page() OR // любая одиночная Страница ("Страницы" в админке)
is_attachment() OR // любая страница вложения
is_paged() OR // все и любые страницы пагинации
is_search() // страницы результатов поиска по сайту
) {
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'my_meta_noindex', 3);
/* ========================================================================== */
(В строчках, начинающихся с // метатег не будет выводится)Вот такой вод способ еще нашел, только я бы еще первые два пункта закрыл... Теперь я в замешательстве, способов много, но какой самый верный.. Кто чем пользуется калитессь?smile:)
Цитата
slonikk пишет:
Спасибо за совет! Суть данного файла я понял, теперь вот нужно определиться чем пользоваться, и возможно ли сразу использовать все в месте. К примеру настройка All in One SEO Pack и robots.tx понятное дело что вместе все будет работать. А если еще и использовать ваш способ?

Этот способ тогда будет лишним, ведь плагин прописывает ту же самую строчку. Единственное - это можно сравнить типы страниц в его настройках с этими, но думаю все остальное он сделает.
Изменено: Иван - 21 Октября 2016 12:25
Цитата
Иван пишет:
Этот способ тогда будет лишним, ведь плагин прописывает ту же самую строчку. Единственное - это можно сравнить типы страниц в его настройках с этими, но думаю все остальное он сделает
Спасибо за информацию. В теми предложили много вариантов, какой сейчас самый оптимальный? понимаю что только экспериментом можно добиться хорошего результата, я пока вижу так All in One SEO Pack(полная настройка) и robots.tx + редирикт ( что предложил Злоядный Сеошник) . Интересно мнение остальных...
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
01:18 Монетизация сайта 
01:12 Кто использует AMP у себя на сайте? 
00:30 HTTPS 
00:04 Помогите разобраться Малополезный контент, спам, избыток рекламы 
22:20 Profitco - гемблинговая ПП! Проверенные бренды, парк-домены, выплаты каждую неделю, геолокация по ip 
21:26 Апдейт ТИЦ 15 августа 2017 
20:39 нужен грамотный юрист\адвокат по вопросу авторских прав, индексации. 
05:07 Прогон по профилям 300 рублей, 170 сайтов, ТИЦ от 10 
00:09 Дизайн | Редизайн | Верстка - сайтов, банеров, логотипов 
23:51 Веб-дизайн: От favicon до макета сайта 
23:21 Акция! Размещение статей на трастовых сайтах 
23:03 Копирайтинг и Рерайтинг. Цены, Ре- 59р, копи- 99р за1к. Новый автор, первым трем- бесплатно. 
22:14 Есть уникальные статьи(копирайт) на тему спиннинговая ловля на 20 к символов. 
22:14 Комплексный прогон по трастовым сайтам, статейное размещение. Рост НЧ-СЧ, Тиц-пр. 
05:41 Зачем Яндекс себя убивает? 
02:40 Нужна оптимизация сайта 
17:55 Продвижение туристического сайта 
17:41 Техподдержка Майл - Аккаунт приостановлен. Нет места для новых писем 
16:53 Продвижение сайта 
15:05 Сногсшибательные скидки на хостинг 
12:01 Хацкеры с телдери ?