Снова появились дубли в Яндексе
Страницы: 1 2 След.
Снова появились дубли в Яндексе
Всем привет. У меня сайт на wp, создал год назад, знал что с wp есть проблемы в плане дублей страниц, по этому сразу установил данную функцию.
Код
function mayak_meta_robots () {
if (is_archive() or is_category() or is_feed () or is_author() or is_date() or is_day() or is_month() or is_year() or is_tag() or is_tax() or is_attachment() or is_paged() or is_search()) 
{
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'mayak_meta_robots');  
И все было замечательно, не одного дубля. Сайтом давно не занимался, сегодня решил посмотреть как дела, и заметил что в выдачи Яндекса куча дублей типа рубрик, меток и т.д. 
Может я пропустил какие-то обновления? почему данная функция перестала работать?

Прогон по твиттеру, постинг в 1500 аккунтов
Постинг в твиттер аккаунты, для ускорения индексации ваших сайтов, сателлитов, дорвеев.

может в тему: недавно яндекс проиндексировал все страницы с окончанием на .xml , хотя до этого год роботс не трогал все норм было, не знаю закрыл теперь и эти страницы.
Больше 100 просмотров и один ответ..
Проверьте, если на ненужных страницах в коде все такие стоит <meta name="robots" content="noindex,nofollow" />, то можете не заморачиваться, это скорее клюк яндекса
Цитата
Иван Севостьянов пишет:
Проверьте, если на ненужных страницах в коде все такие стоит <meta name="robots" content="noindex,nofollow" />, то можете не заморачиваться, это скорее клюкяндекса.
Вот страница из поиска Яндекса ( http://strofeyem.ru/tag/karp/feed ) буду рад если посмотрите и может поможете советом. Функция которую я указал выше по всей видимости перестала работать, или яндекс начал думать по другому..
Проверьте настройки плагина All in One SEO Pack. Возможно функция прописанная у вас в functions.php противоречит тому, что вы указали в настройках плагина.

Цитата
masterrabot пишет:
Проверьте настройки плагина All in One SEO Pack
Спасибо за идею) Проверил, но к сожалению в настройках индексирования сняты все галочки...
Сделайте нормальный rorbots.txt, а то у вас он практически пустой. И не будет нужен "велосипед" в виде функции. Для конкретно этого дубля там не хватает строчки 
Код
Disallow: */feed 
Ну а вообще там много чего не хватает. Просто нагуглите  "robots.txt для вордпресс". Ваша функция прописывает запрет на индексацию многих страниц, но эту она не затронула и подобные ей тоже не тронет. Вообще она не нужна при правильном робосте.
Изменено: Иван - 17 Октября 2016 17:26
Цитата
Иван пишет:
Ну а вообще там много чего не хватает. Просто нагуглите "robots.txt для вордпресс". Ваша функция прописывает запрет на индексацию многих страниц, но эту она не затронула и подобные ей тоже не тронет. Вообще она не нужна при правильном робосте.
Спасибо за ответа! Удалю функцию, настрою All in One SEO Pack и robots.tx и посмотрю что будет через месяц..
Цитата
slonikk пишет:
Всем привет. У меня сайт на wp, создал год назад, знал что с wp есть проблемы в плане дублей страниц, по этому сразу установил данную функцию.
Код
 function mayak_meta_robots () {
if (is_archive() or is_category() or is_feed () or is_author() or is_date() or is_day() or is_month() or is_year() or is_tag() or is_tax() or is_attachment() or is_paged() or is_search()) 
{
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'mayak_meta_robots');   
И все было замечательно, не одного дубля. Сайтом давно не занимался, сегодня решил посмотреть как дела, и заметил что в выдачи Яндекса куча дублей типа рубрик, меток и т.д.
Может я пропустил какие-то обновления? почему данная функция перестала работать?

Держи гитару Джимми. Только домен на свой смени



# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.vikistars.com$ [NC]
RewriteRule ^(.*)$ vikistars.com/$1 [R=301,L]
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
<Files xmlrpc.php>
order deny,allow
Deny from all
</Files>
вот хороший (по моему мнению) файл роботс _http://wp-kama.ru/robots.txt , взял его на "вооружение", но на своем сайте продублировал строки отдельно для яши, возможно и не нужно было это делать, вот пример _http://karpaty-travel.biz.ua/robots.txt
Цитата
Злоядный Сеошник пишет:
# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.vikistars.com$ [NC]
RewriteRule ^(.*)$ vikistars.com/$1 [R=301,L]
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
<Files xmlrpc.php>
order deny,allow
Deny from all
</Files>
Спасибо за совет! Суть данного файла я понял, теперь вот нужно определиться чем пользоваться, и возможно ли сразу использовать все в месте. К примеру настройка All in One SEO Pack и robots.tx понятное дело что вместе все будет работать. А если еще и использовать ваш способ?
/* ========================================================================== *  Добавляем свой <META name="robots" content="noindex,nofollow" > * ========================================================================== */
function my_meta_noindex () {
if (
//is_archive() OR // любые страницы архивов - за месяц, за год, по рубрике, по авторам
//is_category() OR // архивы рубрик
is_author() OR // архивы статей по авторам
is_time() OR // архивы статей по времени
is_date() OR // архивы статей по любым датам
is_day() OR // архивы статей по дням
is_month() OR // архивы статей по месяцам
is_year() OR // архивы статей по годам
is_tag() OR // архивы статей по тегам
is_tax() OR // архивы статей для пользовательской таксономии
is_post_type_archive() OR // архивы для пользовательского типа записи
//is_front_page() OR // статическая главная страница
//is_home() OR // главная страница блога с последними записями
//is_singular() OR // любые типы записей - одиночные посты, страницы, вложения и т.д.
//is_single() OR // любой одиночный пост любого типа постов (кроме вложений и Страниц)
//is_page() OR // любая одиночная Страница ("Страницы" в админке)
is_attachment() OR // любая страница вложения
is_paged() OR // все и любые страницы пагинации
is_search() // страницы результатов поиска по сайту
) {
echo "".'<meta name="robots" content="noindex,nofollow" />'."\n";
}
}
add_action('wp_head', 'my_meta_noindex', 3);
/* ========================================================================== */
(В строчках, начинающихся с // метатег не будет выводится)Вот такой вод способ еще нашел, только я бы еще первые два пункта закрыл... Теперь я в замешательстве, способов много, но какой самый верный.. Кто чем пользуется калитессь?smile:)
Цитата
slonikk пишет:
Спасибо за совет! Суть данного файла я понял, теперь вот нужно определиться чем пользоваться, и возможно ли сразу использовать все в месте. К примеру настройка All in One SEO Pack и robots.tx понятное дело что вместе все будет работать. А если еще и использовать ваш способ?

Этот способ тогда будет лишним, ведь плагин прописывает ту же самую строчку. Единственное - это можно сравнить типы страниц в его настройках с этими, но думаю все остальное он сделает.
Изменено: Иван - 21 Октября 2016 12:25
Цитата
Иван пишет:
Этот способ тогда будет лишним, ведь плагин прописывает ту же самую строчку. Единственное - это можно сравнить типы страниц в его настройках с этими, но думаю все остальное он сделает
Спасибо за информацию. В теми предложили много вариантов, какой сейчас самый оптимальный? понимаю что только экспериментом можно добиться хорошего результата, я пока вижу так All in One SEO Pack(полная настройка) и robots.tx + редирикт ( что предложил Злоядный Сеошник) . Интересно мнение остальных...
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
10:30 плагин AnsPress 
09:50 Яндекс выдача - 18.08.18 
05:26 Прошу помощи у кодеров JS 
04:41 17.08 - Яндекс выдача 
23:33 Instasoft , Tooligramm , Insta editor , Igram и др 
20:01 Помогите найти плагин RSS - экспорта Wordpress 
18:39 Создание и ведение нового блога 
11:31 Программы для рассылок, накрутки, продвижения и ведения аккаунтов в skype, instagram, vk, ok, avito, lenta.ru 
10:26 pmcash.kz- Обмен электронной валюты,PM,Payeer,QIWI,Сбербанк,Visa, Яндекс 
09:06 Linken Sphere – браузер-антидетект нового поколения 
07:58 Семантическое ядро по новой технологии + LSI с ручной группировкой 
06:04 Продам продуктовый портал 
23:33 Продажа готового сайта панели инстаграм под ключ 
23:09 Дзен канал нннада? 
00:59 Правильная покупка ссылок 
00:01 Прямоугольник на сайте 
19:56 Зима и шашлыки 
17:43 Работа для вебмастеров. 625 долл/сутки? - легко! 
12:01 Кэшбери - это 
16:42 Фейковый сайт для подключения Сбербанк-online, Яндекс кассы и др. Нужна помощь. 
11:12 Нужен взлом аккаунта инстаграм