Дурпал, не смотря на свою крутость и отполированость, имеет некоторые недочёты в плане внутренней оптимизации. Написанное будет актуально для Drupal 6.20 и некоторых модулей.
Базовые понятия
Контент в Drupal базируется на таком понятии как Нода(Node). Это универсальный узел и фактически любая единица контента будь то страница или комментарий заключены именно в ноду. Ноды в свою очередь могут быть логически отделены типами содержимого или хардкорно заданы кодом модулей\ядром.
Базовые SEO модули
Как ни странно, но в коробке Drupal нет функционала для добавления мета тегов, но это легко исправимо. Качаем модуль Nodewords. Штука очень крутая и помимо базовых keywords и description имеет кучу кастомных опций.
Заголовки Drupal также не идеальны. Нам в помощь модуль Pagetitle, который в свою очередь потребует модуля Token.
Для кастомизации путей страниц можно воспользоваться модулями Path(есть в Core) и дополнительно скачать Pathauto.
Для создания автоматической карты сайта существует модуль XML Sitemap, имеющий кучу настроек и даже user-fraindly стилизацию на XSL и CSS.
Отдельного внимания стоит модуль Taxonomy. Это очень мощная и гибкая система структуризации содержимого, частично она может быть заменена модулем Book из стандартной поставки и позволяет подшивать материалы(создавать навигабельные сборники).
Система создания адресов в Друпал имеет небольшую проблемку, что приводит к дублированию контента. Для её устранения используем модуль Global Redirect.
Robots.txt
Он в Druapl тоже не идеален и в следствии создания модулями, которых порядка нескольких сотен, разных путей каждый раз требует анализа. Я предлагаю Вам свою версию robots.txt, которую довольно долгое время обкатывал и тестировал. Она заточена под Archives, XML Sitemap, Tracker, Search.
Для правильного функционирования требуется установить Global Redirect, который осуществит редиректы с дублей и предотвратит проблемы со слэшами в URL и включить чистые ссылки.
Собсно не забываем тюнить host и sitemap по вкусу. Для говнохостингов, чтобы не потушить сайт лимитами CPU Crawl-delay ставим 4.
Все модули друпал качаются с drupal.org. Забудьте об левых сайтах и говно-варезниках. У друпал есть свой стиль кодирования и всё что выкладывается в паблик проходит жёсткую модерацию. Нет смысла брать мутное говно где-то вне офф. сайта.
Пока всё. Если будут вопросы -- спрашивайте. В будущем будет больше информации по Drupal.
Базовые понятия
Контент в Drupal базируется на таком понятии как Нода(Node). Это универсальный узел и фактически любая единица контента будь то страница или комментарий заключены именно в ноду. Ноды в свою очередь могут быть логически отделены типами содержимого или хардкорно заданы кодом модулей\ядром.
Базовые SEO модули
Как ни странно, но в коробке Drupal нет функционала для добавления мета тегов, но это легко исправимо. Качаем модуль Nodewords. Штука очень крутая и помимо базовых keywords и description имеет кучу кастомных опций.
Заголовки Drupal также не идеальны. Нам в помощь модуль Pagetitle, который в свою очередь потребует модуля Token.
Для кастомизации путей страниц можно воспользоваться модулями Path(есть в Core) и дополнительно скачать Pathauto.
Для создания автоматической карты сайта существует модуль XML Sitemap, имеющий кучу настроек и даже user-fraindly стилизацию на XSL и CSS.
Отдельного внимания стоит модуль Taxonomy. Это очень мощная и гибкая система структуризации содержимого, частично она может быть заменена модулем Book из стандартной поставки и позволяет подшивать материалы(создавать навигабельные сборники).
Система создания адресов в Друпал имеет небольшую проблемку, что приводит к дублированию контента. Для её устранения используем модуль Global Redirect.
Robots.txt
Он в Druapl тоже не идеален и в следствии создания модулями, которых порядка нескольких сотен, разных путей каждый раз требует анализа. Я предлагаю Вам свою версию robots.txt, которую довольно долгое время обкатывал и тестировал. Она заточена под Archives, XML Sitemap, Tracker, Search.
Для правильного функционирования требуется установить Global Redirect, который осуществит редиректы с дублей и предотвратит проблемы со слэшами в URL и включить чистые ссылки.
| Код |
|---|
User-agent: * Crawl-delay: 1 Disallow: /includes/ Disallow: /misc/ Disallow: /modules/ Disallow: /profiles/ Disallow: /scripts/ Disallow: /themes/ Disallow: /comment/reply Disallow: /comment Disallow: /contact Disallow: /user/register Disallow: /user/password Disallow: /user/login Disallow: /search Disallow: /search/google* Disallow: /search/node* Disallow: /search/user* Disallow: /filter Disallow: /node$ Disallow: /archive/all$ Disallow: /archive/all/2010$ Disallow: /*?sort* Disallow: /*&sort* Disallow: /tracker? Sitemap: http://www.your-host.ru/sitemap.xml Host: www.your-host.ru |
Собсно не забываем тюнить host и sitemap по вкусу. Для говнохостингов, чтобы не потушить сайт лимитами CPU Crawl-delay ставим 4.
Все модули друпал качаются с drupal.org. Забудьте об левых сайтах и говно-варезниках. У друпал есть свой стиль кодирования и всё что выкладывается в паблик проходит жёсткую модерацию. Нет смысла брать мутное говно где-то вне офф. сайта.
Пока всё. Если будут вопросы -- спрашивайте. В будущем будет больше информации по Drupal.
Изменено:
Semantic - 23 Декабря 2010 09:07
