Быстрая CMS
Обратная связь Карта сайта
Главная Создание сайтов Практика Строим CMS Наивное О проекте Блог

Создание сайтов с учетом SEO

О том, что процесс продвижения сайта начинается раньше его создания, слышали все. Но обычно с этой крылатой фразы разговор резко сворачивает на информационное наполнение (контент), будущие поисковые запросы (семантическое ядро), расстановку ссылок – словом, на все то, что определяет ранжирование сайта поисковыми системами. Это важно, но это не все. Прежде чем сайт окажется в выдаче поисковиков, он должен оказаться в индексе. Причем, не часть страниц, а все. И каждая только в одном экземпляре. За исключением страниц, ненужных поисковикам.

Хорошее индексирование сайта закладывается при проектировании движка. Выбирая систему управления контентом, вебмастера чаще всего ориентируются на удобный интерфейс и функциональность. А потом спрашивают «почему мой сайт плохо индексируется?». Уверен, мифический Платон Щукин уже устал от таких вопросов больше, чем все гуру с оптимизаторских форумов вместе взятые. И большая часть этих вопросов порождена неподходящими движками.

Разработчики CMS тоже всегда думают о функциональности, но редко о нагрузке. А проектируя движок, нельзя забывать, что использоваться он будет, скорее всего, на виртуальном хостинге. И соседями по серверу всегда могут оказаться тяжеловесные движки. Они могут нагрузить сервер так, что вашему сайту будет недоставать ресурсов и он «тормознет» в самый неподходящий момент. Бороться с этим невозможно, если у вас не собственный сервер. Можно только самому максимально оптимизировать свой движок по скорости и ресурсоемкости – тогда меньше будете зависеть от таких соседей.

Не нужно ничего лишнего. Излишняя функциональность не просто бесполезна, она активно вредит сайту. Вредит повышенной нагрузкой на хостинг, ухудшением юзабилити, размножением ненужных ссылок и бессодержательных полупустых страниц. Стремление сделать сайт «не хуже других» должно приводить к хорошему наполнению сайта, а не к избытку «фишек и рюшек».

Проблема однозначности адресов тоже не редкость. Дубликаты страниц в индексе появляются не оттого, что вы сделали две одинаковые страницы, а оттого, что к одной странице можно обратиться по нескольким разным адресам.

Проблема несуществующих страниц – еще один бич движков. И не только движков, у статических сайтов тоже могут появиться те же проблемы. В любом случае по несуществующей ссылке ваш сайт должен обязательно отсылать HTTP-заголовок со статусом «404 Not Found». Кстати, и все прочие заголовки должны соответствовать стандарту. Не существует таких «оптимизированных» заголовков, которые могли бы улучшить позиции сайта в поиске. Но зато несложно наделать заголовков, способных ухудшить индексирование сайта. А значит, и его позиции.

Чистый HTML-код страниц тоже важен. Ошибка ошибке рознь, нарушение структуры из-за незакрытых тегов может привести к неполному индексированию страницы. В результате страница в индексе, а толку от нее нет. Не станете же вы проверять сохраненные копии всех страниц в кэше поисковой системы.

Кто-то может сказать, что все перечисленное – мелочи и что несмотря на эти мелкие недоделки множество сайтов все-таки успешно развиваются и продвигаются. Неверный ответ. Я все-таки «спалю тему», как сейчас выражаются. Поисковая система – только набор программ. Какими бы сложными ни были эти программы, они не могут оценить информативность сайта – это может только человек. Зато программные средства позволяют оценить качество исполнения сайта. А потом вывести общую оценку и сравнить с конкурентами. И если уж вы верите в TrustRank, то поверьте – он складывается и из технических показателей качества.

А теперь начинаю выкладывать сюда подробности. По каждому абзацу их найдется немало.