Еще раз о html-коде
Все, что было сказано о html-коде раньше, можно назвать умозрительными рассуждениями. В общем-то, так оно и есть. А теперь посмотрим на реальность.
Выберите какой-нибудь сайт, движок которого выдает кроме обычных страниц со статьями еще и «версию для печати». Выберите несколько статей (только не с главной страницы и не с заглавных страниц разделов, а где-нибудь в глубине) и попробуйте отыскать их с помощью поисковика по подходящим запросам. Скорее всего, в выдаче вы увидите версию для печати. Если страница статьи искусственно не «подперта» внешними ссылками, версия для печати имеет преимущество перед основной страницей. Но ведь по содержанию они одинаковы, и «печатная» страница – всего лишь дубликат основной.
Объясняется это просто. «Печатная версия» отличается предельно легким HTML-кодом и предельно упрощенной навигацией. Мало кода и никаких лишних ссылок, именно поэтому поисковик считает ее более значимой, чем основную. Вот вам и зримое подтверждение того, что компактный и легкий HTML-код страниц дает сайту ощутимый выигрыш.
А теперь посмотрим, что нам говорит на эту тему Google – признанный лидер среди поисковых систем.
Прочтите внимательно http://www.google.com/support/webmasters/bin/answer.py?answer=35769.
В его «Руководстве для веб-мастеров» вы можете найти рекомендации проверить HTML-код на отсутствие ошибок. А также просмотреть страницы текстовым браузером, чтобы увидеть их, образно говоря, «глазами робота». Если у вас нет Lynx, подойдет и Opera, в ней можно включить режим эмуляции текстового браузера. Посмотрите на страницу... да не на эту, здесь как раз все в полном порядке, уверяю вас. :-) Посмотрите на страницу своего сайта – понравится ли вам то, что вы увидите?
Там же вы можете найти еще одну рекомендацию:
- Не размещайте на одной странице слишком много ссылок (не более 100).
Вот вам и прямое руководство к действию с конкретным числом. Кто сказал, что поисковики не дают рекомендаций по оптимизации? Неправда, дают; но к сожалению, не все их читают. Аналогичные советы давал вебмастерам и Яндекс. Его роботу тоже «не нравится» замусоренный HTML-код с ошибками, стили и Java-скрипты в «теле» страницы, большое количество ссылок.
Продвигая сайты в поисковых системах, никогда нельзя опираться только на влияние внешних ссылок. По своему опыту могу сказать, что внутренние недостатки сайта могут практически свести к нулю все результаты внешней «ссылочной прокачки». И наоборот, внутренняя оптимизация сайта может значительно сократить затраты на внешние ссылки. Итак, что же нам нужно сделать со страницами? Основной принцип: «ничего лишнего». То, что вы прочтете дальше – практически пересказ рекомендаций поисковых систем, как сделать страницы удобными для индексирования. Естественно, при этом нельзя увлекаться и забывать о функциональности и удобстве пользователей.
- Хорошо проработайте стили, сведите к минимуму локальные описания шрифта, цветов текста и фона и т.п.
- Вынесите все описания стилей в CSS-файлы
- Вынесите по возможности все Java-скрипты в файлы .js
- Максимально облегчите HTML-код шаблона страниц. Здесь нужно хорошее знание HTML и CSS, оно поможет убрать лишние атрибуты в тегах за счет проработки таблиц стилей. Также посмотрите, нельзя ли сделать элементы оформления страницы и ее компоновку более простыми средствами. Например, убрав некоторые вложенные друг в друга таблицы (таких нерациональных решений в верстке вам с избытком наплодят Dreamweaver, HomeSite и другие визуальные редакторы HTML).
- По возможности уберите лишние ссылки, не имеющие прямого отношения к навигации. И сократите число навигационных ссылок – уберите дубликаты, без которых можно обойтись. Например, если рядом с текстовой ссылкой стоит ссылка на ту же страницу с графической «кнопкой» – постарайтесь их объединить в одну ссылку.
Поисковики не понимают смысл текстов, но могут оценивать важность и качество страницы, опираясь на соотношение объема HTML-тегов, объема текста и количества ссылок. Если на странице много ссылок и почти нет текста, она явно имеет отношение к навигации, но много информации не несет. Признак информационной страницы – больше текста, чем HTML-кода и немного ссылок. Разумеется, могут быть случаи, когда самая ценная информация укладывается в пару строк. Но не надо забывать, что робот не может оценивать информацию, а алгоритмы поисковиков строятся не на частных случаях, а на наиболее общих закономерностях.
Думаю, не нужно много говорить о том, что робот может буквально «на лету», разбирая страницу, найти ошибки в коде. Не исключено, что где-то в базе данных поисковой системы появится отметка с жирным минусом вашему сайту за низкое качество исполнения. В последнее время часто говорят о TrustRank – «уровне доверия» к сайту. Из чего он складывается, никто не знает. Но качество кода – как раз тот показатель, который может быть точно и объективно оценен роботом. Сайт для людей обычно делают тщательно и стараются соблюдать стандарты – разве не так?
Отдельно несколько «теплых слов» о WYSIWYG-редакторах контента, которые обычно встраивают в CMS. Они облегчают оформление текста тем, кто не знает HTML, но в результате дают довольно грязный текст, замусоренный лишними тегами. А самый наихудший результат можно получить, перенося (copy/paste) текст из MS Word в такой визуальный редактор, загруженный в Internet Explorer. В этом случае вместе с текстом вы незаметно перенесете кучу разметочных тегов MS Word, очень похожих на теги HTML. При просмотре исходного кода страницы, сделанной таким способом, видно огромное количество лишних тегов со стилевыми атрибутами. В том числе и обрамляющих только пробелы или вообще пустые места. Никогда не копируйте текст из MS Word, лучше сохраните его в текстовый файл, а потом откройте в Блокноте и копируйте оттуда – тогда мусора точно не будет.