Поисковые системы – совершенно секретно

Всем известно, что информацию о своих алгоритмах поисковые системы тщательно скрывают. Мы до того привыкли к этой мысли, что даже не задаемся вопросом, почему. Официальные объяснения на первый взгляд выглядят правдоподобно: любая информация об алгоритмах и критериях ранжирования может вызвать новую волну поискового спама. Проще говоря, некие темные силы тут же попытаются использовать эту информацию для получения поискового трафика на сайты, которые никакого трафика не заслуживают.

Если хорошенько подумать над этим объяснением, напрашиваются интересные выводы.

Любому разработчику ясны три мотива засекречивания алгоритмов. И все три — мягко говоря, неприглядные. Судите сами:

  1. Чтобы не использовали конкуренты
  2. Из соображений безопасности
  3. Чтобы никто не знал, что мы делаем на самом деле

Первое свойственно программисту-приготовишке, который утирает вспотевший лоб после тяжкой битвы с отладочными средствами: он наконец-то реализовал что-то более сложное, чем классический HelloWorld-алгоритм. Ему кажется, что он создал нечто такое, до чего никто другой в жизни не додумается. Конечно, он ошибается, но это дойдет до его сознания не сегодня, а много тысяч строк кода спустя.

Если алгоритм засекречивают «по соображениям безопасности» — значит, есть основания считать, что он будет скомпрометирован уже после третьей точки в его открытом описании. Это слабый алгоритм — халтура, создателей которой надо гнать в три шеи. Открытое признание такого мотива равно заявлению «Мы не умеем работать».

Третий мотив комментариев не требует. Он означает, что за ширмой секретности скрывается широкое поле для обмана и злоупотреблений. Такой мотив никто и никогда не оглашает вслух — не опускаться же до полного бесстыдства.

Практически все серьезные криптоалгоритмы открыты, среди них нет засекреченных. А это, между прочим, самые ответственные алгоритмы, ими охраняется все самое ценное — от денег на банковском счете до безопасности государств. «Сильный» алгоритм нет нужды скрывать, его открытость означает гарантию надежности. Антивирусные алгоритмы если и не открыты, то доступны любому достаточно упорному человеку с отладчиком — поэтому их тоже нет смысла скрывать. Следственные органы скрывают (до поры) найденную информацию, но их методы (алгоритмы их действий) известны и регламентированы законом. И это тоже гарантия — гарантия того, что следствие пройдет честно и без злоупотреблений. А все секреты раскроются в суде.

А что же означает постоянная «совершенная секретность» поисковых алгоритмов? Примитивными их не назовешь, так что первый мотив отпадает, остаются только два. На публику все время говорят о безопасности, как будто не понимают, что это прямое признание в собственной несостоятельности. Хотя... для людей несведущих, наверное, и такое объяснение сойдет...

Top

Категория: Философия SEO

Комментарии Отключены

Скептик С.

Самое время перейти к кризису поисковых систем, нет? Тема-то носится в воздухе, только руку протянуть.

07.11.2012 // 19:56 [ ссылка ]

Ответ от Автора

Тема носится. Но я ношусь еше быстрее – если точно, уже между четырьмя форумами, двум из которых нужна техническая поддержка, а еще два я мечтаю подружить. И похоже, всё начинает получаться.

А о кризисе чуть позже. Но скоро. Но не сейчас.

11.11.2012 // 14:07 [ ссылка ]