Статьи

Проблемы алгоритма Google SEO

Вы заметили что-то другое с Google в последнее время? У нас, веб-мастеров, конечно, есть, и если недавние разговоры на SEO-форумах являются показателем, мы очень расстроены! За последние два года Google представила серию изменений в алгоритмах и фильтрах, которые привели к непредсказуемым результатам в поисковой системе, что привело к снижению рейтинга многих чистых (не спамовых) веб-сайтов.

Изменения алгоритма Google начались в ноябре 2003 года с обновления во Флориде, которое теперь запомнилось как легендарное событие среди сообщества веб-мастеров. За этим последовали обновления Остина, Бренди, Бурбона и Джаггера. Обновления Google использовались ежемесячно; сейчас они проводятся ежеквартально. Но с таким количеством серверов, кажется, что несколько разных результатов прокручиваются по серверам в любое время в течение квартала.

BigDaddy, последнее обновление Google, отчасти виноват. Считается, что использует 64-битную архитектуру, BigDaddy является обновлением инфраструктуры Google, а также обновлением алгоритма поиска. Страницы теряют свои рейтинги первой страницы и попадают на сотую страницу, или, что еще хуже, в Дополнительный индекс!

Проблемы алгоритма BigDaddy делятся на четыре категории: канонические проблемы, проблемы с дублированием контента, песочница и проблемы с дополнительными страницами.

  1. Канонические проблемы. Это происходит, когда поисковая система рассматривает www.yourdomain.com, yourdomain.com и yourdomain.com/index.html как разные веб-сайты. Когда Google делает это, он помечает разные копии как дублированный контент и наказывает их. Если yourdomain.com не оштрафован и все другие сайты ссылаются на ваш сайт с помощью www.yourdomain.com, то версия, оставленная в индексе, не будет иметь рейтинга. Это основные проблемы, с которыми другие крупные поисковые системы, такие как Yahoo и MSN, не имеют проблем. Репутация Google как величайшей поисковой системы в мире (оценивается как десятка по шкале от одного до десяти) сдерживается его неспособностью решить основные проблемы индексации.
  2. Песочница. Считается, что Google ввел временное наказание за новые ссылки и сайты, прежде чем полностью пометить индекс, исходя из предположения, что 100 000 страниц не могут быть созданы за одну ночь. Определенные веб-сайты или ссылки на них помещаются в «песочницу» на некоторое время, прежде чем они получают полный рейтинг в индексе. Предположение состоит в том, что только набор конкурентных ключевых слов (тех, которыми манипулируют чаще всего) помещается в «песочницу». Дрифт-легенда в мире поисковых систем, существование Песочницы, обсуждается и еще не подтверждена Google.
  3. Проблемы с дублирующимся контентом. Поскольку веб-страницы повышают рейтинг поисковых систем, SEO-специалисты Black Hat начали дублировать контент целых веб-сайтов под своим собственным доменным именем, мгновенно создавая тонну веб-страниц (что-то вроде загрузки энциклопедии на ваш веб-сайт). Из-за этого злоупотребления Google агрессивно атаковал злоумышленников с дублированным контентом с помощью своих обновлений алгоритма, выбивая многие законные сайты как побочный ущерб в процессе. Например, когда кто-то просматривает ваш сайт, Google просматривает обе версии сайта, а в некоторых случаях может определить, что законным является дубликат. Единственный способ предотвратить это — отслеживать сайты по мере их удаления и затем отправлять отчеты о спаме в Google. Проблемы с дублированным контентом также возникают из-за того, что для них есть много законных применений. Новостные ленты являются наиболее очевидным примером: новостная лента освещается на многих веб-сайтах, потому что это контент, который зрители хотят видеть. Любой фильтр неизбежно поймает законное использование.
  4. Дополнительные страницы. «Дополнительный ад» для веб-мастеров, проблема скрывалась в таких местах, как Webmasterworld, уже более года, но это была серьезная встряска в конце февраля (совпавшая с продолжающимся развертыванием BigDaddy), которая в конечном итоге привела к тому, что весь ад развалился в сообщество веб-мастеров. Возможно, вы знаете, что у Google есть два индекса: основной индекс, который вы видите при поиске; и Дополнительный указатель, кладбище, на котором старые, ошибочные и устаревшие страницы захоронены (среди прочих). Никто не оспаривает необходимость в дополнительном индексе, он действительно обеспечивает достойную причину. Но когда ты похоронен заживо, это уже другая история! Именно это и происходит: активные, недавние и чистые страницы отображаются в дополнительном индексе. Истинный характер проблемы неясен, и общая причина, приводящая к нему, не установлена.

Ежемесячные обновления Google, когда-то довольно предсказуемые, ожидались веб-мастерами с радостью и беспокойством. Google следовал хорошо опубликованному алгоритму, который присваивал каждой веб-странице рейтинг страницы (числовой рейтинг, основанный на количестве и рейтинге веб-страниц, которые ссылаются на нее). При поиске по запросу Google упорядочил все веб-страницы, которые были сочтены релевантными вашему поиску, по их рейтингу страницы. Для определения релевантности страниц использовался ряд факторов, включая плотность ключевых слов, заголовки страниц, мета-теги и теги заголовков.

Этот оригинальный алгоритм предпочитал входящие ссылки, которые использовали выбранные ключевые слова в качестве текста привязки. Чем больше сайтов, ссылающихся на ваш сайт, используют этот якорный текст, богатый ключевыми словами, тем выше ваш поисковый рейтинг по этим ключевым словам. Поскольку Google стал доминирующей поисковой силой в начале десятилетия, владельцы сайтов боролись за высокие позиции в его поисковой выдаче. Выпуск программы Adsense от Google сделал ее очень прибыльной для тех владельцев сайтов, которые победили: если веб-сайт получил высокую оценку по популярному ключевому слову, они могли показывать объявления Google под AdSense и делить доход с Google! Это привело к эпидемии SEO, которую мир веб-мастеров еще никогда не видел.

Характер ссылок между веб-сайтами изменился. Веб-мастера обнаружили, что ссылки на их веб-сайты могут не только снизить их рейтинг в поисковых системах, но и повысить рейтинг их конкурентов. Алгоритм Google работает таким образом, что ссылки, приходящие на ваш веб-сайт, повышают его Page Rank (PR), в то время как исходящие ссылки с ваших веб-страниц на другие веб-сайты снижают ваш PR. Попытки повысить рейтинг страниц для веб-сайтов привели к тому, что люди создавали фермы ссылок, участвовали во взаимных партнерских ссылках и покупали и продавали ссылки. Вместо того чтобы использовать ссылки для предоставления качественного контента своим посетителям, веб-мастера теперь добавили ссылки для поддержки PR и получения прибыли.

Это привело к полной очистке веб-сайтов, как я упоминал ранее. SEO-специалисты Black Hat могут комбинировать контент всего веб-сайта с рекламой Google и несколькими мощными входящими ссылками, чтобы получить высокий рейтинг страниц и получать доход от программы Google Adsense — и все это без предоставления какого-либо уникального контента веб-сайта! Осознавая происходящие манипуляции, Google агрессивно изменил свои алгоритмы, чтобы предотвратить это. Так началась игра в кошки-мышки, которая стала алгоритмом Google: для того, чтобы внести в черный список дубликаты сайтов, чтобы они могли предоставлять своим пользователям наиболее релевантные результаты поиска, иногда алгоритм атаковал исходный сайт, а не очищенный.

Это привело к периоду нестабильных обновлений, которые привели к тому, что многие аутентичные веб-сайты высшего ранга покинули свои ряды. Большинство конечных пользователей могут не воспринимать это как проблему. Что касается их интересов, то работа Google состоит в том, чтобы предоставлять наиболее релевантные списки для своего поиска, что он и делает. По этой причине проблема не оказала немедленного серьезного влияния на Google. Однако, если Google продолжит давать непредвиденные результаты по мере своего развития, медленно, но верно, проблемы будут появляться. По мере обострения этих проблем сообщество веб-мастеров теряет веру в Google, что делает его уязвимым для растущей конкуренции.

Веб-мастера являются экспертами из уст в уста; и запустить веб-сайты, которые используют программу Google Adsense. Колебания рейтинга являются частью интернет-бизнеса, и большинство веб-мастеров понимают это — мы просто призываем Google исправить ошибки, которые несправедливо улавливают правильные рейтинги наших сайтов.

Конечно, мы понимаем, что причина, по которой ошибки возникли с самого начала, заключается в том, что не все веб-мастера невинны. Некоторые нарушили рекомендации, изложенные Google, и продолжают это делать. Мы поддерживаем потребности Google в борьбе со спамом и манипуляциями с Black Hat SEO и признаем, что, вероятно, нелегко это исправить.

Мы не ожидаем, что Google покажет их алгоритм или изменения, которые были в него внесены. Но учитывая влияние рейтинга Google на компании, мы, веб-мастера, хотели бы видеть больше информации об известных проблемах и иметь возможность помогать в определении будущих проблем алгоритма, а не спекулировать.

Самые последние из этих предположений предполагают, что Google в настоящее время рассматривает такие атрибуты, как возраст доменного имени, количество веб-сайтов на одном IP-адресе и частоту свежего контента, чтобы изменить результаты поиска. Как веб-мастера, мы будем благодарны за возможность сообщать о потенциальных ошибках в Google и получать ответы на наши отзывы.

В конце концов, не только в интересах Google иметь алгоритм без ошибок. В конечном итоге, это обеспечит лучшие результаты поиска для всех.