Статьи

Новейшие методы поиска спама

Рейтинги в поисковых системах чрезвычайно конкурентоспособны, и владельцы веб-сайтов вынуждены делать все возможное, чтобы добиться видимости в результатах поиска.

Это давление приходит со многих сторон: существуют ограничения по брендингу, рекомендации по стилю, правовые вопросы, потребности в навигации, требования к конверсии продаж, требования к взаимодействию сайтов и многое другое.

Тем не менее факт остается фактом, что поисковые системы были предназначены для информационных целей. Это создает препятствия для предприятий, которые пытаются использовать поисковые системы, чтобы привлечь пользователей, которые ищут информацию, а затем пытаются им что-то продать. Чтобы преодолеть эти препятствия, многие компании используют все более и более безжалостную тактику — тактику, которая выводит их на нечестную территорию — чтобы получить эти более высокие рейтинги поиска.

Эксплуатация двигателя

Сегодня эксплуатация поисковых систем является серьезной проблемой, но, нравится это или нет, большинство компаний считают это чем-то, что должно быть сделано — обязательным условием онлайн-бизнеса. Однако для использования поисковой системы большинство организаций должны использовать компанию, занимающуюся поисковой оптимизацией. В этих соглашениях эксплуатация, или получение чего-то даром, становится центральной темой взаимодействия между клиентом и поставщиком SEO.

Тысячи провайдеров SEO сейчас работают в бизнесе, и каждый ранжирующий обещатель более известен, чем следующий. Для многих из этих поставщиков услуг качество не является проблемой. Важно давать обещания, которые побеждают конкурентов и завоевывают их клиентов. Столкнувшись с этим огромным и зачастую необоснованным давлением, этические SEO-специалисты откажутся от проекта оптимизации. Однако неэтичные оптимизаторы взялись за проект, заявив: «Нет проблем. Я позабочусь об этом».

«Забота о» невозможной ситуации означает спам. Требование клиента на невозможное и ожидание чего-либо даром толкает SEO или веб-мастера на этот печальный путь спама в поисковых системах. Этот подход включает в себя изучение и развитие растущего списка хитроумных техник спама.

Лучший способ решить эту проблему — это раскрыть эти методы. Если все знают о технике рассылки спама, она перестанет работать. Это способ победить спам в поисковых системах и цель этой статьи.

Кто ответственный?

Поисковые системы ценят популярные, содержательные сайты; однако многие владельцы веб-сайтов либо не могут, либо не хотят тратить деньги, необходимые для создания контента такого типа и популярности. Необходимые ресурсы, такие как исследователи, разработчики веб-контента, копирайтеры и опытные оптимизаторы, недоступны или находятся за пределами финансовых ресурсов компании.

Это бесполезный сценарий, который запускает все спам-проекты.

TrafficPower — провайдер SEO, который стал печально известен тем, что Google предпринял действия, чтобы запретить компании и ее клиентам индекс. Представитель Google был процитирован как «Я полагаю, что один SEO убедил клиентов либо размещать спам-перенаправления JavaScript при наведении курсора мыши, страницы дверных проемов, которые ссылаются на другие сайты, либо оба на сайтах своих клиентов. Это может привести к тому, что сайты клиентов будут помечены как спам в дополнение к доменам, которые настроил SEO «.

Теперь, кажется , клиенты Traffic Power предъявляют иск компании, но ущерб нанесен. Мы все еще должны задаться вопросом, кто виноват.

В действительности, когда сайт использует спам-тактику, ответственность несет конечный клиент, а не поставщик SEO. Клиент имеет контроль над сайтом и его развертыванием. В случае спама владелец Сайта несет полную ответственность.

Приманка топ-листингов

Некоторые теневые операторы широко разрекламировали, что рейтинги дешевы и их легко получить. Эта ложь — и ожидание, которое она порождает — заставляет некоторых оптимизаторов предлагать гарантию топ-5 рейтинга. Это, в свою очередь, заставляет всех провайдеров SEO предоставлять аналогичные гарантии.

Помимо гнева поисковых компаний, такие гарантии вводят в заблуждение. Лучшие рейтинги не могут быть поставлены в график, как покупка рекламы. Результаты поиска в поисковых системах не продаются, и именно этот элемент честности обеспечивает их постоянную популярность: то, что нельзя купить, заслуживает доверия.

Когда оптимизаторы не могут достичь рейтинга по расписанию, они вынуждены возвращать, возможно, тысячи долларов. Поскольку многие едва могут оплатить свои счета, они не могут позволить себе вернуть эти деньги. Это создает основу для спама в SEO.

Есть спамеры, которым так или иначе все равно — они не против обмана, поскольку у них нет чувства этики. Есть также крупные SEO компании, которым поручено создавать рейтинги для клиентов, которые просто не следует пытаться делать. Они хотят автоматизировать процесс SEO, чтобы увеличить доходы. Поисковые системы, напротив, хотят избавить свои индексы от автоматизированных материалов любого рода.

Жадность владельца сайта в сочетании с оппортунизмом спаммера в поисковых системах создает почву для нечестивого союза. Вот только один пример спам-сайта, который я видел.

Spammingsite1.com использовал несколько видов спама для достижения высоких результатов:

  • активируемые мышью перенаправления
  • скрытые ячейки таблицы, заполненные ключевыми словами в тегах <h1>
  • ссылки с надуманных сайтов

Конечные пользователи увидели страницу, отличную от проиндексированной поисковой системой. Поисковая система была обманута этой тактикой, и, как и в случае со всеми случаями рассылки спама, потеряла контроль над продуктом, который она использовала для поиска пользователей.

Spammingsite1 был лидером в результатах поиска — но только из-за спама. Проверка сайтов, которые ссылаются на Spammingsite1, выявила список сомнительных качественных сайтов, с которыми ни один законный владелец сайта не хотел бы быть связанным. Одним из сайтов был растущий список копий открытых каталогов — сайтов, которые черпают весь свой контент из проекта открытого каталога . Копии списков открытых каталогов представляют огромную проблему для Google.

Опасности новых типов контента

Как Google и Yahoo! рискуя создать новые типы веб-контента, они рискуют быть обманутыми сложностью самого кода. Спаммеры преуспевают, оставаясь впереди технических возможностей фильтрации поисковых систем.

Поисковые системы применяют фильтры контента, когда они паук сайтов, а затем, что называется пост-обработки. Эта сложная фильтрация замечательна, однако она также ограничена воображением, дальновидностью и программированием инженеров. Спаммеры могут обмануть систему, используя трещины в фильтрах.

Иногда невинные сайты оштрафованы, потому что они, кажется, имеют некоторые признаки спама. Ваш сайт один из них? Почему законная ссылка на ваш сайт не может быть распознана? Вероятно, это выглядит как платная ссылка на поисковик. Это еще одна огромная проблема для поисковых систем: их фильтры настолько сложны, что становятся практически неуправляемыми, а невинные сайты неправильно наказываются.

Поисковые системы могут только видеть и знать столько о любом данном Веб-сайте и его владельцах. Контент и ссылки одного SEOs — это спам другого, поэтому сложно утверждать, кто такие спаммеры. Проблема еще более осложняется тем фактом, что поисковые системы имеют разные правила листинга и оценки контента.

Есть, конечно, многочисленные тактики, которые считаются спамом. Ниже приведены некоторые из наиболее распространенных методов рассылки спама — тактики, которых следует избегать.

  • Издательские империи
  • Wikis
  • Сетевые блоги
  • Форумы
  • Доменный спам
  • Повторяющиеся домены
  • Ссылки внутри тегов No Script
  • Javascript перенаправляет
  • Динамическая генерация страниц в реальном времени
  • HTML невидимые ячейки таблицы
  • DHTML прокладка и скрытый текст под слоями
  • Гигантские машинно-генерируемые сайты
  • Вставка ссылок
  • Невидимый текст
  • Ссылка фермы

Давайте обсудим каждый из них более подробно.

Издательские империи

Когда издатель создает обширный массив взаимосвязанных веб-сайтов, он может генерировать высокий PageRank и последующий рейтинг. Этот вид спама трудно оштрафовать поисковику, поскольку ссылки являются законными. Любая единица бизнеса имеет право связывать свои собственные Веб-сайты. Компания может создать дополнительное дублирование между темами контента сайтов, чтобы ссылки действительно ценились поисковыми системами.

Примером такого рода деятельности является один из крупнейших интернет-издателей. У бизнеса более 120 веб-ресурсов, каждый из которых тщательно связан с остальными. Выполните поиск на одном из этих сайтов, и вы практически гарантированно увидите одно из других веб-свойств компании в результатах поиска.

Многие из наиболее успешных сайтов используют эту систему — эта форма рассылки спама чрезвычайно распространена. Злоумышленники обычно собирают PageRank и связывают репутацию в своей сети, а затем творчески используют ее, чтобы доминировать над лучшими ключевыми фразами. Поисковые системы не нашли способ остановить эту технику, но им придется. Эта форма рассылки спама является серьезной угрозой для качества результатов поиска.

Wikis

Вики — это веб-репозитории, в которые каждый может публиковать контент. Они могут быть отличным способом для представления и редактирования идей без строгой цензуры, и оказались чрезвычайно успешными для создания, управления и обслуживания проектов, которые требуют участия пользователей со всего мира.

Тем не менее, несмотря на их значительные преимущества, часто неконтролируемый характер вики делает их готовыми к злоупотреблениям. Как и ферма ссылок, ссылки вики бесплатны для всех. По иронии судьбы, ценность вики согласуется с популярностью поисковых систем. Некоторые из этих вики могут похвастаться очень высоким рейтингом страниц, что делает вики привлекательным местом для получения ссылки на ваш сайт. Но без строгого контроля со стороны пользователей пользователи могут просто добавлять свои ссылки в качестве средства для использования пиара вики. Пока другой пользователь вики не удалит ссылку, связанный сайт пользуется преимуществами этой недобросовестной деятельности. У спамеров поисковой системы есть контроль.

Сетевые блоги

Блоги могут быть источником точной, актуальной и технически подробной информации, представленной специалистами и экспертами. Таким образом, блоги очень ценны для искателей информации и чрезвычайно популярны.

Тем не менее, некоторые спаммеры создают блог, вставляя в него полный мусор, например комментарии к тому, что они думают в 5:15, а также ссылку или две, а также текст с несколькими ключевыми словами. Разумные размышления по ключевым словам не представляют реальной ценности для обманутых искателей. Хуже того, блоги часто работают в общедоступной структуре ссылок, которая дополнительно проверяет связанные сайты в индексах поисковых систем.

Форумы

Как и блоги, форумы могут быть богатым источником актуальной информации.

К сожалению, некоторые участники форума оставляют комментарии на форумах только в целях публикации ссылок на свои сайты. Это может быть приемлемо, если пользователь оказывает помощь или помощь другому участнику форума. В самом деле, они должны получить кредит за эту информацию, которую они, возможно, работали трудно обнаружить.

Однако, когда сообщения становятся чрезмерными и состоят исключительно из грубых или не относящихся к делу комментариев, ценность ссылки, или даже весь форум, может быть поставлена ​​под сомнение. Некоторые владельцы форумов открывают форумы только в надежде, что они поднимут рейтинг в поисковых системах.

Доменный Спам

Вероятно, самая популярная техника спама сегодня включает в себя создание и размещение нескольких веб-сайтов. Эти сайты редко имеют какую-либо внутреннюю ценность, кроме предоставления поддержки рейтинга для основного веб-сайта владельца.

У меня было несколько бывших клиентов, которые использовали эту технику — и были оштрафованы за это. После того, как я заставил их полностью избавиться от дубликатов, их рейтинг был восстановлен.

Повторяющиеся домены

Почему Google не может обнаружить два точных дубликата Сайтов, которые различаются только по доменным именам? Почему Google дает этим же сайтам первое и второе место по той же фразе? Это происходит слишком часто и связано с озабоченностью Google ссылками между тематически связанными сайтами.

Спам в домене обычно является результатом попытки корпорации создать веб-сайты для каждого из ее отделов или дочерних компаний. Те, у кого много дочерних компаний, получают большую поддержку от этих доменов. Понимая это, спаммеры все чаще поощряют клиентов размещать сайты на разных IP-адресах и даже в разных географических точках.

Обнаружение шаблона ссылок, используемое Google, с трудом справляется с этой практикой, и в настоящее время не справляется с этим. Новый акцент Google на авторитетных сайтах фактически усугубляет этот вопрос, поскольку авторитет может завоевать доверие, которого он на самом деле не заслуживает.

Ссылки внутри без тегов сценария

Один из лучших сайтов публикации, который я недавно обнаружил, тайно связал свои сайты с помощью тега no script. Хотя я не могу назвать сайт, я могу показать вам, как работает техника.

При правильном использовании тэг no script предоставляет ссылки, когда у браузера пользователя (или робота поисковой системы) отключен JavaScript. Все, что появляется внутри тегов no script, не видно на самой веб-странице.

Для подлинного использования тег no script должен содержать ссылки, которые повторяют ссылки, используемые в коде JavaScript на реальной странице.

Но в этом случае ссылки шли на сайты, которые стратегически собирали PageRank. Они были в основном скрыты, выступая в качестве подпольной сети ссылок для поддержки рейтинга издателя. Этот код появился практически во всех доменах сайта — и, возможно, существует на других сайтах, которые могут даже не знать, что он там есть! На некоторых страницах использовался только закрывающий </NO SCRIPT)

<SCRIPT LANGUAGE="javascript" SRC="http://www.spammersite1.com/counter.asp?ID=2667&NoLink=1" TYPE="text/javascript"></SCRIPT>  
         <NOSCRIPT><a href="http://www.spammersite3.com">new homes</a> <a href="http://www.spammersite3.com/popularkeywords.asp?  
Keyword=concrete+design">concrete  
         design</a> <a href="http://www. spammersite3.com/popularkeywords.asp?  
Keyword=precast">precast</a>  
         <a href="http://www. spammersite3.com/popularkeywords.asp?  
Keyword=mantel">mantel</a>  
<a href="http://www.spammersite4.net/">home decorating</a>  
<a href="http://www.spammersite5.biz/">home  
         improvement world</a> <a href="http://www.spammersite6.com">luxury homes</a>  
         </NOSCRIPT>

Сложный код выше был даже загружен с ключевыми словами (используя код asp). Эти ключевые слова сообщают веб-серверу на целевом сайте нежелательной почты тип динамически генерируемой страницы, которая должна обслуживаться в ответ на запрос. Эта тактика не одобрена, если она сделана намеренно, чтобы манипулировать поисковым рейтингом. Посетители этого сайта совершенно не обращали внимания на коварные намерения владельца сайта, а поисковые системы тоже были одурачены.

Обнаружение не-роботных JavaScript-перенаправлений

Использование кода наведения мыши, как показано ниже, незаметно распространяется по сети:

 <body onMouseOver="eval(unescape('%6C%6F%63%61%74%69%6F%  
6E%2E%686F%70%69%63%62%61%74%6F%6E%73%2E%6E%65%74%2F%27%3B'));"

Ходили слухи, что Google принимает меры против этой тактики. В случаях, которые я обнаружил, код JavaScript автоматически перенаправлял посетителя на другую страницу, но только при наведении курсора на саму страницу. Для пользователя было почти невозможно избежать отключения этого кода.

Я нашел код на сайте, который занял первое место в Google по его ключевой фразе. Поскольку роботы поисковых систем не используют мышь, они слепы к спам-активности. В этом случае тактика сочеталась с перенаправлением на серверную сторону на другую страницу, что было актуально только в некоторых случаях. Цель перенаправления, возможно, была частью большей уловки для поддержки другой стратегии ранжирования.

Динамическое создание страниц в реальном времени

Веб-сервер может создавать и обслуживать различные оптимизированные страницы в соответствии с рефералом любого запроса страницы.

Теоретически, нет ничего плохого в том, чтобы показывать страницу, адаптированную к обстоятельствам, в которых она была запрошена. Действительно, во многих рекламных кампаниях показывается различная реклама в зависимости от типа баннера, на который был нажат. Индивидуальные объявления рассматриваются как более эффективные и полезные для пользователей.

Однако при динамическом спаме на сайте загружаются сотни таких фантомных страниц (динамических URL), которые действуют как партнерские ссылки на какой-либо другой сайт. Поисковые системы не хотят партнерские ссылки. В случае, который я обнаружил, все ссылки были зачислены на счетчик обратных ссылок сайта.

Я не думаю, что именно это имели в виду поисковые системы, когда они начали размещать динамические URL — они, конечно, не хотят разрешать спам по партнерской ссылке.

Вот как обычно выглядят ссылки:

 www.spammersite7.com/perl/click.pl?id=2068&a=i

Когда робот переходит по ссылкам, он получает мета-ссылку, которая ссылается на страницу ошибки с именем redirect.cfm На этой странице есть ссылки на домашнюю страницу, которые зачисляются на счетчик обратных ссылок сайта.

 <meta http-equiv="REFRESH" content="2; URL=http:// www.spammersite7.com/redirect.cfm?url=spammersite7.com">  
 
</head>  
<body onLoad="document.form1.submit();" >  
Please Wait...  
<form name="form1" method="post" action="redirect.cfm">  
<input type="hidden" name="url" value=" spammersite7.com ">  
</form>

Слои DHTML и скрытый текст

Используя уровень DHTML, спамеры могут скрывать слои ключевых слов под графикой. Один слой покрывает другой визуально, но текст, скрытый на нижнем слое, читается роботом поисковой машины — еще один крайне нелегальный метод.

HTML Скрытые ячейки таблицы

Объединенные возможности CSS и html и свободный dtd <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">

CSS позволяет гибкое позиционирование элементов веб-страницы; это гибкий язык кодирования, который поисковые системы не до конца понимают. Короче говоря, поисковая система не знает, что именно отображается. Эта хитрость может быть указана в отдельном листе CSS (файл .css), который поисковая система может индексировать или не индексировать. Однако этот файл таблицы стилей CSS влияет на отображение содержимого на странице.

В этом примере CSS влияет на отображение тела веб-страницы, которое установлено на 97%:

 {font-family: Arial, Helvetica, sans-serif; width:97%; font-size: 10pt; overflow: hidden; color: #000000; margin: 0px;}.

В обычном коде файлы .gif могут быть размещены на странице на ширине 150%, гарантируя, что часть страницы не будет видна. Эти дополнительные 50% дают достаточно места для ключевых слов, вставленных в теги <h1>

Огромные машинные сайты

Те веб-мастера, которые не разбираются в трюках html, dhtml или css, могут попробовать что-то попроще. Когда контента не хватает, они часто пытаются растянуть минимальный объем контента на тысячи страниц. Страницы построены с использованием шаблонов, а предложения внутри них в основном перетасовываются с одной страницы на другую. Уникальные теги заголовков вставляются в каждую сгенерированную страницу.

Эта техника в основном видит одну и ту же страницу, повторяемую сотни и тысячи раз. Это можно сделать даже с помощью компьютерной программы, которая систематически вставляет текстовые предложения, абзацы и заголовки, включая ключевые слова, в страницы.

Этот метод чаще всего используется на сайтах электронной коммерции, которые имеют ограниченный ассортимент товаров для продажи. Часто продукты просто реорганизуются или перетасовываются, чтобы создать другую страницу, которая кажется уникальной. Это на самом деле один и тот же выбор продуктов, представленных бесчисленными разными способами.

Ссылка Спам

Чтобы максимизировать распространение Pagerank по всему Веб-сайту, некоторые спамеры заполняют страницу ссылками до точки, где это просто страница ссылок, а каждая страница ссылается на любую другую страницу.

Зачем это делать? Что ж, максимизируя количество ссылок, спамер более равномерно распределяет PageRank по всему сайту. Когда ссылки со всех этих страниц указывают на одну страницу в теме ключевого слова, сайт может получить более высокий рейтинг для этой фразы.

Обмен ссылками также считается ссылочным спамом. Ссылки сфабрикованы — не реальное отражение личного выбора. Большинство обменов ссылками в настоящее время отфильтровываются из результатов поиска; однако некоторые ссылки в обмене ссылками все еще распознаются.

Эта система позволяет серверу предоставлять роботу контент, отличный от того, который доставляется посетителям. А это значит, что поисковик может быть обманут.

Невидимый текст

Невидимый текст невидим, потому что цвет шрифта совпадает с цветом фона или фонового изображения.

В одном примере, который я видел, сайт использовал цвет шрифта «снег», чтобы сделать текст белым на белом фоне. Автор также использовал этот тег шрифта таким образом, что он перекрывал другой тег, что еще больше запутало робота поисковой системы.

В приведенном ниже примере используется черный цвет .gif в качестве фона для скрытия черного текста. Он также имеет слой dhtml прямо над ним, чтобы еще больше скрыть текст.

 <body bgcolor="#000000">  
<table width="14%" border="0" cellpadding="6" cellspacing="0" bgcolor="#FFFFFF">  
 <tr>  
   <td background="black.gif"><font color="#000000">invisible text</font></td>  
 </tr>  
</table>  
<div id="Layer1" style="position:absolute; width:200px; height:115px; z-index:1; left: 5px; top: 8px; background-image: url(black.gif); layer-background-image: url(black.gif); border: 1px none #000000;"></div>  
</body>

Робот не может определить, совпадает ли текст в слое dhtml с фоном, используемым в слое под ним. Слой может быть даже установлен вне экрана, поэтому он никогда не будет виден человеку.

Ссылка Фермы

Фермы ссылок по-прежнему распространены в Интернете, хотя поисковые системы могут обнаруживать их присутствие с помощью распознавания образов ссылок. Поскольку рассылка спама осуществляется на макроуровне, поисковые системы должны иметь возможность просматривать большую сложную сеть ссылок и удалять те, которые генерируются компьютером и не являются истинными, выбранными человеком ссылками.

Алгоритм на вершине холма — это один фильтр, минимизирующий преимущество сотен бесполезных ссылок.

Штрафы за спам

Каждая поисковая система имеет свои собственные запреты и соответствующие штрафы. Каждое наказание является ответом на степень угрозы, которую поисковая система представляет для данной техники рассылки спама.

Спаммеры могут получить недостатки, из-за которых рейтинг их сайтов по определенной фразе может значительно упасть. В качестве альтернативы, для конкретной страницы может быть назначено нулевое наказание PageRank, или целые сайты могут быть заблокированы, если поисковая система выберет.

Теперь, когда эти методы широко известны, я настоятельно советую вам не пробовать их. Инженеры поисковых систем могут быть смущены тем, что эти трюки действительно работают, и будут действовать быстро, чтобы принять меры против спамеров.

О, какая злая паутина, которую мы плетем

Какое последнее слово о спаме в поисковых системах? Ну, это между вами и поисковыми системами. Теперь, когда вы знакомы с некоторыми из популярных методов рассылки спама, вы по крайней мере узнаете, как их избежать. Как только слово выходит, поисковые системы будут запрещать их использование.

Чтобы избежать проблем, создаваемых спамом, выберите SEO, который может достичь законных результатов. Не спрашивайте о десятке гарантий, когда гарантии считаются неправильными поисковыми системами. Наймите SEO, который предлагает полный пакет создания и развития контента. Вы получите ценность своих денег, поисковые системы получат богатый, полезный контент, а ваш сайт привлечет целевых, квалифицированных пользователей.