Помощничек
Главная | Обратная связь


Археология
Архитектура
Астрономия
Аудит
Биология
Ботаника
Бухгалтерский учёт
Войное дело
Генетика
География
Геология
Дизайн
Искусство
История
Кино
Кулинария
Культура
Литература
Математика
Медицина
Металлургия
Мифология
Музыка
Психология
Религия
Спорт
Строительство
Техника
Транспорт
Туризм
Усадьба
Физика
Фотография
Химия
Экология
Электричество
Электроника
Энергетика

IV. Выход из под фильтра

Тема 6

Спамдексинг и ошибки оптимизатора
Виды спама. Санкции поисковых систем — виды, причины наложения и пути выведения сайта из-под фильтра. Практика.

 

I. Спамдексинг.

Спамдексинг или Поисковый спам - это использование приемов черного СЕО с целью манипулирования результатами поиска и повышения рейтинга сайта в выдаче. Спамдексинг направлен на обман поисковых роботов и строго наказывается баном.

Применяя спамдексинг, вебмастер в короткие сроки может вывести сайт в ТОП поисковой выдачи, но при этом интересы пользователей остаются на последнем месте. Чаще всего прибегание к поисковому спаму не оправдывает себя, так как это краткосрочные меры и велик риск нанести серьезный урон продвигаемому ресурсу.

Виды спамдексинга

  • Спамдексинг реализуется в различных приемах, например:
  • Занесение в Метатеги популярных поисковых запросов, которые не являются ключевыми и не соответствуют тематике сайта;
  • Перенасыщение контента ключевыми словами и фразами;
  • Использование тегов маркировки HTML (b, em, i и др.) с целью искусственного завышения веса ключевиков;
  • Наполнение страниц наряду с контентом для пользователей также скрытым текстом, предназначенным только для индексации поисковым роботом;
  • Дорвеи - перенаправляющие (редирект, ссылки) страницы, переоптимизированные по основным запросам и занимающие высокие позиции в выдаче;
  • Клоакинг - подменные страницы, показывающие различное содержимое пользователям и роботам;
  • Свопинг - замена контента на странице после того, как сайт достиг высоких позиций в ТОПе;
  • Ссылочный спам - искусственная накрутка параметров ТИЦ и PR сайта при помощи ссылок, размещенных на сайте-доноре, с целью увеличения авторитетности исходного ресурса;

 

Спамдексинг и поисковики

Поисковый спам сказывается негативно на работе поисковых систем и качестве выдачи, которая засоряется мусорными сайтами и предоставляет пользователям необъективную и некачественную информацию.

В результате поисковые машины вынуждены настраивать различные фильтры для борьбы с поисковым спамом, все более усложняя и перестраивая свои алгоритмы.

II. Фильтры.

Фильтр - алгоритм поисковой системы, применяющий санкции к сайтам, которые искусственными методами повлияли на повышение позиций в поисковой выдаче. Как правило, фильтр отсеивает такие сайты и исключает их из выдачи.

Поисковый робот при индексации сайтов проверяет их на характер присутствия черных методов оптимизации, так как целью поисковых систем является предоставление пользователю только качественных и полезных ресурсов. При наложении фильтра поисковая система об этом не сообщает. Сигнализируют о попадании сайта под фильтр только внешние признаки:

  • Страницы сайта не индексируются поисковой машиной
  • Сайт не поднимается в поисковой выдаче
  • Трафик падает
  • Сайт отсутствует в выдаче по ключевым запросам

Факторы риска

Фильтр может налагаться поисковой системой в связи со следующими факторами:

  • Наполнение сайта неуникальным контентом, скопированным с другого ресурса
  • Чрезмерное употребление в текстах на сайте ключей
  • Резкие изменения ссылочной массы (уменьшение или увеличение бэклинков)
  • Приобретение ссылок с некачественных ресурсов
  • Слишком активная продажа ссылок со страниц сайта (превращение сайта в "помойку" за счет большого количества ссылок)

Фильтры Яндекса

  • АГС (АГС-17 и АГС-30) - фильтр, призванный бороться с сателлитами и сайтами, созданными для продажи ссылок. Такого рода большие многостраничные сайты содержат десяток страниц с контентом, которые попадают в индекс, а остальные робот распознает как не несущие ценности для пользователя и они целиком выпадают из индекса.
  • Непот-фильтр - данный фильтр накладывается на сайты, активно продающие ссылки и за ссылочный спам. В результате исходящие ссылки перестают передавать свой вес и их продажа не имеет смысла. Список сайтов, попавших под непот фильтр, носит название непот-лист.
  • Ты последний - применяется к сайтам, содержащим страницы с дублированным (неуникальным) контентом. Сайт не попадает в выдачу по ключевым запросам.
  • Редирект фильтр - накладывается на сайты, которые используют редиректы (дорвеи). Сайт попадает в бан.
  • Фильтр аффилиатов - применяется к сайту и его аффилиатам с целью оставить в выдаче по ключевым запросам только один, наиболее релевантный запросу сайт.
  • Ты спамный - борется со страницами с чрезмерно высокой плотностью ключевиков. Такие страницы выпадают из индекса поисковой системы.

Фильтры Google

Поисковая система Google располагает большим количеством фильтров, но многие из них не заточены под русскоязычный сегмент интернета.

  • Песочница(sandbox) - применяется к молодым сайтам с возрастом до полугода. Google не пропускает в выдачу такие сайты по высокочастотным запросам, но по низкочастотным дорога в выдачу открыта. Срок "просиживания" в песочнице может варьироваться от 3-х месяцев и более. На этот срок оказывают влияние качество контента и количество внешних ссылок.
  • Bombing или склеивание - применяется к сайтам с ссылками, имеющими одинаковый анкор. такие сайты выпадают из выдачи.
  • Links - применяется к сайтам, содержащим страницу обмена ссылок с другими ресурсами.
  • Минус 30 - под этот фильтр попадают сайты, использующие клоакинг или редиректы. В результате сайт понижается в выдаче на 30 позиций.
  • Дублирующийся контент - борется с частичным или полным копированием контента с других ресурсов.
  • Социтирование - применяется относительно сайтов, на которые ссылаются доноры, не соответствующие тематике сайта или содержащие неправомерный контент. Вес ссылок с таких доноров не учитывается.
  • Много ссылок сразу - фильтр по причине резкого увеличения ссылочной массы, что трактуется Google как покупка ссылок. Сайт теряет позиции или попадает под бан поисковой системы.
  • Время загрузки - слишком долгая загрузка страницы не поощряется поисковиком и сайт не попадает в индекс и в результаты выдачи.
  • Чрезмерная оптимизация - фильтр применяется к страницам сайта, перенасыщенным ключевыми словами и фразами. сайт теряет свои позиции.
  • Битые ссылки - поисковик не может проиндексировать ссылки, которые ведут на несуществующие на сайте страницы. Это отрицательно отражается на поисковой выдаче и общих показателях сайта.
  • Опущенные результаты - сайт попадает под этот фильтр по причине неуникального контента, недостаточного числа входящих ссылок, отсутствие внутренней перелинковки, дублирующие заголовки.
  • Дополнительные результаты - поисковик, налагая данный фильтр на страницы сайта, считает их незначимыми для пользователя. В результате выдачи такие страницы будут ранжироваться ниже, чем значимые по мнению робота страницы. Добавить значимости можно при помощи входящих ссылок.

Ш. Зеркала и аффилаты

Зеркало (от англ. Mirror) - сайт, являющийся точной или почти полной (более, чем на 80%) копией основного сайта.

Такие физические копии сайтов располагаются на другом сервере и создаются с целью снятия большой нагрузки с высокопосещаемого ресурса. Таким образом, зеркала поддерживают функционирование больших и высоконагруженных сайтов, которые одновременно посещают тысячи человек.

Так же зеркала создаются и для других целей. Например, как резервные площадки для сохранения данных в случае возможных неполадок на сервере, для доступности ресурса при проведении работ на основном сайте.

Зеркала создаются и с целью большей степени вероятности нахождения ресурса пользователями, когда они вводят доменное имя в строку браузера. Так покупается несколько доменных имен с различными вариантами написания названия сайта и на них размещаются зеркала.

Склейка зеркал

При создании основного ресурса и его зеркал важно помнить об отношении поисковых систем к дубликатам и предотвратить принудительную склейку зеркал поисковиками.

Поисковики не считают нужным хранить в своей базе дублированные веб-документы и, дабы не засорять выдачу, оставляют в индексе один сайт, а остальные с идентичным контентом исключают из выдачи. В этом случае поисковая система, согласно своим алгоритмам, самостоятельно определяет, какой ресурс будет считаться основным, а какие будут исключены из индекса.

Склейка зеркал поисковиками может привести к тому, что основной ресурс будет удален из индекса, а останется в выдаче одно из зеркал, которое будет выполнять роль главного сайта. Чтобы избежать этого, нужно запретить поисковым роботам индексацию зеркал.

Решения управления склейкой зеркал:

  • На главных страницах зеркал размещается тег <meta name="robots" content="noindex, nofollow">, который закрывает их от индексации и запрещает обход по ссылкам.
  • В файле robots.txt необходимо указать директиву Host с именем основного сайта
  • В сервисе Яндекс.Вебмастер в разделе «Главное зеркало» указать основной сайт. По словам ПС Яндекс это имеет больший приоритет, чем директива Host.
  • Прописать редирект 301 со страниц неглавного зеркала на соответствующие страницы главного.

Так же склейке поисковыми системами надлежат сайты-аффилиаты, содержащие идентичные контактные данные и данные в whois домена. Так поисковики борются с тем, чтобы по одним и тем же поисковым запросам в выдаче не присутствовали одновременно сайты, принадлежащие одному и тому же лицу.

Кроме зеркал склеенными могут оказаться так же страницы одного сайта, или разных сайтов, принадлежащих разным владельцам. Это случается по причине большого процента одинакового контента. Как и в случае с зеркалами, поисковик определяет главную копию и показывает ее в результатах поиска.

Аффилиаты (от англ. affiliate – филиал) - это сайты, связанные друг с другом и принадлежащие одному владельцу, но не являющиеся зеркалами.

Аффилированные сайты идентифицируются поисковой системой и ручной проверкой асессоров по следующим признакам:

  • идентичная контактная информация
  • один и тот же хостинг
  • схожий контент и тематика
  • частичное совпадение доменных имен
  • одинаковая ссылочная масса
  • один IP-адрес
  • обратные ссылки друг на друга
  • близкое время регистрации доменов

IV. Выход из под фильтра.

1. Устранить причины.

2. Ждать или писать в техническую поддержку.

Полезный материал: http://www.armadaboard.com/articles170.htm

VI. Практика

Анализ сайтов при помощи сервисов:

http://www.cy-pr.com

http://xseo.in/

 




Поиск по сайту:

©2015-2020 studopedya.ru Все права принадлежат авторам размещенных материалов.