http://wm-monitoring.ru/ ')) {alert('Спасибо за то что установили нашу кнопку! =)');} else {alert('Очень жаль! =(');}"> http://wm-monitoring.ru/

Главная Новости

Фильтры Google (Panda, Penguin) - кто такие и их разновидности

Опубликовано: 02.09.2018

видео Фильтры Google (Panda, Penguin) - кто такие и их разновидности

Filter Function in Google Sheets

Здравствуйте, дорогие читатели блога LoleknBolek.com! На связи Lolek и сегодня мы поговорим о фильтрах Google и способах борьбы с ними.



Список всех фильтров Гугла для наглядности продемонстрирую в виду изображения.

Фильтры Google и фильтры Яндекса имеют идентичный смысл. Оба поисковика пытаются сделать выдачу как можно более релевантной Вашему запросу исключая (или понижая позиции) плохие сайты. Названия алгоритмов разные и у Google их немного больше, но принцип остается такой же. Рассмотрим все по порядку.


6 причин попадания под фильтры Google

Panda (Панда)

Данный алгоритм фильтрации поисковой выдачи ориентирован большим счет на качество контента на сайте.

Его можно получить за:

неуникальный контент на сайте большое количество дублей страниц перенасыщение страниц ключевыми словами не тематическую рекламу на сайте и другое

Это один из самых жестоких алгоритмов у Гугла.  Впервые был запущен в феврале 2011 года. С того времени алгоритм постоянно обновлялся и 26 сентября 2014 года вышла последняя версия Panda 4.1. Это своеобразный аналог АГС Яндекса.

Как вывести сайт из-под фильтра Panda

 Если у Вас неуникальный контент, то его нужно срочно переписать на уникальный (узнайте  как проверить текст на уникальность )  Не спамить ключевыми словами Писать текст для людей, а не для поисковика Убрать нетематическую рекламу Убрать дубли страниц страниц (читайте также  как найти дубли страниц ) Закрыть от индексации служебные разделы, страницы не для людей  и страницы без текста

Писать через вебмастер Google  на пересмотр сайт не стоит, так как алгоритм полностью автоматический. После того, как исправите все недостатки нужно будет немного подождать до следующего апдейта .

Пингвин (Penguin)

Это «животное» в отличие от Панды ориентировано на ссылочную составляющую Вашего сайта.  Запущен он был в апреле 2012 года и после запуска Google особых рекомендаций не давал (это в стиле Гугла).

За что можно получить Пингвина:

прямые вхождения ключевых слов в анкор ссылки (не нужно превышать порог в 30% прямых вхождений ключевых слов для всего сайта) за ссылки с переспамом по ключевым словам (более 30%) за ссылки с сайтов сомнительного качества за быстрое наращивание ссылочной массы за большое количество исходящих ссылок за исходящие ссылки на некачественные ресурсы и сайты запрещенных тематик за длинные доменные имена и адреса страниц (URL) с большим количество ключевых слов

Советую покупать ссылки только с качественных ресурсов и не грешить с анкорами. Делайте все максимально естественно, не «лепите» ссылку туда, где она не подходит по смыслу. Разбавляйте ссылки безанкорными (к ним относят ссылки с анкорами «тут», «здесь», «ссылка», доменное имя и т.д.).

Песочница (SandBox)

Данный фильтр не позволяет молодым сайтам (моложе 4-5 месяцев) попадать в ТОП поисковой выдаче по высокочастотным запросам.

Есть несколько способов борьбы с ним:

Продвижение только по НЧ и СЧ запросам (это позволит набрать хорошей посещаемости и затем быстрее сайт выйдет по ВЧ запросам) Купить старый домен и разместить на нем свой сайт

 Дополнительные результаты ( Supplemental Results)

Его применяют к страницам с дублирующимся контентом, страницам с маленьким объемом текста либо его полным отсутствием.  Seo-специалисты часто называют его |соплями».

Проверить наличие «соплей» можно так: введите в поисковую строку Google запрос  site:www.loleknbolek.com -site:www.loleknbolek.com/& (при этом вместо www.loleknbolek.com нужно вставить свой домен).

Как победить этот фильтр:

Размещать уникальный текст размером  1000-1500 символов минимум. Закрывать дубли страниц от индексации через файл robots.txt

Бомбежка (Bombing)

Этот алгоритм фильтрации применяется к сайтам имеющим большое количество внешних ссылок с прямым вхождением ключевого слова в анкор ссылки.

Одолеть этот алгоритм можно так:

убрать определенную часть ссылок с «грешными» анкорами купить ссылок для разбавления (безанкорных желательно)

Фильтр -30

Он применяется к сайтам использующим скрытые редиректы, дорвеи и другие способы подсунуть поисковику один текст, а человеку другой. Думаю Вы догадались, что наказанием является понижение такие сайтов на 30 позиций в поисковой выдаче.

Для снятия нужно убрать все редиректы, дорвеи и прочие хитрые штуки созданые для обмана Google.

Дублирующийся контент

Если у Вас неуникальный контент на сайте, то этот алгоритм придет в гости  и полюбит Ваш сайт

Как бороться с этим фильтром:

 Социтирование

Не покупайте ссылки с нетематических веб-ресурсов (сайтов, блогов и т.д.) и «знакомства» с этим алгоритмом не состоится.

Если все же попали под этот алгоритм фильтрации поисковой выдачи, то уберите ссылки с нетематических ресурсов и купите новых, трастовых с тематических.

Чрезмерная оптимизация

Накладывается на сайты с большим количеством ключевых слов. Что б избежать попадания под него, пишите тексты с плотностью ключей 5-6% (я использую 3 ключа на статью в 2000-2500 символов и не более 5 при больших размерах). Разбавляйте словами синонимами — это будет огромным плюсом.

Фильтрация страниц по времени загрузки

Этот фильтр поисковой системы Google предназначен для пессимизации страниц которые долго загружаются. Попытайтесь ускорить работу своего сайта (оптимизируйте код, уменьшите вес фотографий, переместите все стили в отдельный файл CSS  и т.д.).

С Вами был Лёлик, до встречи:)

П.С. Осторожнее с ключами их лучше меньше немного, чем больше. Позиции можно дотянуть ссылками или поведенческими факторами. Много ключей на 1-у страницу — это уже в прошлом

Карта
rss