Алгоритм Penguin 1.1 против спама

против спама

Корпорация Google выпустила первое обновление нашумевшего поискового алгоритма Penguin. Алгоритм Penguin 1.1 работает на базе Penguin и дополнен новой базой данных.

В Google уже успели заявить, что новый алгоритм будет ещё эффективнее бороться с «чёрным» SEO и выявлять переоптимизированные сайты. То есть, новшеством алгоритма Penguin 1.1 стала усовершенствованная система борьбы со спамом, о которой и пойдёт речь в данной статье.

Кратко о Penguin 1.1

Как было указано выше, алгоритм Penguin 1.1 отличается от своего старшего брата только обновлённой базой данной. Кроме того, в Google внесли изменения в механизм обработки входящего/исходящего с сайта трафика, что, как заявили в корпорации, позволит эффективнее бороться со спамом.

Новый механизм алгоритма Penguin 1.1 будет отслеживать, как поисковые запросы на сайт, так и исходящие с него сигналы (фактически, любая релевантная информация), что позволит алгоритму Google отследить и вычислить ссылки, PageRank, авторитетность и грамотность контента каждой страницы сайта.

Предполагается, что тщательный анализ позволит Google создать ещё более совершенный поисковой алгоритм, чем Penguin.

Дадим бой спаму!

«Спамовость» сайта определяется по трём основным характеристикам:

1. Избыточное использование ключевых слов;

2. Переоптимизированность;

3. Открытое использование приобретённых ссылок.

Если алгоритмы Google находят на сайте вышеперечисленные погрешности, то, скорее всего, сайт потеряет большую часть трафика и, следовательно, лишится высокой позиции на странице поисковой выдачи. Более того, если такие сайты пока не оштрафованы, это ненадолго – новый механизм алгоритма Penguin 1.1 отслеживает все данные сайта, и следующие версии Penguin или Panda не обойдут его стороной.

Похоже, что Google ещё оставил вебмастерам немного времени, чтобы исправить ошибки. Как же избавиться от спама?

1. Разберитесь со ссылками. Поисковые боты и алгоритмы становятся совершеннее, поэтому больше ни один сайт не может полагаться на приобретённые ссылки. Лучшей тактикой будет использовать, как реальные, так и приобретённые ссылки, попытавшись максимально уменьшить количество последних. Отсейте неработающие ссылки с помощью Google WebmasterTools. Уберите ссылки с неавторитетных сайтов, а также заблокируйте сайты с большим количеством исходящих ссылок. Кроме того, при создании новых ссылок проверяйте их по следующим показателям: вес домена, тип предложения ссылки, разбиение домена на страницы, IP-адрес, кэширование и индексация ссылки.

2. Используйте «белое» SEO. Не перегибайте палку при оптимизации – Google требует, чтобы на сайтах использовалось только «белое» SEO, которое состоит не просто в грамотном использовании ключевых слов, мета-тегов и контента. Естественная оптимизация сайта предполагает контроль над совместимостью ключевых слов на следующих уровнях: навигационный контент, контент сносок, мета-описания изображений, основной контент, внутренние ссылки с точным совпадением ключевых слов, теги заглавий, мета-теги.

3. Используйте варианты ключевых слов. С введением алгоритма Penguin 1.1, это требование стало ещё актуальнее. Более того, Google настолько ужесточил требования, что часто совпадение текста ссылки с ключевыми словами считается спамом.

Итак, новый алгоритм Penguin 1.1 заставит веб-мастеров попотеть и часто коренным образом поменять всю стратегию развития сайта. Однако, не будем печалиться – «чистые» сайты только выигрывают от нововведений Google

Добавить комментарий


Защитный код
Обновить

Cкачайте приложение на Андроид и будьте в курсе новостей
Интернет-маркетинга всегда!

Joomla Templates and Joomla Extensions by ZooTemplate.Com

WebSEOHelp

smp-forum.ru


.
Наверх
закрыть