Восстановление от алгоритма Google Panda

Google Panda

Совсем недавно руководитель отдела Google по борьбе с поисковым спамом Мэтт Каттс анонсировал обновление алгоритма Penguin — Penguin 1.1.

Каттс держит связь с вебмастерами через твиты, в которых намекает, что Penguin обновляется не реже, чем меняется погода за окном.

Как утверждает Каттс, обновление повлияет на результаты менее чем 0,1 процента ото всех англоязычных поисковых запросов. По сути, произошло не радикальное изменение принципа работы алгоритма, а обновление базы данных. В чем разница — Каттс объяснил еще в 2006 году в одной из записей своего блога.

Как решить проблему

Интереснейший отчет о восстановлении от действия алгоритма Google Penguin представил в своем блоге SEOMoz на WPMU.org Росс Хадженс. По его мнению, важнейший фактор в данном случае — это уничтожение большей части сомнительных ссылок на сайт и на самом сайте; Хадженс заявил, что сотрудники WPMU.org уничтожили около 15 тысяч «ненадежных» ссылок, тем самым резко увеличив степень доверия к себе.

Наряду с этим, Хадженс включил в своей отчет о восстановлении в качестве рекомендации тщательную проверку собственного SEO-контента, подачу заявки на проверку алгоритмом Penguin и ряд других мер. Порядок действий, согласно сообщениям в Twitter Хадженса, должен был следующим: 1) удаление «мусорных» ссылок и ненужных анкоров; 2) заполнение сайта полезными ссылками; 3) обращение к Дэнни Салливану с целью привлечь внимание интернет-СМИ к своему грамотно сделанному ресурсу. В итоге запросто можно оказаться на первой странице в поиске Google.

Другие «жертвы»

WPMU.org — не единственный сайт, ставший мишенью для Penguin; свой отчет о восстановлении опубликовали и другие ресурсы. Аналогичную статью, к примеру, написал Дэнни Гудвин с сайта WSJ.com. Как и многие другие, он полагает, что Google проводит несправедливую политику, буквально «насилуя и дискриминируя» малый бизнес и не давая ему шанса донести информацию до потребителя. Впрочем, алгоритм достаточно узкоспециализирован, и тщательная проверка сайта вполне может выявить и решить проблему.

Как утверждает Гудвин, проблемой для сайта могут стать: 1) проплаченные ссылки с текстом в анкоре; 2) спам в комментариях; 3) размещенный «гостевой» контент на сомнительных сайтах; 4) продающие статьи; 5) ссылки с опасных сайтов. Этот список выглядит достаточно полным. Впрочем, если его будет недостаточно, в Интернете можно обнаружить не менее ценные отчеты Брюса Клэя, Саймона Пенсона, Гиллауме Бушара, а также Лизы Байер и Джеффа Слипко, которые также затрагивают вопрос борьбы с обновлениями алгоритмов вроде Panda.

Cкачайте приложение на Андроид и будьте в курсе новостей
Интернет-маркетинга всегда!

WebSEOHelp

smp-forum.ru


.
Наверх
закрыть

Консоль отладки Joomla!

Ошибки

Сессия

Результаты профилирования

Использование памяти

Запросы к базе данных