-->

Что рекомендовали просевшим от Google Panda 3.4 сайтам в 2012 году?

Кот программиста

25 апреля 2012 года Google выкатил новый алгоритм Panda 3.4, как всегда, направленный на борьбу со спамом в выдаче. Упоминалась, что он затронул около 3% запросов, но чувствовалось, что всё гораздо масштабнее. Думаю, излишне напоминать, что для блогов на Blogger трафик из Google очень даже немаловажен. Впрочем, и для других сайтов предлагаемая информация будет не лишней.

Спасибо Елене Камской за перевод выжимок из аналитического отчёта: Google Panda 3.4 Update Даниэля Фоли (Daniel Foley). Мой английский желает лучшего, а тема весьма актуальна. Но чтобы не копипастить один в один, немного подрерайтю сабж, а главное поделюсь и своими соображениями по каждому из пунктов. И так.

Старый алгоритм оценки качества ссылок окончательно ушёл в небытие, сейчас поисковая система Google использует совсем другие метрики ссылочного ранжирования.

Честно говоря, я не представляю, что нового тут можно придумать. Будем следить за SEO-экспериментами. В тоже время здесь упоминаются именно метрики ссылочного ранжирования, т.е. стали рассматриваться какие-то другие их свойства или более глубоко имеющиеся. Напомню, что это не утверждение, а лишь предположение, но дальше больше.

Сетки блогов и ссылочные сетки полностью обесценились. Перелинковка между сеткой сайтов (блогов) с целью повлиять на позиции теперь определяется намного быстрее и действует как понижающий фактор.

Ну, это не так уж и принципиально для меня. Хотя, теперь перелинковывать свои блоги стало более стрёмно. В тоже время, я не уверен, что всё это будет столь уж масштабно. Одно то, что Panda 3.4 затронула лишь 3% запросов, явно указывает на то, что до победы алгоритмов над разумом ещё далеко. Да и речь идёт именно о сателитах, их сетка и т.п.

Правда, один вывод я беру на заметку – не слишком увлекаться перелинковкой, в том числе и внутренней, и убрать PingBack в блоге. Лучше подстраховаться, и если что делать подобные вещи через тот же JavaScript/AJAX.

Ощутимо просели сайты, которые массово наращивали свою ссылочную массу за счёт ссылок в комментариях к постам в блогах, форумах и т.д. или пользовались популярными ссылочными биржами.

Конечно, было бы интересно узнать степени массовости, после которых начинаются применяться санкции, но в целом всё более-менее понятно. Эти же наблюдения всплывают при каждом обновлении алгоритмов, но ссылки меньше покупать не стали, да и срача в комментариях блогов и форумов не уменьшилось.

Опять же сейчас очень мало стоящих dofollow блогов и форумов. Самым офигительным, из известных мне, является dofollow-блог devaka.ru. К слову Сергей Кокшаров тоже отписался о Панде, но ссылаясь на сведения Маркуса Тобера (Marcus Tober). Создаётся такое впечатление, что шумиха какая-то есть, но нужно время чтоб всё разложить по полочкам. Зарубежные собратья сеошники в этом плане шустрее или просто однотипно пишут что-то для галочки, а мы как попугаи...

Вывод тут следующий – всё модерировать и взвинчивать цену на постовые, конечно речь о нормальных блогах, чьи авторы заботятся о его продвижении в Google. Если рекламодателей торкнёт, они будут готовы платить гораздо больше, но только нормальным, трастовым площадкам.

Если семантическое ядро сайта содержит неестественный уклон по каким-либо ключевым словам, с наращиванием их влияния на поисковую выдачу за счёт платных ссылок, мы получим обратный эффект – позиции по этим ключевым словам будут понижаться.

Думаю, что речь идёт о неудобочитаемых ключевых словах. В большинстве случаев используются именно такие, например: пластиковые окна киев отзывы – вместо: отзывы о продаваемых в Киеве пластиковых окнах – или что-то в этом роде. По сути, в этом нет ничего нового. Это было, есть и будет. Может, копнули глубже? Тогда вывод очевиден: использовать в семантическом ядре естественный набор ключевых слов, отдав на откуп поисковой системы вопрос с комбинациями.

Понятно и то, что лучше купить немного дорогих ссылок на СДЛ, чем много, но дешёвых, на ГС. Теперь это как бы актуальней, но привычка страшная штука и сеошники явно что-то придумают чтобы сберечь копеечку.

Использование кейсов топовых конкурентов тоже может дать отрицательный результат.

Другими словами, надо придумывать что-то своё. Честно говоря, я не понимаю, чем плоха стандартизация. Или речь о чём-то другом? Все блоги на одно лицо – архив записей, теги и категории, отдельные посты и страницы. Что-то новое придумать будет сложно, а главное – зачем? Так что ситуация не однозначна и выводы здесь мне сделать сложно.

Ускорена пессимизация дублированного контента, особенно если это касается продвигаемых страниц.

Ну, эту тему уже давно просекли. Такой финт ушами сильно ударил по тем же Интернет магазинам, где описание товаров далеко не уникально. Поэтому продвигают не отдельные товары, а товарные категории, где можно развернуться и выдать что-то уникальное.

Понизился траст у сайтов, которые размещают на самых привлекательных местах страницы в первом экране, вместо контента, множество рекламных блоков.

По всей видимости, речь идёт о перегрузе рекламы по соотношению с объёмами контента на страницы. Тот же Google всячески советует размещать на самых привлекательных местах блоки AdSense. Вывод очевиден: не больше трёх блоков рекламы на странице с соответствующим объёмом контента, т.е. так чтоб реклама не мешала содержанию страницы.

Конечно, это далеко не весь перечень от Даниэля Фоли, но как я и говорил, мой английский желает лучше. Да и нужно осмыслить то, что есть. В любом случае спешить что-то делать, менять и т.д. нужно по факту наличия проблемы. И то, очень осторожно, т.к. реальных советов ещё нет. Вроде бы всё, спасибо за внимание. Удачи!

Google Панда инфографика

Twitter Facebook ВКонтакте Одноклассники Google+

1 комментарий:

Unknown
Привет.
Хорошая статья - видно, что в теме, как говорится.
Я не спец в СЕО, но давно уже на него махнул рукой. Всего не угадать, не предусмотреть.
Фиг их знает, к чему идем.
Отправить комментарий