Главная Новости

5 причин, почему сайт после Google Пингвина не восстанавливается

Опубликовано: 01.09.2018

Когда Google запустил алгоритм Пингвин (24 апреля 2012 г.), многие сайты, которые при продвижении использовали ссылки с ГСов, серьезно пострадали. В интернете можно найти множество истории владельцев сайтов - бизнесменов, попавших под фильтр еще в самом начале появления Пингвина и так до сих пор и не оправившихся от его воздействия.


Things Mr. Welch is No Longer Allowed to do in a RPG #1-2450 Reading Compilation

Эти трагические истории владельцев малого бизнеса, как правило, начинались с принятия в фирму молодого СЕО-специалиста, который должен был помочь компании занять свое место в топе результатов поиска Google. И, конечно же, им не было дела до того, какие методы использовались неопытным СЕОшником для достижения цели, ведь важен был только результат. А методы эти нарушали принципы работы с поисковой системой.

Теперь же, многие из этих предприятий, вследствие такого рода продвижения, теряют много денег, так как они не могут вернуть сайту прежние позиции.

И, несмотря на то, что избавиться от наложенных Пингвином санкций можно, сделать это очень и очень трудно.

Вот 5 причин того, почему Ваш сайт не восстанавливается после Пингвина:

Вы не достаточно хорошо очистили ссылочную массу от плохих ссылок

Если вы пострадали от Пингвина , то это, скорее всего потому, что у вас есть неестественные ссылки, ведущие на ваш сайт. Конечно же, есть и другие факторы, которые могут способствовать попаданию под «птицу», но плохие ссылки являются на сегодняшний день наиболее важной причиной.

Алгоритм Пингвин был создан для того, чтобы находить сайты, которые обманывают алгоритмы Google, с целью манипуляции результатами выдачи. Если алгоритм определит, что большинство ссылок неестественные, то это приведет к снижению траста со стороны поисковика. В результате пострадает не только страницы, которые продвигались низкокачественными ссылками, но и весь сайт целиком.

Наиболее важной частью восстановления от Пингвина является тщательная очистка от неестественных ссылок. Это спорный вопрос, нужно ли удалять ссылки вручную, или достаточно использовать инструмент Disavow links , который позволяет «отрекаться» от ссылок.

Если на сайт наложены ручные санкции, которые значительно отличаются от алгоритмических, таких как Пингвин, то вы должны попытаться физически устранить как можно больше неестественных ссылок.

В видеоконференции Hangout Джон Мюллер, когда его спросили, будут ли ссылки, от которых отказались с помощью Disavow links, равнозначны физическому удалению их с сайта, он ответил:

С теоретической точки зрения, использования Disavow links достаточно ... с практической точки зрения по-прежнему есть смысл удалять столько некачественных ссылок, сколько возможно.

Мои размышления на счет очистки от фильтров пингвина таковы, что сперва следует физически удалить все возможные ссылки, а затем уже использовать Disavow links.

Когда вы очищаете ваши ссылки, чтобы избавиться от Пингвина, важно делать это очень тщательно. Одна из распространенных причин, почему сайты не выходят из под Пингвина – попытка сохранить слишком большое количество ссылок, взгляд на качество которых у Google может значительно отличаться от вашего.

В большинстве случаев, если вы купили ссылку или поставили ее самостоятельно – она не естественна и ее нужно удалить! Исключением могут быть каталоги местных компаний, ресурсов и т.д. Но, в подавляющем большинстве случаев, вручную поставленная ссылка является неестественной.

При попытке угадать, какие из входящих ссылок являются неугодными Гуглу, а какие приносят пользу для продвижения сайта, вы, в конечном итоге, скорее всего, сохраните такие ссылки, которые поисковик считает неестественными. Нужно быть жестким при удалении ссылок, если вы хотите добиться результата.

Из-под фильтра активнее выходят сайты, которые тщательно удаляли входящие ссылки. Конечно же, есть риск удалить ссылку, которая приносит пользу, но это лучше обратно пропорциональному варианту, когда с целью сохранить ссылку, будет оставлена некачественная ссылка.

Неправильное использование Disavow Links

Почти в каждом случае, если вы собираетесь «отрекаться» от ссылки, делать это нужно на уровне домена. Если вы, отрекаетесь от отдельной страницы, например www.site.ru/post.html, вы можете пропускать ссылки, которые ведут с других страниц:

www. site.ru /page4/

www. site.ru /tag/seo/

…и так далее.

Раньше можно было столкнуться с проблемой, когда загрузив неправильный тип файла для дезавуирования ("отрекания"), система якобы принимала его (не было сообщений об ошибке загрузки), однако не учитывала ввиду его неправильного расширения. Теперь же, при загрузке файла с неправильным расширением, отправляется сообщение об ошибке. Например, если вы пытаетесь загрузить CSV вместо txt файла, вы получите что-то вроде этого: «Файл должен иметь расширение TXT».

Обратите пристальное внимание на ошибки, которые отображают при загрузке файла, такие как показано ниже:

«Ошибка в файле Disavow links»

Даже если ваш файл «отказа» от ссылок был загружен должным образом, это может быть бесполезно, из-за программных ошибок текстовых редакторов. Например:

Должно быть:

domain:site.ru

Текстовый редактор выдает:

domain:site.ru&A

Этот может произойти при попытке преобразовать файл из кодировки без UTF8 в UTF8. Disavow links примет такой файл, но, скорее всего, Google не будет дезавуировать site.ru.

Нужно ждать обновления Пингвина

Вы не увидите результатов вашего труда до тех пор, пока алгоритм Пингвина не обновится.

Так что не стоит отчаиваться, если после плодотворной работы, вы не получили ожидаемых результатов. Ждите.

Некоторые сайты должны ждать 2 обновления алгоритмов Пингвина и только после них позиции сайта будут восстановлены . Причина этого явления в том, что в некоторых случаях, обработка дезавуированного файла может занимать до 6 месяцев.

Когда вы отсылаете файл, он сразу же обрабатывается Гуглом, но для того чтобы Disavow links обернул указанные в файле ссылки в невидимый тег nofollow нужно, чтобы робот-сканер посетил страницу на которой расположена ссылка. Некоторые сайт он может посетить быстро, а некоторые (уж очень плохого качества) он может обойти через достаточно длительный период.

Сайт не имеет достаточное количество хороших ссылок

Во многих случаях единственная причина, почему ранее сайт был на хороших позициях в выдаче – ссылки, которые Google не мог распознать как неестественные. Если это так, то удаление и «отречение» от всех ваших плохих ссылок не будет достаточным, чтобы вернуть сайту прежние позиции.

Google все усерднее и усерднее работает над тем, чтобы уметь правильно распознавать неестественные ссылки.

Раньше достаточно было поставить множество ссылок, чтобы опередить своих конкурентов. Но теперь эти времена прошли. Если ваш сайт имеет очень мало по-настоящему естественных ссылок, то даже глубокая очистка от некачественных ссылок не гарантирует выхода из по Пингвина.

Другие факторы

Пингвин может быть далеко не единственны фактором, который мешает вашему сайту вернуть хорошие позиции в результатах поиска. Очень часто можно встретить веб-ресурсы, которые одновременно «подхватили» и Пингвина и Панду.

Panda является фильтром траста аналогичным Пингвину, но основная задача заключается в определении качества страницы, а не ссылки. Если сайт попал именно под фильтр Panda, то необходимо работать над содержанием страниц, над их качеством.

Так же возможны другие причины технического характера. Например, случайно поставленный тег Noindex в robots.txt.

Перевод с: http://searchenginewatch.com/article/2350646/5-Reasons-a-Site-Hit-by-Google-Penguin-Wont-Recover

 

rss