Источник
Владельцы сайтов и SEO-специалисты всегда с нетерпением встречают каждый апдейт поисковой выдачи в надежде, что позиции подрастут. Но, к сожалению, далеко не всегда Google позволяет мечтам об увеличении трафика сбываться. И даже наоборот. Порой после очередного обновления случается настоящий обвал позиций. Это заставляет искать причины, чтобы объяснить произошедшее. Если посетить популярные форумы, то там какой только информации не найдешь о том, почему поисковик мог урезать трафик. И некоторые гипотезы иначе как бредом сумасшедшего и не назвать.
Предлагаем вам не тратить кучу времени на самостоятельный поиск бриллианта в грязи, а ознакомиться с истинными причинами того, почему просели позиции в Google. В 99% за снижение трафика ответственен как раз один из нижеприведенных факторов. И если знать причину, то несложно наметить план работ по исправлению последствий и возвращению утраченных позиций. А это сейчас очень важно, ведь ценность продвижения в Google существенно возросла в связи с последними событиями.
Напоминаем, что контекстная реклама Google Ads больше не поддерживается в России. И теперь по многим запросам (особенно коммерческим) органическая поисковая выдача позволяет получать намного больше трафика, чем раньше.
1. Поисковые боты не смогли получить доступ к сайту. Многие считают этот фактор неважным, а зря. Google тщательно следит за скоростью загрузки и доступностью веб-ресурсов. Если она теряется, пусть даже на короткое время, и поисковик это фиксирует, то неприятные последствия не заставят себя долго ждать. А если ситуация повторится, то менее «проблемные» конкуренты точно обгонят.
Потеря доступности может объясняться: техническими неполадками на стороне хостинга, задержкой с его оплатой, повреждениями базы данных. Если хостинг грешит частой потерей связи, пусть даже и краткосрочной, то его нужно немедленно менять.
2. Сайт временно для каких-то целей или случайно был закрыт от индексации. Та же проблема, что и в пункте выше. Закрытие возможно при помощи тега noindex или путем редактирования файла robots.txt. Если исправить ситуацию, то позиции через какое-то время должны вернуться.
3. Перестали работать редиректы. Тут нужно проверить 301-й, а также 302-й. Если какой-то из них отвалился, то это и есть причина проблемы. Плюс заодно необходимо убедиться, правильно ли используется rel="canonical" – атрибут, который прямо к редиректам не относится, но выполняет их функцию борьбы с дублями.
Если через редирект был настроен переход с другого веб-сайта, обладающего солидной ссылочной массой, или внутри перестал работать редирект с одних страниц, имеющих ссылочный вес, на другие, то это вызовет снижение позиций.
4. При переносе сайта допустили ошибки, которые привели к потере важных страниц, отвалу редиректов и т. п. Для переноса есть инструмент в Google Search Console, но проще настроить 301-й редирект. Однако какой бы вариант не использовался, важно предварительно составить список из URL для всех страниц. Только так можно быть уверенными в том, что при переезде ничего не потеряется.
5. В мобильную версию сайта внесли коррективы (осознанно или нет), которые ухудшили ее работу. Тут важно понимать, что Google сейчас уделяет особое внимание мобильному трафику. Даже если сайт не продвигается под мобильные, он все равно должен иметь корректно работающую мобильную версию. Иначе конкуренты, у которых с мобильной версией все в порядке, будут обгонять.
6. Взлом. Масштаб этой проблемы зависит от того, чего добивался злоумышленник. Если просто был настроен редирект с вашего сайта или проставлены какие-то ссылки/поп-ап окна и тому подобное, то ситуацию относительно легко исправить. Если же сайт основательно исковеркали и подорвали его репутацию в глазах поисковика путем использования запрещенных тем, то восстановление позиций может быть очень долгим и сложным, а иногда и невозможным.
7. Google пометил сайт как дорвей. В этом случае Google Search Console присылает письмо с пометкой «чистый спам». Довольно серьезная проблема, поскольку поисковик не любит, когда манипулируют его алгоритмами. Следует тщательно все проверить и убрать то, что Google мог воспринимать как спам, а потом подать сайт на проверку.
8. На сайте реализовали технологию Ajax. Хотя, скорее, это не технология, как все любят говорить, а нестандартный подход к «фоновому» обмену информацией между веб-сервером и браузером, когда веб-страница непосредственно не загружается. И все бы хорошо, вот только Google пока «не понимает» Ajax и не индексирует страницы.
Что делать? Есть два способа. Первый – вернуться к более старым технологиям. Не рекомендуется. Второй – использовать «!», чтобы позволить ботам Google отсканировать/проиндексировать Ajax-страницу.
9. Flash. Ну с флешем вообще куча проблем. Можно назвать как минимум 5 причин, чем Flash плох для SEO. Но главное, что нужно понимать, – поисковая система в первую очередь представляет собой текстовую базу. Поэтому весь контент, который транслируется через Flash, видеоролики или Silverlight, должен быть также доступен и в текстовой версии. Только тогда боты Google будут корректно индексировать страницу, и она будет привлекать трафик.
10. Дубли страниц. Если Google видит несколько одинаковых веб-страниц, то он просто не понимает, какую нужно индексировать. Появление дублей может быть обусловлено различными причинами, но SEO-специалисту для исправления проблемы важно их найти и использовать доступные средства, чтобы дать поисковой системе наводку на то, какую страницу ранжировать.
Обычно проблема решается через атрибут rel="canonical", вставляемый в код той страницы, которую продвигают. После этого поисковые роботы определяют ее как главную, то есть каноническую.
11. Сбой в работе Google. Самый неприятный момент, потому что последствия совершенно не прогнозируются. К тому же с техподдержкой у Google ситуация печальная. Остается лишь создавать тему на форуме в надежде, что кто-то обратит внимание и вникнет в суть проблемы.
Если профессионально проведенный аудит сайта не выявил критических ошибок в технической части, то стоит посмотреть, не возникло ли проблем, связанных с контентом.
1. По какой-то причине исчезли веб-страницы, привлекавшие трафик или содержавшие обратные ссылки. К этому обычно приводит внесение кардинальных изменений в работу сайта. Возможно, осуществляли перенос, натягивали новый шаблон, меняли дизайн и т.д. Решение проблемы очевидно – необходимо вернуть страницы на место, тогда и Google должен восстановить позиции.
2. Манипуляции с семантической разметкой. Google очень не любит, если в структурированных данных содержится информация для нечестного привлечения пользователей через спам или банальный обман.
3. Использование клоакинга, когда поисковику скармливают один тип контента, а пользователям совершенно иной. Тут та же проблема, что и в пункте выше. Подобные манипуляции Google легко определяет и жестко за них наказывает. Для решения проблемы нужно перестать использовать грязные приемы.
4. Чрезмерно частое употребление ключевых запросов на странице – переспам. На заре зарождения SEO все старались напихать ключей побольше. И такой прием работал. Но затем появился фильтр «Панда», и поисковики стали наказывать за подобные методы.
У пользователей тексты с переспамом ключевых фраз ничего, кроме отвращения, не вызывают. Ну а Google старается допускать к ТОПу выдачи только те ресурсы, которые полезны для интернет-пользователей.
5. Созданы веб-страницы под рекламные материалы без всякой ценности для пользователей. Владельцам сайта нужно что-то есть. Это понятно. Но создавать страницы под партнерские программы, которые никакой пользы не представляют для посетителей, не стоит. Иначе Google тут же отреагирует. Объяснение этому то же, что и в пункте выше.
6. Пропал текст. Если страница привлекала трафик, но потом ее текстовое содержимое пропало, то боты Google уберут ее из выдачи. Решение очевидно – выяснить, в чем дело, и вернуть текст.
7. Изменение метатегов и внесение корректив в тексты. В попытке добиться лучших результатов часто проводятся эксперименты с текстовым содержанием H1, Title, Description, но их результаты могут быть прямо обратны ожидаемым. В таком случае нужно немедленно возвращать все назад.
8. Неправильное использование AMP-страниц. С одной стороны, такие страницы ускоряют загрузку, что хорошо для SEO. С другой стороны, упрощенные страницы заставляют отказываться от множества красивых и полезных интерактивных объектов, что ухудшает юзабилити. Плюс между обычной и AMP-версией могут быть расхождения, которые Google сочтет критичными, понизив сайт в выдаче.
Если и с текстовым контентом все в порядке, ничего не пропало, никаких изменений не было, тогда необходимо проверить, как обстоят дела со ссылочной массой.
Перед тем как рассмотреть, какие проблемы, связанные со ссылками, могут негативно сказаться на посещении сайта, хочется прояснить один момент. Хотя про закупку ссылок поисковики говорят много, но тут речь идет именно о плохих ссылках. Если ссылки получены естественным путем или куплены на трастовых площадках, то никаких проблем с этой стороны ждать не стоит.
Получается следующее – несмотря на заявления Google о том, что ссылки покупать нельзя, линкбилдинг прекрасно работает и выступает одним из ключевых направлений работы при продвижении сайтов. Отметив это, давайте знакомиться с причинами падения позиций по причине ссылок:
1. Наказание со стороны Google за некачественные ссылки. Для этого имеется специальный фильтр, именуемый Пингвином. Он тщательно отслеживает, чтобы при внешнем продвижении сайта через ссылки не было переспама по анкорам и их размещения на низкокачественных ресурсах с плохой репутацией. Если когда-то можно было просто бездумно наращивать ссылочную массу и это приносило очевидную пользу, то с момента появления Пингвина (2012 года) сайты, которые закупали некачественные ссылки, стали чувствовать себя очень плохо.
Если позиции упали из-за Пингвина, необходимо приложить максимум усилий, чтобы убрать все некачсетвенные ссылки. Для этого нужно связаться с вебмастерами и попросить их убрать ссылки. Будьте готовы, что за это могут попросить денег. Если удалить ссылку не получается, вебмастер игнорирует обращения или запросил очень много, то можно через Google Search Console запросить отклонение ссылок.
2. Google активно борется не только против тех, кто покупает ссылки, но и с теми, кто их продает. Так что если сайт будет заподозрен в продаже ссылок, то санкции поисковика не заставят себя долго ждать. Что делать? Следить, чтобы количество исходящих ссылок было наравне или меньше числа входящих. Плюс не стоит пихать исходящие ссылки на каждую страницу. Возможно, есть смысл делать полезные статьи для людей совсем без ссылок, чтобы отвести от себя подозрения.
Новички стремятся после получения минимального трафика разместить партнерские ссылки, чтобы начать зарабатывать. Утопическая тактика. Пока трафика мало, все равно заработать нормально не получится, а вот попасть под санкции – легко. Каждая исходящая ссылка должна быть максимально уместной и давать какую-то пользу для посетителей сайта, тогда алгоритмы Google не пометят ее как спам.
3. Некачественный UGC-контент. Речь идет о пользовательском спаме на форумах, в отзывах и т.д. Обычно здесь пытаются оставить переспамленные ключевыми словами текстовые сообщения и ссылки, чтобы нарастить ссылочную массу и улучшить позиции сайта. Только обычно это приводит прямо к противоположному эффекту. Лечение в случае возникновения проблемы стандартное – нужно все удалять и молиться, чтобы позиции вернулись.
4. Проблемы с использованием бесплатных хостингов. Желание сэкономить у начинающих вебмастеров и SEO-оптимизаторов часто приводит к тому, что они размещают сайты на бесплатных хостингах. И все бы ничего, но обычно на том же хостинге находится еще как минимум несколько сайтов. И если один из них начнет вести себя нечестно, чем спровоцирует санкции со стороны Google, то прилететь может и остальным. Поскольку поисковик не будет разбираться, кто именно виноват.
5. Удаление прямых ссылок, которые вели на сайт. Если для продвижения закупались ссылки, а потом они по каким-то причинам (вебмастер снял, сайт удалили) исчезли, то приятного мало. Снижение ссылочной массы быстро и негативно скажется на позициях.
Если ссылки закупались через нормальные сервисы с оплатой страховки, то там хотя бы удастся вернуть деньги. В противном случае бюджет будет слит впустую, а для исправления ситуации снова придется прибегнуть к грамотному и очень осторожному линкбилдингу.
6. Пропали ссылки 2-го и 3-го уровня, то есть Tier 2 и Tier 3. Их вообще мало кто учитывает, а зря. Кто не знает, речь о ссылках, которые ведут на страницу стороннего сайта, ссылающегося на вас. То есть если сайт, размещающий прямую ссылку, – это ваша ссылочная масса, то Tier 2 – это ссылочная масса веб-сайта и той страницы, с которых идет прямая ссылка.
2. DMCA. Если по-простому, то речь о нарушениях авторских прав. Если первоначально интернет больше напоминал Дикий Запад, и никто тут никого не преследовал за копирование и неразрешенное использование чужого контента, то теперь все поменялось. В первую очередь это почувствовали онлайн-кинотеатры, которые бесплатно транслируют пиратские копии фильмов и сериалов, а также торренты, где вообще можно найти и скачать все что угодно: взломанные игры, музыку, пиратские фильмы, книги. Так что теперь Google, получив жалобу, просто блокирует отдельные страницы и/или понижает в ранжировании весь сайт.
3. YMYL. Чтобы понять, что это такое, лучше привести простой пример. Все, кто давно пользуется интернетом, должны помнить обилие сайтов медицинской тематики. Причем одна более или менее стоящая статья по какой-то медицинской теме, как правило, рерайтилась и выкладывалась на десятки подобных сайтов. Попросту говоря, уровень экспертности тех, кто эту статью копировал, изменял и выдавал за новую, равнялся нулю. Плюс еще не совсем понятно, какой там эксперт ее писал изначально.
А ведь нужно помнить, что любой вредный совет или недостоверная информация в случае медицинских сайтов несла прямую угрозу здоровью и жизни человека. Поэтому была введена политика YMYL, детальнее о которой в справке Google. Она гласит, что статьи в тематиках, подобной медицинской, должны писать исключительно эксперты. Все остальные сайты идут в топку – без вариантов. А что делать, чтобы доказать высокий уровень экспертности, достоверности и авторитетности, – это уже тема для отдельного разговора.
4. Сайт попал под новый фильтр. В последние лет 10 можно видеть, что Google очень активно борется за чистоту поисковой выдачи. И прилагает максимум усилий, чтобы на первые страницы в результаты поиска попадали максимально качественные сайты, несущие полезную информацию. Поэтому против всех тех веб-ресурсов, которые, по мнению Google, не соответствуют этим параметрам, регулярно вводятся разного рода фильтры. Поэтому на форумах вебмастеров и сеошников периодически разносится вой раненого зверя, когда выходит какой-то новый фильтр.
К сожалению, предсказать, что придумает завтра Google, невозможно. Но одно можно сказать точно: если сайт несет благую цель, делается для того, чтобы помочь людям, а продвигается исключительно белыми способами без агрессивных попыток ускорить процесс выхода в ТОП, то с высокой вероятностью ему ничего не грозит. Кстати, в мае 2022 Google как раз выкатил свежее обновление, из-за которого многие веб-мастера и SEO-специалисты отметили существенное снижение трафика и позиций.
Итак, если у вас упали позиции в Google, то с вероятностью 99% в этом замешан один или сразу несколько из описанных выше факторов. Проанализировав их внимательно, можно заметить, что в одном случае проблема с просадкой в позициях решится легко и быстро. В других случаях понадобится все мастерство опытного SEO-специалиста, точно знающего, как должно происходить продвижение сайта в Google и что можно сделать для исправления ситуации и минимизации негативных последствий. Огромную роль играет оперативность исправления. Поэтому если что-то пошло не так, то нужно реагировать быстро.
Владельцы сайтов и SEO-специалисты всегда с нетерпением встречают каждый апдейт поисковой выдачи в надежде, что позиции подрастут. Но, к сожалению, далеко не всегда Google позволяет мечтам об увеличении трафика сбываться. И даже наоборот. Порой после очередного обновления случается настоящий обвал позиций. Это заставляет искать причины, чтобы объяснить произошедшее. Если посетить популярные форумы, то там какой только информации не найдешь о том, почему поисковик мог урезать трафик. И некоторые гипотезы иначе как бредом сумасшедшего и не назвать.
Предлагаем вам не тратить кучу времени на самостоятельный поиск бриллианта в грязи, а ознакомиться с истинными причинами того, почему просели позиции в Google. В 99% за снижение трафика ответственен как раз один из нижеприведенных факторов. И если знать причину, то несложно наметить план работ по исправлению последствий и возвращению утраченных позиций. А это сейчас очень важно, ведь ценность продвижения в Google существенно возросла в связи с последними событиями.
Напоминаем, что контекстная реклама Google Ads больше не поддерживается в России. И теперь по многим запросам (особенно коммерческим) органическая поисковая выдача позволяет получать намного больше трафика, чем раньше.
Причины падения позиций в Google из-за технических факторов
Google очень ревностно следит за тем, чтобы сайты отвечали ряду требований в технической части. Но даже если изначально все настроить в полном соответствии с рекомендациями поисковой системы, то это не гарантирует, что в ходе использования сайта не произойдет каких-то досадных неприятностей. Поэтому при падении трафика нужно убедиться, что причиной не стал один из нижеследующих факторов:1. Поисковые боты не смогли получить доступ к сайту. Многие считают этот фактор неважным, а зря. Google тщательно следит за скоростью загрузки и доступностью веб-ресурсов. Если она теряется, пусть даже на короткое время, и поисковик это фиксирует, то неприятные последствия не заставят себя долго ждать. А если ситуация повторится, то менее «проблемные» конкуренты точно обгонят.
Потеря доступности может объясняться: техническими неполадками на стороне хостинга, задержкой с его оплатой, повреждениями базы данных. Если хостинг грешит частой потерей связи, пусть даже и краткосрочной, то его нужно немедленно менять.
2. Сайт временно для каких-то целей или случайно был закрыт от индексации. Та же проблема, что и в пункте выше. Закрытие возможно при помощи тега noindex или путем редактирования файла robots.txt. Если исправить ситуацию, то позиции через какое-то время должны вернуться.
3. Перестали работать редиректы. Тут нужно проверить 301-й, а также 302-й. Если какой-то из них отвалился, то это и есть причина проблемы. Плюс заодно необходимо убедиться, правильно ли используется rel="canonical" – атрибут, который прямо к редиректам не относится, но выполняет их функцию борьбы с дублями.
Если через редирект был настроен переход с другого веб-сайта, обладающего солидной ссылочной массой, или внутри перестал работать редирект с одних страниц, имеющих ссылочный вес, на другие, то это вызовет снижение позиций.
4. При переносе сайта допустили ошибки, которые привели к потере важных страниц, отвалу редиректов и т. п. Для переноса есть инструмент в Google Search Console, но проще настроить 301-й редирект. Однако какой бы вариант не использовался, важно предварительно составить список из URL для всех страниц. Только так можно быть уверенными в том, что при переезде ничего не потеряется.
5. В мобильную версию сайта внесли коррективы (осознанно или нет), которые ухудшили ее работу. Тут важно понимать, что Google сейчас уделяет особое внимание мобильному трафику. Даже если сайт не продвигается под мобильные, он все равно должен иметь корректно работающую мобильную версию. Иначе конкуренты, у которых с мобильной версией все в порядке, будут обгонять.
6. Взлом. Масштаб этой проблемы зависит от того, чего добивался злоумышленник. Если просто был настроен редирект с вашего сайта или проставлены какие-то ссылки/поп-ап окна и тому подобное, то ситуацию относительно легко исправить. Если же сайт основательно исковеркали и подорвали его репутацию в глазах поисковика путем использования запрещенных тем, то восстановление позиций может быть очень долгим и сложным, а иногда и невозможным.
7. Google пометил сайт как дорвей. В этом случае Google Search Console присылает письмо с пометкой «чистый спам». Довольно серьезная проблема, поскольку поисковик не любит, когда манипулируют его алгоритмами. Следует тщательно все проверить и убрать то, что Google мог воспринимать как спам, а потом подать сайт на проверку.
8. На сайте реализовали технологию Ajax. Хотя, скорее, это не технология, как все любят говорить, а нестандартный подход к «фоновому» обмену информацией между веб-сервером и браузером, когда веб-страница непосредственно не загружается. И все бы хорошо, вот только Google пока «не понимает» Ajax и не индексирует страницы.
Что делать? Есть два способа. Первый – вернуться к более старым технологиям. Не рекомендуется. Второй – использовать «!», чтобы позволить ботам Google отсканировать/проиндексировать Ajax-страницу.
9. Flash. Ну с флешем вообще куча проблем. Можно назвать как минимум 5 причин, чем Flash плох для SEO. Но главное, что нужно понимать, – поисковая система в первую очередь представляет собой текстовую базу. Поэтому весь контент, который транслируется через Flash, видеоролики или Silverlight, должен быть также доступен и в текстовой версии. Только тогда боты Google будут корректно индексировать страницу, и она будет привлекать трафик.
10. Дубли страниц. Если Google видит несколько одинаковых веб-страниц, то он просто не понимает, какую нужно индексировать. Появление дублей может быть обусловлено различными причинами, но SEO-специалисту для исправления проблемы важно их найти и использовать доступные средства, чтобы дать поисковой системе наводку на то, какую страницу ранжировать.
Обычно проблема решается через атрибут rel="canonical", вставляемый в код той страницы, которую продвигают. После этого поисковые роботы определяют ее как главную, то есть каноническую.
11. Сбой в работе Google. Самый неприятный момент, потому что последствия совершенно не прогнозируются. К тому же с техподдержкой у Google ситуация печальная. Остается лишь создавать тему на форуме в надежде, что кто-то обратит внимание и вникнет в суть проблемы.
Если профессионально проведенный аудит сайта не выявил критических ошибок в технической части, то стоит посмотреть, не возникло ли проблем, связанных с контентом.
Причины снижения трафика в Google из-за изменений контента
Сейчас люди все меньше читают, отдавая предпочтения видео- и аудиоканалам для получения информации, а SEO построено на текстовом контенте. И если он не соответствует требованиям Google, позиции очень быстро летят вниз. Вот основные причины резкого падения позиций из-за изменений в текстовом контенте:1. По какой-то причине исчезли веб-страницы, привлекавшие трафик или содержавшие обратные ссылки. К этому обычно приводит внесение кардинальных изменений в работу сайта. Возможно, осуществляли перенос, натягивали новый шаблон, меняли дизайн и т.д. Решение проблемы очевидно – необходимо вернуть страницы на место, тогда и Google должен восстановить позиции.
2. Манипуляции с семантической разметкой. Google очень не любит, если в структурированных данных содержится информация для нечестного привлечения пользователей через спам или банальный обман.
3. Использование клоакинга, когда поисковику скармливают один тип контента, а пользователям совершенно иной. Тут та же проблема, что и в пункте выше. Подобные манипуляции Google легко определяет и жестко за них наказывает. Для решения проблемы нужно перестать использовать грязные приемы.
4. Чрезмерно частое употребление ключевых запросов на странице – переспам. На заре зарождения SEO все старались напихать ключей побольше. И такой прием работал. Но затем появился фильтр «Панда», и поисковики стали наказывать за подобные методы.
У пользователей тексты с переспамом ключевых фраз ничего, кроме отвращения, не вызывают. Ну а Google старается допускать к ТОПу выдачи только те ресурсы, которые полезны для интернет-пользователей.
5. Созданы веб-страницы под рекламные материалы без всякой ценности для пользователей. Владельцам сайта нужно что-то есть. Это понятно. Но создавать страницы под партнерские программы, которые никакой пользы не представляют для посетителей, не стоит. Иначе Google тут же отреагирует. Объяснение этому то же, что и в пункте выше.
6. Пропал текст. Если страница привлекала трафик, но потом ее текстовое содержимое пропало, то боты Google уберут ее из выдачи. Решение очевидно – выяснить, в чем дело, и вернуть текст.
7. Изменение метатегов и внесение корректив в тексты. В попытке добиться лучших результатов часто проводятся эксперименты с текстовым содержанием H1, Title, Description, но их результаты могут быть прямо обратны ожидаемым. В таком случае нужно немедленно возвращать все назад.
8. Неправильное использование AMP-страниц. С одной стороны, такие страницы ускоряют загрузку, что хорошо для SEO. С другой стороны, упрощенные страницы заставляют отказываться от множества красивых и полезных интерактивных объектов, что ухудшает юзабилити. Плюс между обычной и AMP-версией могут быть расхождения, которые Google сочтет критичными, понизив сайт в выдаче.
Если и с текстовым контентом все в порядке, ничего не пропало, никаких изменений не было, тогда необходимо проверить, как обстоят дела со ссылочной массой.
Проблемы со ссылками
Уже долгое время ведется полемика по поводу того, что ссылки должны перестать работать. Однако какие бы эксперименты ни проводил Google и что бы ни говорили его представители, ссылки остаются решающим фактором в борьбе за заветную первую страницу поисковой выдачи. Тем не менее, желание Google отбить охоту в манипуляциях ссылками привело к ужесточению требований к сайтам и появлению фильтра – Пингвин.Перед тем как рассмотреть, какие проблемы, связанные со ссылками, могут негативно сказаться на посещении сайта, хочется прояснить один момент. Хотя про закупку ссылок поисковики говорят много, но тут речь идет именно о плохих ссылках. Если ссылки получены естественным путем или куплены на трастовых площадках, то никаких проблем с этой стороны ждать не стоит.
Получается следующее – несмотря на заявления Google о том, что ссылки покупать нельзя, линкбилдинг прекрасно работает и выступает одним из ключевых направлений работы при продвижении сайтов. Отметив это, давайте знакомиться с причинами падения позиций по причине ссылок:
1. Наказание со стороны Google за некачественные ссылки. Для этого имеется специальный фильтр, именуемый Пингвином. Он тщательно отслеживает, чтобы при внешнем продвижении сайта через ссылки не было переспама по анкорам и их размещения на низкокачественных ресурсах с плохой репутацией. Если когда-то можно было просто бездумно наращивать ссылочную массу и это приносило очевидную пользу, то с момента появления Пингвина (2012 года) сайты, которые закупали некачественные ссылки, стали чувствовать себя очень плохо.
Если позиции упали из-за Пингвина, необходимо приложить максимум усилий, чтобы убрать все некачсетвенные ссылки. Для этого нужно связаться с вебмастерами и попросить их убрать ссылки. Будьте готовы, что за это могут попросить денег. Если удалить ссылку не получается, вебмастер игнорирует обращения или запросил очень много, то можно через Google Search Console запросить отклонение ссылок.
2. Google активно борется не только против тех, кто покупает ссылки, но и с теми, кто их продает. Так что если сайт будет заподозрен в продаже ссылок, то санкции поисковика не заставят себя долго ждать. Что делать? Следить, чтобы количество исходящих ссылок было наравне или меньше числа входящих. Плюс не стоит пихать исходящие ссылки на каждую страницу. Возможно, есть смысл делать полезные статьи для людей совсем без ссылок, чтобы отвести от себя подозрения.
Новички стремятся после получения минимального трафика разместить партнерские ссылки, чтобы начать зарабатывать. Утопическая тактика. Пока трафика мало, все равно заработать нормально не получится, а вот попасть под санкции – легко. Каждая исходящая ссылка должна быть максимально уместной и давать какую-то пользу для посетителей сайта, тогда алгоритмы Google не пометят ее как спам.
3. Некачественный UGC-контент. Речь идет о пользовательском спаме на форумах, в отзывах и т.д. Обычно здесь пытаются оставить переспамленные ключевыми словами текстовые сообщения и ссылки, чтобы нарастить ссылочную массу и улучшить позиции сайта. Только обычно это приводит прямо к противоположному эффекту. Лечение в случае возникновения проблемы стандартное – нужно все удалять и молиться, чтобы позиции вернулись.
4. Проблемы с использованием бесплатных хостингов. Желание сэкономить у начинающих вебмастеров и SEO-оптимизаторов часто приводит к тому, что они размещают сайты на бесплатных хостингах. И все бы ничего, но обычно на том же хостинге находится еще как минимум несколько сайтов. И если один из них начнет вести себя нечестно, чем спровоцирует санкции со стороны Google, то прилететь может и остальным. Поскольку поисковик не будет разбираться, кто именно виноват.
5. Удаление прямых ссылок, которые вели на сайт. Если для продвижения закупались ссылки, а потом они по каким-то причинам (вебмастер снял, сайт удалили) исчезли, то приятного мало. Снижение ссылочной массы быстро и негативно скажется на позициях.
Если ссылки закупались через нормальные сервисы с оплатой страховки, то там хотя бы удастся вернуть деньги. В противном случае бюджет будет слит впустую, а для исправления ситуации снова придется прибегнуть к грамотному и очень осторожному линкбилдингу.
6. Пропали ссылки 2-го и 3-го уровня, то есть Tier 2 и Tier 3. Их вообще мало кто учитывает, а зря. Кто не знает, речь о ссылках, которые ведут на страницу стороннего сайта, ссылающегося на вас. То есть если сайт, размещающий прямую ссылку, – это ваша ссылочная масса, то Tier 2 – это ссылочная масса веб-сайта и той страницы, с которых идет прямая ссылка.
Санкции со стороны поисковиков и не только
1. До сайта добрался Роскомнадзор. Беспокоиться об этом могут лишь те веб-ресурсы, которые нарушают российские законы или говорят то, что не нравится слушать власть имущим. В случае такого рода санкций уже ничего не поделать. Если тема для продвижения такая, что преследование Роскомнадзором неизбежно, следует заблаговременно приготовиться к блокировкам.2. DMCA. Если по-простому, то речь о нарушениях авторских прав. Если первоначально интернет больше напоминал Дикий Запад, и никто тут никого не преследовал за копирование и неразрешенное использование чужого контента, то теперь все поменялось. В первую очередь это почувствовали онлайн-кинотеатры, которые бесплатно транслируют пиратские копии фильмов и сериалов, а также торренты, где вообще можно найти и скачать все что угодно: взломанные игры, музыку, пиратские фильмы, книги. Так что теперь Google, получив жалобу, просто блокирует отдельные страницы и/или понижает в ранжировании весь сайт.
3. YMYL. Чтобы понять, что это такое, лучше привести простой пример. Все, кто давно пользуется интернетом, должны помнить обилие сайтов медицинской тематики. Причем одна более или менее стоящая статья по какой-то медицинской теме, как правило, рерайтилась и выкладывалась на десятки подобных сайтов. Попросту говоря, уровень экспертности тех, кто эту статью копировал, изменял и выдавал за новую, равнялся нулю. Плюс еще не совсем понятно, какой там эксперт ее писал изначально.
А ведь нужно помнить, что любой вредный совет или недостоверная информация в случае медицинских сайтов несла прямую угрозу здоровью и жизни человека. Поэтому была введена политика YMYL, детальнее о которой в справке Google. Она гласит, что статьи в тематиках, подобной медицинской, должны писать исключительно эксперты. Все остальные сайты идут в топку – без вариантов. А что делать, чтобы доказать высокий уровень экспертности, достоверности и авторитетности, – это уже тема для отдельного разговора.
4. Сайт попал под новый фильтр. В последние лет 10 можно видеть, что Google очень активно борется за чистоту поисковой выдачи. И прилагает максимум усилий, чтобы на первые страницы в результаты поиска попадали максимально качественные сайты, несущие полезную информацию. Поэтому против всех тех веб-ресурсов, которые, по мнению Google, не соответствуют этим параметрам, регулярно вводятся разного рода фильтры. Поэтому на форумах вебмастеров и сеошников периодически разносится вой раненого зверя, когда выходит какой-то новый фильтр.
К сожалению, предсказать, что придумает завтра Google, невозможно. Но одно можно сказать точно: если сайт несет благую цель, делается для того, чтобы помочь людям, а продвигается исключительно белыми способами без агрессивных попыток ускорить процесс выхода в ТОП, то с высокой вероятностью ему ничего не грозит. Кстати, в мае 2022 Google как раз выкатил свежее обновление, из-за которого многие веб-мастера и SEO-специалисты отметили существенное снижение трафика и позиций.
Почему еще может упасть трафик из поисковика?
Иногда падение происходит по другим причинам. Хотя явление это неприятное, но с ним нужно смириться. Дело в том, что порой факторами, которые ведут к потере объемов трафика, становятся:- сезонность – согласитесь, мало людей покупают шубы или санки летом;
- крупные праздники, когда всем просто не до интернета и не до покупок вещей, которые напрямую не связаны с грядущим празднованием;
- внезапные события типа «Черного лебедя», которые заставляют на время всех переключиться на отслеживание определенной темы и забыть про все остальное;
- снижение интереса к выбранной теме, когда что-то банально теряет актуальность из-за неуклонного бега времени вперед и изменения условий.
Итак, если у вас упали позиции в Google, то с вероятностью 99% в этом замешан один или сразу несколько из описанных выше факторов. Проанализировав их внимательно, можно заметить, что в одном случае проблема с просадкой в позициях решится легко и быстро. В других случаях понадобится все мастерство опытного SEO-специалиста, точно знающего, как должно происходить продвижение сайта в Google и что можно сделать для исправления ситуации и минимизации негативных последствий. Огромную роль играет оперативность исправления. Поэтому если что-то пошло не так, то нужно реагировать быстро.