Google: определить причину снижения сайта в выдаче почти невозможно.
Многих пользователей сети очень часто интересует вопрос: способен ли веб-мастер уточнить и установить, что стало причиной понижения и уменьшения его сайта в результате поиска Google. Иными словами, на основании какого действия, системы, или алгоритма происходят все процессы изменения. Совсем недавно, Мэтт Каттс предоставил довольно полный ответ на все интересующие вопросы, по данной тематике. Это интервью можно найти и просмотреть на официальном канале Google Webmasters.
Самым первым шагом, по его рекомендациям, должна быть проверка и контроль таких мер, как принятых вручную, или осмотр ошибок в результате сканирования. При исследовании процесса сканирования, следует воспользоваться сервисом «инструменты для веб-мастера».
В основе ответов на все вопросы лежал ориентир на то, что основной целью большинства персонала компании является улучшение и преобразование качеств самого поиска, нежели продуманность и последовательность алгоритмических санкций.
Так же Мэтт Каттс рассказал о создании и разработке специальной системы кодов, которые будут напрямую связаны с процессом ранжирования, и вот почему очень сложно распознать и установить, откуда или из какой системы идёт отрицательное воздействие на ваш сайт, поэтому продвижение сайта лучше всего заказывать у опытных специаилистов, например, у компании seomarket-pr.ru, которая знает, что делать, чтобы сайт не попал под санкции Google.
Так же в данном интервью были обнародована статистика, из которой следует, что в период за 2012 год, компания не только разработала, но и успешно стала использовать в своей практике и работе, почти 665 разнообразных новшеств, изменении и дополнений. К тому же, был установлен тот факт, что все эти изменения и созданные алгоритмы действий, находятся в постоянном контакте и взаимодействии друг с другом.
Но, до сих пор сложно дать точного ответа на поставленный вопрос, так как очень трудно определить было ли это изменение в процессе алгоритма, или все, же работа зависит от качества контента. Это довольно сложный вопрос, который требует большей работы и изучения многих аспектов. Но, он заметил, что и в данном случае, при снижении качества, можно успешно продолжить работу над данным вопросом, и тем самым можно восстановить потерянные позиции, но уже лишь только при вторичной индексации.