♛ FORTRESS-DESIGN

Отсутствует сохранённая копия в Яндексе!

Что значит «Отсутствует сохранённая копия в Яндексе!» и как это влияет на сайт в целом. Во-первых, если вы продаете ссылки со своего сайта, то отсутствие страниц в кэше Яндекса негативно отразится на доходе веб-мастера.

Например, в Сеопульте есть параметр, контролирующий наличие страницы в кэше поисковой системы.

Называется он nic (no index cache) — это означает что у страницы нет «сохраненной копии».

На сегодняшний день в Сеопульте проверяется индекс Яндекса. В перспективе планируют добавить и проверку в Гугле.

Как говорят специалисты Сеопульт обычно это отражает проблему в структуре сайта и приводит к ухудшению позиций. И советуют, в качестве профилактической меры сменить продвигаемую страницу. Это первая возможная причина.

Вторая — может присутствовать метатег robots со значением noarchive. В таком случае как говорят, специалисты Сеопульта, не стоит беспокоиться.

Но меня беспокоило стремительное падение траста.

Вот как это выглядит на графике. Долгое время траст был равен девяти, но потом резкое падение.

Я стал искать причину отсутствия сохраненной копии сайта в поисковом индексе. И даже написал в службу поддержки TrustLink.

— Добрый день. Скажите, пожалуйста с чем может быть связано падение траста у моего блога. Параметр XT за последние два апа Яндекса снизился с 9 до 7. Одновременно и снизился доход в Трастлинк.

— Здравствуйте! Этот показатель не является официальным представлением Яндекса, потому причины его паденя нам не известны

— То есть уменьшение количества расставленых ссылок сеопультом с этим не связано. А по какой причине наблюдается уменьшение дохода?

— При проверке часть страниц, на которых были куплены ссылки, отсутствовала в кэше Яндекса. Ссылки были сняты, потому просел доход.

— А не подскажите почему страницы отсутствуют в кэше Яндекса? В индексе есть, а в кэше нет? Как-то можно повлиять на то, чтобы они оказались в кэше?

— Это уже вопрос к техподдержке Яндекса, часто апдейт кэша происходит немного позже апдейта выдачи/индекса, отсюда выходит такая проблема

— А что ссылка не работает, если страница не находится в кэше? Одного присутствия в индексе не достаточно?

— Да, именно так. Для достижения максимальной эффективности ссылки необходимо наличие страницы в кэше.

Потом я задал вопрос в техподдержку Яндекса.

Добрый день.

Сейчас отсутствует сохранённая копия в Яндексе. Подскажите, пожалуйста в чем причина. Блог работает на Вордпрессе.

Кроме того мой блог имел траст xt = 9. За последние два апдейта траст упал до 7. Я стараюсь улучшать свой блог, а тут два таких негативных момента. С чем это может быть связано и как можно исправить ситуацию?

Адрес сайта: //www.fortress-design.com

Спасибо.

С уважением, Илья.

И продолжал искать причину.

Оказывется, после обновления плагинов, флажок напротив значения noarchive был включен. В результате чего на каждой странице моего блога появилась строка, запрещающая кэширование страницы. Возможно по этой причине я потерял две единицы траста.

Убрав этот тег, выключив флажок в плагине Robots Meta, я убедился в его отсутвии на страницах своего блога.

Add noarchive meta tag

Prevents archive.org and Google from putting copies of your pages into their archive/cache.to put copies of your pages into their archive/cache.

Будьте внимательны при настройке плагина Robots Meta для Вордпресс!

Узнав о наличии тега, запрещающега кэширование, я написал в суппорт Трастлинка.

— Здоравствуйте. Я уже выяснил причину падения траста и отсутствия копии блога в кэше Яндекса. Видимо при обновлении плагинов Вордпресса на страницах присутствовал тег noarchive. Обнаружив это я немедленно убрав его и сегодня уже траст опять стал 9, поднявшись сразу на 2 единицы Зря оптимизаторы поснимали свои ссылочки.

— Здравствуйте! Ожидайте восстановление закупки в ближайшее время.

И тут мне приходит ответ из службы поддержки Яндекса.

Здравствуйте!

Дело в том, что на момент последней индексации страниц, в их коде содержался мета-тег noarchive. Это явный запрет на показ сохраненной копии в результатах поиска. Сейчас тег убран, но сохраненная копия не появится пока робот не обновит документы в нашей поисковой базе.

В некоторых случаях, робот может посчитать изменения внесенные на странице незначительными, например, если текст на странице практически не поменялся или изменения касаются только html-разметки. Такие документы не обновляются в нашей поисковой базе, так как внесенные изменения на поиск никак не влияют.

С уважением, Платон Щукин

Служба поддержки Яндекса

//help.yandex.ru/

На следующий день я опять проверил свой блог в сервисе //xtool.ru/. И о чудо! Моментальный подъем на 2 единицы!

Вот вам и эксперимент.

Вывод: Яндекс отрицательно относится к тегу, запрещающему кэширование страниц. К таким сайтам он относится с меньшим доверием.

P.S. 25 марта сайт успешно был закэширован Яндексом.

P.P.S. Ниже прилагается финасовый отчет в виде графика доходов в Трастлинке за период с 26 февраля 2011 по 22 мая 2011 года.

По вертикальной оси указан доход в у. е, по горизонтальной дата в формате день/месяц.

Красным отмечен период в который сохранённая копия в Яндексе отсутствовала.

Немного о теге “robots”

Запрет на индексацию может стоять в robots.txt или в теге “robots”. Мета-тег “robots” позволяет указывать роботам, можно ли индексировать данную страницу и ссылки, размещенные на ней. Этот тег указывается на каждой конкретной странице, доступ к которой требуется ограничить.

  1. <meta name=“robots” content=“index,follow”> — страница и ссылки индексируются
  2. <meta name=“robots” content=“noindex,follow”> — страница не индексируется, ссылки индексируются
  3. <meta name=“robots” content=“index,nofollow”> — страница индексируется, а ссылки не индексируются
  4. <meta name=“robots” content=“noindex,nofollow”> — страница и ссылки не индексируется

Куда писать мета-тег “robots”

Мета-тег “robots” размещается в область head HTML-страницы:

<html>
<head>
<meta name=“robots” content=“noindex,nofollow”>
<meta name=“description” content=“Описание страницы”>
<title>…</title>
</head>
<body>

Нужно проверить, нет ли препятствий для индексации с помощью инструмента Анализ robots.txt.


Перейти к верхней панели