Сен
8
2019

Что такое SEO

Это основа основ. Обратимся к Википедии, которая говорит, что SEO – это «комплекс мер по внутренней и внешней оптимизации для поднятия позиций сайта в результатах выдачи поисковых систем по определённым запросам пользователей, с целью увеличения сетевого трафика и потенциальных клиентов и последующей монетизации этого трафика».

Переведем на общедоступный язык: SEO – это комплекс мер для того, чтобы наш сайт получал больше трафика и больше заказов, при условии, что мы не будем платить за каждого отдельного посетителя – они нам будут доставаться оптом. SEO – это работа над сайтом: и внутренняя, и внешняя, т.е. внутренняя – это тексты, внешняя – это ссылки.

Что такое SEO на практике? Вбиваем в Яндекс или в Google любой запрос (например, запрос «фотосессия»).

Сверху мы видим вот такой блок.

Обращаем внимание на то, что дизайн этого блока постоянно меняется. Раньше он был желтого цвета и сильно отличался от основной выдачи, что сразу выдавало в нем рекламу, о чем и гласила небольшая надпись. Сейчас же он выглядит практически, как и вся остальная выдача, только чуть-чуть сдвинут влево, и есть небольшая надпись «реклама». Таким образом, поисковая система Яндекс старается постоянно оптимизировать CTR, чтобы на ее рекламу кликали как можно чаще. Все, что не является рекламой, не имеет пометок.

Возможно, некоторые помнят время, когда Яндекс даже не обозначал рекламные блоки, так что их было сложно отличить. Единственное, что  выдавало рекламу это название сайтов, вписанное через слэш.

Органика – это то, что не реклама, т.е. все то, что находится под рекламными блоками, где нет никаких пометок «реклама» – все это наша органическая выдача, это и есть SEO. Путем манипуляций над самим сайтом мы можем получить вот эти позиции, а вместе с ними и трафик на сайт.

История SEO

Как вообще развивалась поисковая оптимизация? И что, собственно, делали оптимизаторы?

Изначально очень активно развивался спам ключевыми словами, и спамили, как правило, в скрытых блоках. Логика была до безобразия проста: чтобы сайт находился в ТОПе по какому-то запросу, нужно, чтобы этот запрос хоть где-то был на странице и неважно как. Но когда мы хотели страницу продвинуть по огромному количеству запросов, которые просто физически не могли запихнуть на нее, их буквально всовывали в скрытые блоки — это был текст того же фона, что и фон страницы, чтобы пользователи не пугались такого сумасшедшего набора ключевых слов. А поисковая система это все «ела», и, соответственно, ранжировала нас. Но потом поиск начал «наказывать» за такие вот замаскированные тексты цвета фона. И тогда спамить в скрытых блоках перестали, а начали работать с ключевыми словами. Писались огромные текстовые «портянки» с горизонтальной прокруткой — так было принято — и все набито ключевыми словами до отказа. Но потом Яндекс и Google начали «наказывать» и за такие манипуляции — началась эра ссылочного спама (спама внешними ссылками).

Было время, когда мы добавляли сайт в seo-пульт, вбивали там несколько необходимых запросов и примерно через месяц сайт по этим запросам выходил в ТОП. Это было чудесно! Выбрали нужные запросы, зашли в seo-пульт, он посчитал бюджет, мы нажали кнопку «пуск» и попали в ТОП. Сегодня ничего даже близко стоящего нет. Сейчас, если мы добавим запросы в seo-пульт и закинем туда бюджет, мы просто его «сольем».

Следующим стал спам поведенческими факторами. Когда Яндекс их активно внедрял и начал учитывать, появились системы типа Userator. Первое время они были очень эффективны, потому популярны, но и здесь начались «публичные порки» за поведенческий фактор. Как раз когда «юзераторы» и все подобные системы начали «палиться», появились обходные схемы накрутки поведенческих факторов. Это были схемы с привлечением сторонних работников: через различные биржи мы могли централизованно давать задания реальным людям, которые за какую-то «копеечку» (в основном, школьники)  выполняли задачу. Но эта биржа также «палилась» Яндексом.

Многие очень активно начали накручивать поведенческие факторы по своим проектам, оказываясь в ТОПе, после чего попадали под фильтр. Фильтр очень жесткий и «наказывают» там блокировкой от полугода до года. Несметное множество сайтов попало под этот неприятный фильтр. Сегодня накрутки поведенческих факторов работают так же, но только уже не через всякие «юзераторы». Возможность накручивать поведенческие факторы есть, но мы настоятельно не советуем этого делать.

В наше время пришла эра работы над самим сайтом. В принципе, эти методики работали и во время ссылочного спама и во время спама поведенческими факторами, но ранее ими мало кто пользовался, потому что методики инициации семантического охвата очень трудоемки. Это нечто несравнимое с покупкой ссылок, когда мы зашли в тот же seo-пульт, нажали пару кнопок и ждем. Чтобы инициировать на сайте семантический охват, нужно хорошенько поработать, но это «наибелейшая» методика. М мы делаем сайт максимально полезным и интересным пользователям, чтобы добиться своей цели. Ни о каких санкциях тут и речи быть не может по определению. И эти методики живы чуть ли не 10 лет и еще столько же просуществуют. Это не какие-то короткие методики типа ссылочного спама или спама поведенческими факторами. Методики не столько трудные, сколько трудоемкие. Самое главное — понять суть кластеризации.

Знаковые события и изменения алгоритмов

Здесь мы будем говорить лишь про самые значимые вехи, так как алгоритмов было гораздо больше. Началось все в 2009 году с приходом «Снежинска» и машинного обучения. Первое кардинальное изменение произошло, когда выдачу просто перевернуло с ног на голову. «Шторм» выдачи был небывалый, наверное, самый сильный за все время. Пришло машинное обучение, когда даже сами сотрудники Яндекса не знали, да и по сей день не знают, как сработает их алгоритм, потому что он функционирует вне зависимости от них. Машина сама учится на основе репрезентативных выборок. У Яндекса появился штат асессоров, которые обучают алгоритм: они оценивают сайты по различным параметрам, ставят «галочки», на основе этих «галочек» и параметров машина ищет связи, а уже на их основе она модифицирует свою формулу, которую, к слову, никто не знает. Сами сотрудники Яндекса честно говорят, что не знают, как в той или иной ситуации поведет себя алгоритм, потому что формула нежесткая, подразумевающая самообучение.

Следующий этап – 2009-2010 годы, «Обнинск». На самом деле, там было несколько алгоритмов: как раз в 2009-м запустилась геозависимость, но финальный алгоритм был в 2010-м (его назвали «Обнинск»). Раньше вся выдача была единой по всей России. В эти прекрасные времена мы продвигали сайт по одному запросу в ТОП, находясь при этом в любом регионе. Но с приходом геозависимости все разделилось, и к сайту привязывается регион, к примеру, Москва, и по геозависимым запросам он будет ранжироваться только в рамках своего региона, но это можно обойти (поговорим об этом чуть позже). Однако мультирегиональность, а именно так называется это явление, мало кто внедряет.

2012 год, «Калининград». Началась активная персонализация выдачи. Поисковая система старается каждому пользователю дать ответ, наиболее подходящий именно ему, учитывая его предпочтения. Работает это следующим образом: если пользователь часто заходит на определенный сайт (как правило, это его сайт), то Яндекс будет ему этот сайт выдавать как можно выше и чаще. Отсюда и растут ноги частой проблемы, когда владельцы сайта говорят: «Мой сайт везде в ТОПе, а трафика нет». Но он «везде» в ТОПе только у них. Вот что такое персонализация выдачи и пользовательские предпочтения.

2014 год. Анонсировали отмену ссылок: объявили, что ссылки по Москве больше не работают, но на самом деле изменений в выдаче не было практически никаких – больше шума. Объяснений данному феномену существует несколько, причем, некоторые из них очень интересны. Самое простое объяснение, что они ничего не отменяли, просто создали шумиху, но просто так бы они, наверное, лгать не стали. Отсюда вытекает следующая гипотеза, что ссылки по Москве действительно были отменены, но это косвенный коммерческий фактор, хоть и очень важный. Есть даже гипотеза, что объемы Директа являются косвенным коммерческим фактором, т.е. это то, как эффективно представлена компания в рамках сайта. Если компания крупная, как, например, «М.Видео», то на нее будет много ссылок. Но эта гипотеза, а потому далеко не факт.

В 2015 году пришел алгоритм «Минусинск». Он почти полностью дублирует уже имеющиеся ранее у Google алгоритмы за несколькими отличиями. Он, например, начал «наказывать» сайты за покупку seo-ссылок. Это действительно была большая веха в истории поискового продвижения, потому что тактика поискового продвижения  кардинально изменилась.

Следующая серьезная дата – 2017 год и «Баден-Баден». Аналогичные ссылкам изменения, только с текстом: «наказание» теперь ждало seo-тексты. И снова тактика поискового продвижения очень сильно изменилась. Самое интересное, ни один из озвученных алгоритмов, которые изменили тактику поискового продвижения, вообще никак не коснулся методик семантического охвата.

2017 год, лето, «Королев», большой анонс. Прямо в выдаче Яндекса было написано: «У нас новый алгоритм. Спасибо, что помогли нам его создать». Конкретно летом не изменилось ничего, потому что уже ранее работал алгоритм «Палех». В принципе, «Королев» – это просто его продолжение, и никаких резких скачков в выдаче не было. Все было запущено уже ранее, но вообще начала достаточно сильно меняться. Теперь при подготовке текста под информационные запросы уже не столь важно охватить всю семантику данного запроса, что было актуально раньше, на первый план выходит тематика. Например, если речь о похудении, то нужно говорить еще и про диеты, и про спортзал.

Принцип работы и особенности поисковых машин

Можно выделить условно три этапа. Это сбор данных, когда краулер поисковой системы ходит по ссылкам, ищет новые ссылки и документы, записывает их в базу. А вот запись в базу это уже и есть индексирование. После того, как документы появились в базе, к ним применяется определенная формула, происходит ранжирование, когда поисковая система ставит какие-то сайты в результатах выше, а какие-то ниже. Здесь есть два нюанса:

  1. У Яндекса используется система апдейтов: все происходит не на лету, а наплывами. Яндекс собирает данные, индексирует их в течение какого-то промежутка времени (как правило, неделю), а потом разом выкатывает все изменения, причем у Яндекса существуют различные типы апдейтов:
    • Апдейты ссылочные, когда выкатываются изменения на основе пересчета ссылочных факторов. Яндекс проиндексировал много новых ссылок, например, на ваш сайт, и выкатил изменение, в котором отразились ссылки.
    • Апдейт текстовый, когда в выдачу попадают более свежие документы. К примеру, вы изменили что-то на сайте, возможно, поменяли картинки, изменили текст, но в выдаче Яндекса уже достаточно давно висит старая версия вашего сайта. Как раз в текстовый апдейт текстовая версия сайта станет в выдаче новой.

В отличие от Яндекса, у Google нет системы апдейтов, поэтому изменения выкатываются практически в реальном времени, Но бывают дни, когда Google очень сильно «штормит».

  1. Неоднозначность выдачи, собственно, речь о персонализации «однорукий бандит». Напомним, что персонализация подразумевает индивидуальную выдачу результата, в зависимости от пользовательского интереса. Например, если Ивану нравятся, музыкальные и автомобильные сайты, то выдача будет подстроена именно под его интересы и, конечно же, под конкретный регион.

Еще одним важным моментом работы «однорукого бандита» в Яндексе является подмешивание новых документов в ТОП. Идеология у него хорошая, но она вводит в замешательство многих новичков. Случается так, что в процессе анализа выдачи даже конкурентного запроса мы видим «слабенькие» сайты (мало страниц, плохой дизайн и т.п.), новые, непонятно откуда появившиеся, а порой в ТОПе появляются и вовсе «левые» сайты. Это и есть работа «однорукого бандита». Такие сайты провисят в ТОПе совсем недолго и дальше опять будут выкинуты на задворки.

В чем логика? На самом деле она проста и понятна. Суть в том, чтобы дать возможность проявить себя малоизвестным сайтам. Например, есть молодой сайт: он классный, насыщенный интересной пользователю информацией и нравится посетителям. Сайт этот не продвигается методами SEO, поэтому Яндекс не знает о его «классности», в таком случае судьба сайта – болтаться на сотом или трехсотом месте, никогда не увидев ТОП. А раз он никогда не попадет в ТОП, то Яндекс никогда не даст ему трафик и никогда и не узнает, что этот сайт такой замечательный. Раньше у подобных сайтов было всего два способа получить какие-то позиции:

Чтобы по ключевым запросам — а это те же самые ключевые запросы, что и по SEO — люди переходили на этот сайт, Яндекс.Директ записывал их поведенческие данные, видел, что этот сайт «хороший и замечательный», после чего этого сайт начинал расти в выдаче. Получалось, если нет SEO и если нет Директа, то у сайта не было практически никаких шансов. «Однорукий бандит» создали для того, чтобы вот такие сайты на время по некоторым запросам ставить в ТОП и записывать поведенческие данные по ним. Если показатели хорошие, то сайт далее начинает расти самостоятельно. В итоге эта технология привела к тому, что реально качественные и интересные для пользователей сайты, могут оказаться в ТОПе даже без какого-либо seo-продвижения. Да, это возможно. Очень редко, но возможно.

Расскажем подробнее о еще одном интересном моменте, о котором упоминалось раньше, это технология «Спектр». Она подмешивает в выдачу другие интенты заданного запроса, т.к. существуют запросы, у которых одновременно множество интентов.

Рассмотрим на примере. Запрос «Пицца».

Интент – это суть запроса.

Какие интенты могут быть у пиццы? Это «заказать пиццу», это «посмотреть картинки пиццы», это «посмотреть рецепт», т.е разная суть запросов. В таком случае Яндекс подмешивает их в выдачу, например, для коммерческой выдачи информационные запросы с рецептами пиццы.

Плюсы и минусы SEO

Плюсы:

Минусы:

Когда SEO не подходит?

Важно понимать целесообразность применения SEO. Далеко не для всех бизнесов и всех сайтов подойдет именно этот метод продвижения. Когда отсутствует сформированный спрос, то и продать его будет трудно.

Сформированный спрос – это продвижение нового продукта на рынке, о котором никто не знает, какого-то нового бренда, принципиально нового продукта, которого раньше не было.

Рассмотрим на примере. Запрос «электродвигатели для велосипедов на закиси азота». Скорее всего, такого запроса не существует, т.е. никто не вводил, и не будет вводить такие запросы, следовательно, продать подобное будет трудно (только если через совсем холодный запрос). Но если попытаться обрабатывать трафик по велосипедам, какая-то часть трафика (доля, проценты), конечно же, купит эти электродвигатели, но это неэффективно. Если же необходима срочность, то SEO ее дать не сможет, поэтому потребуется микс из контекстной рекламы и SEO, либо просто контекстная реклама.

Основные факторы ранжирования

Поговорим подробнее о таких интересных факторах как метатеги.

Title. Чтобы его найти, необходимо подвести курсор мышки к строке с адресом сайта. Удерживая непродолжительное время курсор на строке, мы увидим сам Title. Он находится в коде сайта, поэтому увидеть его можно именно в окошке браузера. Title, зачастую, отображается в выдаче Яндекс и Google, но не всегда. Если мы введем какой-то запрос, который соотносится, например, с «М.Видео», то вполне возможно мы можем увидеть этот Title в выдаче Яндекс. А буквально еще три года назад в выдаче мы всегда видели именно Title.

Description. Вручную на сайте мы его никак не увидим — он находится в коде. Чтобы его обнаружить, нажимаем правой кнопкой мыши на страницу и выбираем «смотреть исходный код» (формулировка может меняться в зависимости от браузера), и внутри мы увидим Description. Тег все еще жив, смысл его использования не пропадает.

А вот такой тег, как Keywords, – это рудимент, кто бы что ни говорил. Это абсолютный пережиток, и использовать его нет никакого смысла. Keywords — один из старейших seo-тегов, когда поисковая система была «глупая» настолько, что не знала, по каким запросам ранжировать нашу страницу. И мы ей помогали, мол, Яндекс, поставь меня в ТОП по запросу «фриланс, услуги онлайн, заказать услуги». И он говорит: «О’кей, Кэп, поставлю», — и ставит. Но сейчас поиск на него совершенно не смотрит. Все крупнейшие лидирующие сайты отказались от этого тега.

Терминология

Поведенческий фактор – это действия пользователей на сайте (время пребывания, количество просмотренных страниц и др.), это то, как посетитель ведет себя на нашем сайте. Они могут быть «хорошими», могут быть «плохими».

Коммерческий фактор – это надежность коммерческого ресурса. Можно ли этому сайту доверять? Является ли он мошенническим? Вот это коммерческие факторы.

Индексирование – это процесс добавления сведений о сайте роботом поисковой машины в базу данных. Далее они используются для поиска информации на проиндексированных сайтах. Однако существуют ограничения на типы индексируемых документов. Кстати, эти ограничения постоянно сужаются, и поиск начинает индексировать все больше и больше. Например, у Google есть наработки по индексации текстов во flash (есть такая информация).

Интент запроса – это потребность пользователя, которую он хочет решить с помощью сайтов, ссылки на которые показываются на странице результатов поиска по определенному запросу. Интент и запрос могут достаточно сильно отличаться: у пользователя может быть один интент, а запрос он может задать как-то криво. Рассмотрим на примере: запрос «Пицца» может означать много всего: «что такое пицца», «историю пиццы», «рецепт пиццы», «заказать пиццу». Интент – это сама суть запроса.

Поисковый запрос – это непосредственно введенное в выдачу поисковой системы слово (словосочетание).

Семантическое ядро – это грамотно составленный список слов и словосочетаний, характеризующий деятельность сайта.

Частота запроса – все запросы, набранные пользователем в виде ключевого слова или фразы за фиксированный период времени.

Виды запросов:

Мы переходим в Wordstat и вбиваем некий запрос и видим статистику за прошлый месяц. Необходимо понимать, что если мы видим 1000, это не значит, что 1000 же раз пользователи вобьют этот же запрос в следующем месяце – эти данные только отчет за прошлый месяц. Гипотетически в следующем месяце может быть ноль. Для запросов с ярко выраженной сезонностью это очень актуально. Например, «букеты на 8 Марта». Мы можем зайти в Wordstat, вбить, увидеть 30 тысяч. Ура-ура! Оптимизироваться под этот запрос, а далее трафик на весь год по нему исчезает.

Кластеризация – это распределение различных запросов на группы по смыслу и еще некоторым принципам. Принципов работы над семантическим ядром существует достаточно много: сбор семантики и кластеризация – это основные, самые важные этапы трафикового продвижения.

Внешние ссылки – это ссылки одного сайта на другой, сторонний. Когда мы заходим на какой-то сайт и видим там ссылку, нажимаем на нее и оказываемся на совершенно ином сайте – это и есть внешняя ссылка. Она придает вес и активна в поисковом продвижении. Следует понимать, что у внешних ссылок существует достаточно много типов. Есть также ссылки, которые индексируются (учитываются поисковыми системами), а существуют ссылки, которые не индексируются.

Внутренние ссылки – это ссылки внутри самого сайта. В этом случае при нажатии на ссылку на сайте, мы попадаем на этот же сайт, только на другую страницу.

ЧПУ (или «человекопонятный» URL) – «перевод» адреса страницы. Как правило, это транслит. ЧПУ дает возможность прочесть, на какой именно странице сайта мы сейчас находимся, а не расшифровывать набор множества непонятных символов типа «?», «P», «/» и прочего.

LSI – еще один неоднозначный термин, который многих сбивает. На самом деле это латентно-семантическое индексирование. Термин стал звучать в лексике оптимизаторов с запуском Google, алгоритмов «Панда» и «Колибри». В связи с этим возникли термины LSI-фразы и LSI-копирайтинг. Многие считают, что LSI – это по умолчанию какие-то особые слова, но это не так, LSI – это не слова.

Ранжирование – распределение поисковиком сайтов (выше — ниже)

Анкор – это часть ссылки, которая находится между открывающим тегом «а» и закрывающим тегом «/а». Он находится внутри кода, само собой сам «а» мы снаружи не видим.

Ссылками пронизан весь Интернет, они объединяют между собой все сайты.

Прописываются они следующим образом:

Находясь на каком-то сайте, мы видим ссылку, к которой можем подвести мышь (она, как правило, выделена другим цветом), вот то, что выделено другим цветом, это и есть анкор.

Парсинг – это автоматическое исследование страниц сайта парсером (определенной программой или скриптом). Задача парсинга – выгрузить какую-либо информацию. Отсюда парсинг товаров, парсинг отзывов, парсинг мета-тегов и др.

Домен – это название сайта. Технически можно зайти и по IP-адресу: мы можем вбить IP-адрес сайта и попасть на него, но это неудобно. Поэтому и существуют домены – уже привычные нам названия сайтов типа яндекс.ру.

Хостинг – это площадка, на которой находится сайт. Хостинги бывают разных видов: облачные, колокации (это когда вы сдаете свой сервер в аренду), виртуальные, выделенные, VPS, VDS.

Поддомен – это часть домена более низкого уровня, что очень важно для мультирегиональности. В этом случае иногда используются внутренние папки, что  считается даже более прогрессивным методом. Форум, например, это поддомен. В рамках своего домена вы можете создавать практически ничем не ограниченное количество поддоменов. В глазах Яндекса, каждый поддомен – это уникальный новый сайт, а Google все сливает и индексирует одним общим списком.

Склейка — это 301-й редирект.

Редирект – это автоматическая переадресация посетителей с одного ресурса на другой, либо с одной страницы на другую. У редиректов бывают различные типы. Наиболее используемый для SEO это именно 301-й редирект, который говорит поисковой системе, что страница полностью и навсегда переехала с этого адреса на другой, таким образом, через 301-й редирект можно передавать весь ссылочный вес. И точно так же через него можно передать некоторые фильтры, т.е. если какой-то сайт был «зафильтрован» не всеми типами фильтров, через 301-й редирект можно его фильтры передать другому сайту.

Выдача (она же – СЕРП [«SERP» сокр. от англ. «Search engine results page»]) — то, что мы видим при вводе запроса – выдача результатов.

«Хлебные крошки» – система навигации на сайте. В интернет-магазинах чаще располагается сверху над товарами. По ним мы видим путь, например, «главное» >> «ноутбуки» >> «ноутбуки Sony» >> «ноутбук Sony такой-то».

Вопрос – ответ

— Все ли фильтры можно передать редиректом?

— Не все. «Минусинск» перейдет через редирект, причем, переходит практически каждый раз.

— Есть ли перспективы у SEO? Поисковики убивают SEO своей рекламой.

— Да. Яндекс очень активно и глубоко запустил свои руки в выдачу. Не так давно у нас было всего три спецразмещения, сейчас их стало четыре. Там еще может появиться Маркет, поэтому по некоторым запросам мы даже не увидим органику, т.е. seo-выдачу на первом экране, но от этого seo-трафика меньше не стало.

Если мы говорим о трафиковых методах продвижения, то они несильно пострадали. Ощутимое негативное влияние это оказало на «позиционку». Когда мы продвигали сайт по конкретным запросам, то находились на первом месте. Яндекс добавил еще одно спецразмещение — нас сдвинули. Мы серьезно потеряли в трафике. Можно сказать, что «Позиционка» гибнет. Трафиковое продвижение расцветает: очень многие будут уходить с «позиционки» на трафик. Трафиковое продвижение тоже когда-нибудь они будут пытаться прижать, но нельзя сказать, что трафика становится меньше, в виду того, что сам трафик растет — количество людей, которые приходят в интернет, постоянно повышается. Общий трафик, генерируемый поисковиками, систематически увеличивается. Поэтому если даже Яндекс и урезает возможности органики, то сам трафик просто растет.

— Как обойти геозависимость в Яндексе, если нет адресов в других городах?

— Все просто до безобразия. Вы можете создавать поддомены, сколько вам вздумается и во всех городах, в которых вам вздумается, если мы говорим именно о методике поддоменов. Далее вы договариваетесь с какой-нибудь крупной транспортной компанией, которая способна технологически возить свои товары в эти города. Там у них есть пункт выдачи. Пункт выдачи этой транспортной компании вы указываете в контактах. Так делают почти все, у кого поддомены. Это, вообще, отличная техника! Никто за это наказывать не будет.

—  Https – технический фактор?

— «Rel nofollow» – это инструкция Google. Яндекс говорит, что он ее пытается учитывать, но точно утверждать не беремся. Вообще, «rel nofollow» не работает, никак не работает – ни в Яндексе, ни в Google, несмотря на то, что они заявлены, потому что эти ссылки все равно индексируются. Если мы будем говорить о мета, то там – да. Получается, если у нас есть мета-инструкции: «noindex», «nofollow» (мета вообще жесткая инструкция), то в случае с простым атрибутом ссылки «rel nofollow» все равно поиск будет переходить по этой ссылке, т.е. ссылки закрываются через специальные скрипты. Они есть в свободном доступе в Интернете, с детальным (пошаговым) описанием к каждому скрипту. Многие считают, что это «клоакинг». Есть целая дискуссия на эту тему (на тему этих скриптов). Люди говорят: «Мы отдаем, на самом деле, пользователю один результат, а роботу – другой». Но все общим мнением пришли к тому, что это не «клоакинг», а проблема робота, так как робот не может распознать эти скрипты. Если бы он их распознал так же, как браузер, то он бы все видел.

Вот для веса и используют закрытие как раз в скрипты. Самая главная задача ссылочных скриптов – это работа с весом. Опять же, никто доподлинно этого не подтвердил, но среди seo-экспертов есть общепризнанное мнение, что вес переходит, несмотря на «nofollow», закрываясь скриптами. Есть примеры серьезных сайтов, где именно блоки меню закрываются скриптами. В принципе, лучше «nofollow», чем ничего, если мы работаем с «развесовкой».

— Как рассчитать возможный трафик на сайт до его продвижения?

— Самый простой путь – это анализаторы трафика. У различных сервисов существует прогноз трафика, например, есть сервис «Руки», где мы можем вбивать ключевые запросы и, несмотря на то, что у них там может быть какая-то космическая частотность, он покажет минимальное значение трафика. Что будет гораздо ближе к правде, потому что там учитываются и реальные позиции выдачи, в сравнении с тем, что есть в Директе — грубо говоря, 4 спецразмещения. В такие сервисы можно вбить необходимую семантику и в соответствующей графе получить значения трафика – это и будет прогноз.

Если же мы взяли какой-то запрос, оценили его через анализаторы трафика (через тот же «Руки»), и потом этот запрос у нас появился  в ТОПе, то реального трафика оказывается больше.