Павел Карпов: «Если SEO-оптимизатор говорит, что гарантирует успешное продвижение, бегите от него подальше»
Павел Карпов: «Если SEO-оптимизатор говорит, что гарантирует успешное продвижение, бегите от него подальше»

Павел Карпов: «SEO-оптимизация — это не продукт, а услуга, и подрядчик не может предоставить вам гарантии»


11:21 10.10.2017   |  Людмила Мурзина |  Computerworld Россия

Рубрика Предприятие |   931 прочтение



Известный эксперт о том, как выжить в эпоху RankBrain и «Королева», не попасть под «Минусинск» и о других тонкостях оптимизации и продвижения сайтов сегодня.

 

Эффективная SEO-оптимизация — это не только правильные методы, но и быстрая реакция плюс немного магии. О том, что происходит сейчас в мире поиска, что делать, чтобы ваш сайт хорошо и правильно индексировался, и как не попасть в лапы недобросовестных оптимизаторов, Computerworld рассказал Павел Карпов, глава отдела цифрового маркетинга компании ATLEX.

- Насколько важно в эпоху социальных сетей заботиться о том, чтобы сайты хорошо индексировались в поиске?

Начну с фактов: по статистике LiveInternet, за последние полгода среднемесячное соотношение трафика из поисковиков и из соцсетей составило примерно 13:1. Если говорить о конкретных цифрах, то соцсети дают трафик в сотни миллионов, а поисковики — это уже миллиарды переходов. Поэтому ответ на вопрос, стоит ли тратить деньги и усилия на поисковую оптимизацию, однозначен. Да, стоит.

- Это соотношение справедливо в отношении любых сайтов, из любых областей или здесь есть исключения?

Исключения есть. Если вам достаточно сайта-визитки и клиентов вы получаете через личные контакты (такое бывает, например, при оказании каких-то специфических услуг), то поисковое продвижение вряд ли потребуется. То же самое можно сказать о блогерах: им поиск интересен, но если они нацелены на живое общение со своей аудиторией, а не вещание «в один конец», то соцсети для них имеют намного большую ценность.

В остальных случаях поиск стоял и стоит во главе угла.

- Поговорим о поиске. «Яндекс» недавно представил основанный на нейросетях алгоритм «Королев», который ищет не по ключевым словам, а по смыслу. Правда, авторы отзывов признаются, что пока не увидели особых отличий. Но, может быть, разницу уже увидели SEO-оптимизаторы?

Если владельцы сайтов считали приоритетом удовлетворение интересов пользователей, давали ту информацию, за которой люди пришли на их ресурс, они не должны заметить разницу. Те же оптимизаторы, которые гнались в первую очередь за трафиком, зарабатывали на продаже ссылок и всего подобного, хорошо почувствовали изменения — начавшиеся, кстати, даже не в этом году.

Поисковики давно утверждают, что ставят во главу угла такое эфемерное понятие, как «счастье пользователя». Иначе говоря, если люди, пользуясь поиском, остаются довольны, то все хорошо и для них, и для поисковика.

В конце 2015 года в Google объявили о запуске системы искусственного интеллекта RankBrain. Компания пошла по пути создания системы, которая обучается сама, человек в этом вообще не участвует. RankBrain имеет доступ ко всем статистическим данным, запросам пользователей, исходя из них формирует разные варианты поисковой выдачи. И только после этого появляется человек, которому выдаются все эти вариации. Асессоры Google выбирают наиболее удачные, система берет их за основу и продолжает свое обучение.

В «Яндексе» пошли по другому пути. В 2009 году компания приступила к созданию методологии «Матрикснет». Это тоже искусственный интеллект, но тут свобода системы сильно урезана, машина обучается людьми, причем не на своих вариантах выдачи, а на оценках асессоров. В определенный момент в «Яндексе» столкнулись с тем, что асессоров стало не хватать, был создан сервис «Толока» с краудсорсинговой моделью.

Предыдущая разработка – «Палех» – использовала алгоритмы, распознававшие «тайтлы» (Title), то есть названия страниц, и пыталась приоритизировать сайты исходя из того, насколько слова в Title соответствовали поисковому запросу.

Сейчас приоритизация идет не только по названию, но и по тексту всей страницы, «Королев», по сути, расширяет функционал «Палеха». То есть, кроме анализа ключевых слов, система занимается поиском и анализом сопутствующих слов, пытается понять, насколько тематика страницы соответствует запросу, даже если нет прямого соответствия.

- Следует ли из этого, что ключевые слова по-прежнему очень важны, просто они должны быть более разнообразными?

На данный момент да. Поисковики, в том числе «Яндекс», пока не ушли от ключей: если их нет на странице вообще, она в поисковой выдаче не появится. Но в «Яндексе» уже заявляли, что они к этому идут, и в конечном счете страница будет появляться в выдаче, даже если на ней нет ключей, но по смыслу она соответствует запросу.

Так что рано или поздно ключевики отомрут.

- Означает ли это, что правильно оптимизированные по текущим рекомендациям сайты, с ключами, расставленными в стратегически важных местах, в будущем сильно упадут в выдаче?

Не все. Если они при этом содержат полезный контент, они по-прежнему будут ранжироваться высоко.

- Чья модель машинного обучения, на ваш взгляд, более эффективна, у Google или у «Яндекса»?

Мне ближе модель Google. Машина априори может просмотреть и проанализировать большее количество вариаций. Человек тут — «бутылочное горлышко». Хотя, возможно, ребята из «Яндекса» смогут здесь что-то придумать.

- Поисковики приучили нас к корявому языку поисковых запросов. Особенно это стало заметно с введением умного поиска. Мы уже не гуглим «купить детскую коляску», а сразу набираем «детская коляска купить дешево в Москве», потому что так выдача будет точнее и полезнее. Как вы думаете, с введением «смыслового» поиска, о котором мы говорили, мы вернемся к нормальному построению предложений?

Думаю, да. Поиск уже сильно продвинулся по сравнению с тем, что было несколько лет назад, подрастает новое поколение, которое воспринимает технологии на другом уровне и пытается с ними общаться на удобном для себя языке. И бизнесу – в нашем случае поисковикам – приходится под это подстраиваться. Не всегда это получается сразу, но они знают об этой потребности пользователей и будут пытаться ее удовлетворить.

- Насколько известно, даже «белые» оптимизаторы грешат накруткой и закупкой ссылок, несмотря на новые алгоритмы, угрозу понижения в ранжировании, всякие там «минусински» и пр. Когда эти методы перестанут себя оправдывать?

Такие методы накрутки используют, как правило, SEO-компании, которые работают по потоковому методу, пытаясь не продвинуть сайты клиентов, а получить доход. Они не просят много денег, предпочитая зарабатывать на количестве, и не боятся потерять клиента. В лучшем случае заказчиком просто не занимаются, предоставляя ему липовые отчеты, в худшем — производят закупку ссылок на биржах. Для клиента же при этом два варианта развития событий: либо он перестает платить и скатывается вниз в поисковой выдаче, либо (что гораздо хуже) сайт попадает в бан поисковика.

Если клиент приходит на большой бюджет, им действительно будут заниматься: готовить качественный контент, оптимизировать правильно сайт и т. д. В этом случае потеря клиента означает и ощутимые потери в деньгах, поэтому SEO-оптимизатору невыгодно использовать незаконные с точки зрения поисковиков методы.

Еще одна категория — «закостеневшие» оптимизаторы, которые привыкли использовать старые методы и не следят за изменениями, но это вымирающий вид.

- Предположим, клиент слышал про «черных» оптимизаторов и даже про «Минусинск», но не знает, как распознать недобросовестных исполнителей. Как ему быть? Он может как-то отслеживать процессы сам? Или ему надо привлекать сторонних аудиторов?

Могу посоветовать зарегистрироваться в кабинетах для веб-мастеров (такой есть и у Google, и у «Яндекса») и мониторить входящие ссылки на свой сайт. И если клиент видит большое увеличение ссылочной массы, причем ссылки выглядят странно, его можно «поздравить» — он столкнулся с автозакупкой ссылок, и ему срочно надо разбираться со своим SEO-подрядчиком, писать письма в поисковики с просьбой не учитывать эти ссылки и т. д.

Если сайт пессимизирован, информация об этом также появится в кабинете для веб-мастеров. В этом случае тоже надо сразу разбираться со своими оптимизаторами.

- Может быть, стоит сразу вносить в договор с SEO-подрядчиком пункт, страхующий от «Минусинска», например выплату штрафа при блокировке?

На это никто не пойдет по одной простой причине. SEO-оптимизация — это не продукт, а услуга, и подрядчик не может предоставить вам гарантии. Более того, если подрядчик говорит, что гарантирует вам успешное продвижение, бегите от него подальше. Здесь участвуют три стороны: заказчик, оптимизатор и поисковик, над которым оптимизатор никакой власти не имеет.

- Нужно ли оптимизировать сайт для продвижения в соцсетях? И если да, то как это сделать?

Безусловно, нужно – в любом случае и независимо от тематики. Оптимизация здесь заключается в добавлении на сайт микроразметки. Сейчас хорошим тоном считается использовать стандарт микроразметки Open Graph, которую разработали в Facebook. Его понимают и другие соцсети, в том числе «ВКонтакте», «Одноклассники» и др.

С помощью микроразметки можно указать, какое превью использовать при размещении в соцсетях (и это не обязательно должна быть картинка из статьи), какой заголовок будет создан, какой дополнительный текст-описание появится и т. д. Правильная микроразметка сделает ссылку заметнее и привлекательнее.

- То есть оптимизация в соцсетях сейчас — это про то, чтобы лучше выглядело? Но не лучше продвигалось?

Да. Дальше уже речь идет о маркетинге, об SMM, это работа с контентом и аудиторией.

- Будет ли когда-нибудь налажено взаимодействие между поисковиками и соцсетями? Скажем, появится ли нормальный поиск по Facebook или «ВКонтакте»?

Поисковики и соцсети — конкуренты, хотя они и пытаются договориться. Например, Google и Twitter настроили взаимодействие: поисковик индексирует Twitter, а большое количество ретвитов гарантирует быстрое попадание в поиск Google. Но Twitter — это больше о новостях. Что же касается других соцсетей, то они уже используют свои поисковые движки. Но у последних несколько иная цель: не дать исчерпывающую информацию по запросу, а способствовать тому, чтобы люди получали ее через общение друг с другом.

Второй тонкий момент — персональные данные пользователей, насколько они должны быть доступны для индексирования. К тому же соцсети не хотят просто так пускать поисковики. Если они начнут индексироваться в поиске, то зачем тогда вообще заходить в социальную сеть и регистрироваться там?

- А что вы думаете о «Яндекс.Дзен»?

Идея предугадывать интересы пользователей — замечательная. Если бы в «Яндексе» на этом остановились, было бы отлично. Вместо этого они идут дальше, стремятся привлекать авторов на свою площадку. Пока они оставили возможность размещать анонсы, по которым посетители переходят уже непосредственно на сайт.

Но каналы — это попытка привлечь пользователей на свою площадку. И если вы прочитаете условия соглашения при регистрации, то увидите, что права авторов достаточно ограниченны. «Яндекс» может в любой момент закрыть канал, без бэкапов, без обязательств, с полной потерей всего контента на нем.

А в остальном «Яндекс.Дзен» — просто еще один канал для привлечения клиентов, но говорить о том, что это решение, которое все перевернет и озолотит тех, кто создает контент, я бы не стал.


Теги: Google Социальные сети Яндекс Поиск в Интернете
На ту же тему: