Топ поисковой выдачи. Что значит топ поисковых систем. Что конкретно сделать

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

ТОП поисковых систем - это некоторое количество первых сайтов в органической выдаче результатов по определенному запросу.

Больше видео на нашем канале - изучайте интернет-маркетинг с SEMANTICA

Когда вы задаете вопрос в поиске, выпадает список ресурсов, на которых система предлагает найти ответ. Сюда не входит реклама. Топ-5 - первые 5 результатов органической выдачи. Аналогично можно определить, что такое топ-10 Яндекса или Google - это первые десять сайтов в поисковой выдаче после интерактивных блоков с готовыми ответами и рекламных страниц. Топ, от английского «Верхушка». Чаще всего пользователь ищет на первой, иногда на второй странице, не углубляясь дальше, после чего меняет запрос.

Топ формируется сложными . Чтобы попасть на первые позиции, разработчики регулярно адаптируют свои проекты под требования поисковика, анализируют новые алгоритмы и механизмы, проводят постоянный мониторинг конкурентов.

Преимущества быть на верхних позициях

89% пользователей находят ответы на первой странице выдачи. По статистическим данным, первые 3 сайта забирают больше поискового трафика, чем контекстная реклама: только 25% пользователей заходят на рекламные страницы. Топ-места обеспечивают регулярные переходы на сайт: повышается кликабельность, увеличивается поисковый трафик и конверсия.

Посетители больше доверяют бренду, повышая его репутацию.

Распределение CTR по позициям в органической выдаче

Средний CTR первой позиции составляет 44%, 28% - второй, 23% - третьей и 22% - четвертой. С пятой по десятую коэффициент колеблется в пределах 15-18%. Картина немного отличается, если пронаблюдать переходы по типу запроса. Например, для первого ресурса переход по НЧ составляет 46%, СЧ - 38%, ВЧ - 40%, а для второго разброс уже больше: НЧ - 29%, СЧ - 20%, ВЧ - 15%. Чаще всего по высокочастотным посетители переходят на первый сайт, но не получив ответ, изменяют запрос, переходя к низкочастотному.

Помимо органической выдачи, поисковая система предлагает уже готовые ответы в специальных сниппетах, находящихся в самом вверху. Посетитель сразу видит ответ на вопрос, и ему уже может не потребоваться переход на другие ресурсы, что снижает уровень переходов в целом. По данным Stone Temple Consulting, Google выдает готовые ответы по 30% запросов, а компания Ahrefs подсчитала, что кликабельность первой позиции в таком случае падает на 6,4%. По выводам других исследований, максимальное значение достигалось 25-30%, что приравнивается к падению сайта с первой строчки на вторую. В Яндексе почти половина низкочастотных запросов имеет в выдаче, согласно исследованиям, представленных на конференции All in Top Conf. Там же были проанализированы CTR с его наличием и без. Например, первая позиция при наличии колдунщика Маркета теряла более 10% поискового трафика.

Компания Optify выявила своих исследованиях, что нахождение сайта за пределами топ-20 не несет никакой выгоды для проекта, поскольку пользователи редко переходят дальше второй страницы.

Заметим, что приведенные цифры - средние, и у каждого конкретного веб-мастера или исследователя могут существенно отличаться.

Что влияет на кликабельность

  • Сниппет с актуальной и релевантной информацией, хорошо сформулированный заголовок по теме вопроса, яркий фавикон бренда;
  • Выгодные предложения: привлекательные цены, скидки, акции нравятся покупателям, и они охотно переходят на ресурсы за дополнительной информацией;
  • Позиция в выдаче;
  • Сезонность, тематика, типы, регионы запроса;
  • Общий вид на фоне конкурентов.

Как попасть в ТОП Яндекса

Рассмотрим этапы работы над продвижением на верхние строчки выдачи.

  1. Подготовка к оптимизации. Работа с семантическим ядром: выбирается стратегия его наполнения и отбираются ключи в соответствии с задачами сайта, релевантности страницы, анализа поведенческих факторов, бюджета.
  2. Внутренняя оптимизация:
  • Уникальный и разнообразный контент.
  • Приятное и соответствующее оформление.
  • Оптимизация заголовков и мета-тегов.
  • Внутренняя перелинковка сайта.

Техническая настройка

  • Быстрая загрузка - люди не любят ждать, пока контент загрузится полностью, т.к. не уверены, что найдут ответ;
  • Адаптация под мобильные устройства - количество веб-серферов с мобильных устройств превышает число пользователей десктопа по статистике 2017 года;
  • Кроссбраузерность - отображение во всех браузерах;
  • Удаление или исправление битых ссылок. Большое число неработающих линков подрывает доверие к компании, создавая ощущение, что за ресурсом не следят. Пользователи быстро уходят, ухудшаются поведенческие факторы и поисковик снижает позиции;
  • Удаление технических страниц: дублей, пустых и т.д.;
  • Проверка правильности кода HTML;
  • Графика: легкая и одновременно крупная и наглядная;
  • Удобное меню, которое позволит иметь под рукой все фишки проекта;
  • Настройка файла robots.txt для индексации;
  • Прописать ЧПУ - «человеко-понятный» адрес, то есть без непонятных букв и крючков.

4. Коммерческие факторы. Качественная работа над коммерческими фишками делает ресурс удобным и наглядным для посетителей, вызывает доверие, повышают вероятность покупки товара или услуги. Сюда относятся:

  • Карта ресурса;
  • Блок контактов, а также их указание вверху страницы;
  • Реквизиты юридического лица;
  • Формы для обратной связи;
  • Описание преимуществ товаров и услуг, побуждение к действию.

5. Внешняя оптимизация:

  • Плавное наращивание ссылочной массы.
  • Анализ и улучшение с поведенческих факторов.
  • Комплекс мер по работе с аудиторией из социальных сетей.
  • Качественные анкоры с ключевыми словами и фразами.
  • Создание сайта для пользователя, а не для поисковика.
  • Естественное продвижение.

На заметку: алгоритмы и фильтры от Яндекса

Для желающих попасть в топ быстро с малополезным сайтами для пользователя, поисковая система придумала специальные меры - фильтры, чтобы выдавать всегда актуальную информацию:

  • Минусинск: снижает позиции за покупку ссылок;
  • АГС-2015: уменьшает позиции страниц, которые продают ссылки;
  • Владивосток: проводит ранжирование с учетом оптимизации сайта под мобильные устройства;
  • Ссылочный взрыв: накладывается за резкое увеличение ссылочной массы;
  • АГС: Яндекс придирчив к контенту, и за некачественное содержание, например, копипаст, можно получить фильтр;
  • Многорукий бандит: периодически выставляет на топовые позиции молодые проекты, чтобы собрать информацию о поведении пользователей и сделать выводы по актуальности и востребованности материала. Если содержимое качественное, то поисковик сохраняет позиции;
  • Баден-баден: борется против малополезных текстов.

Здравствуйте , мечтаете продвинуть самостоятельно сайт в топ, но не знаете, что нужно делать? Из статьи вы узнаете несколько правил продвижения, а также как вывести сайт в топ 10 яндекса, самостоятельно.

Каждый вебмастер, как правило, делает свой новый сайт с целью заработка денег. Ну не каждый, но почти каждый – время такое, что только лишь для хобби это дело не очень и годится. В общем, делаются интернет-ресурсы для заработка, но вот не каждый понимает, как сделать его так, чтобы он приносил достойную прибыль.

Поисковая оптимизация по запросам

Однако не всё так грустно, как кажется. Если у вас сайт, на котором вы пытаетесь продать, например, музыку проявив минимум фантазии, вы можете легко получить целевых посетителей, заинтересованных в вашей музыке.

Для этого надо уяснить вторую истину – чем больше имеет страниц сайт, тем шире произойдёт охват нужной вам аудитории. Для этого вам надо собрать как можно больше фраз по теме музыка и всему, что подходит близко к ней, например, скачать песню, «прекрасная мелодия» и прочее.

Собрать сколько угодно поисковых фраз поможет вам бесплатная программа «Магадан», которая парсит Яндекс на предмет нужных вам тем, то есть собирает все тематические «ключевики» и раскладывает их по файлам в строчку.

Если «заточить» одну страницу сайта под один «ключевик», другую – под второй и так далее, то у вас получится огромная сеть, которая может конкурировать с лучшими музыкальными интернет-ресурсами. Однако это в идеале. А в реале же надо усвоить третье правило – чем «низкочастотнее» ключевая фраза, тем меньше конкурентов.

«Низкочастотник» (НЧ) – это фраза, которую ищут мало людей. Но «мало» – это тоже количество, часто довольно заметное. Если у вас каждая страница будет привлекать из поисковой системы хотя бы несколько человек в день, то умножив их на количество страниц сайта, можно составить более или менее приблизительное представление о количестве посетителей, ради которого стоит постараться.

Качественная статья с точки зрения Яндекс

Итак, что у нас получается? Мы собрали 1 тысячу низко конкурентных ключевых фраз и набили ими тысячу страниц. Набивать «ключевиками» страницы надо умеючи. Естественно, что на каждой странице должен быть контент.

Контент – это бесплатные материалы, которые могут заинтересовать посетителя. Во-первых, это текст. Во-вторых, – графика (картинки, фотографии и всё такое). В третьих – ссылки на всякие полезные вещи, например, на бесплатную музыку, фильмы или сайты. В-четвёртых, контентом может быть сам дизайн.

Существуют такие красивые сайты, которым и традиционный контент не нужен, вся их прелесть заключается исключительно в дизайне, но, впрочем, не будем на этом варианте останавливаться.

Набивать многостраничный сайт уникальными текстами довольно затруднительно, как и писать их, об этом , полезными ссылками тоже легче на него навешать хороших картин по общей теме, то есть по музыке.

Если не лениться, то можно собрать довольно качественный графический контент. Как вы его конкретно будете размещать на каждой странице – это уже ваша проблема, но в этом деле отлично может помочь специальная программа, называемая дорогенератор.

Не будем останавливаться на истинном предназначении этого агрегата, главное, что он умеет делать красивые сайты по заранее нарисованному шаблону. Называется такая бесплатная штуковина «Ред Баттон» («Красная Кнопка»). Существуют ещё «Агрес» и «Джон 22», но они в бесплатных версиях работают не очень хорошо, поэтому остановимся на «Ред Баттоне».

Познавательное видео по теме статьи, как выйти в топ 10 без вложений

Как раскрутить сайт в поисковых системах

Как с помощью дорогонератора сделать отличный конкурентоспособный сайт – не является темой этой статьи. Это сделать весьма просто при достаточном количестве «НЧ» запросов, картинок и красивого шаблона.

Вопрос стоит в другом – как «продвинуть» такой гигантский сайт в поисковых системах? Тут есть два варианта – с помощью нескольких ссылок с других сайтов либо программы рассылки сообщений по форумам «Хрумер». У обоих вариантов есть свои недостатки.

Недостаток первого варианта – долгое время ожидания, пока поисковые роботы опишут весь сайт и занесут его в базу («поставят в индекс»).

Недостаток второго варианта – необходимость поиска базы заброшенных форумов, в которые «Хрумер», разумеется (бесплатная версия) будет производить рассылку вашего сообщения со ссылками на страницы сайта. Таких форумов нужно не менее 1000, но чем больше, тем лучше, то есть тем быстрее весь сайт проиндексируется и начнёт ранжироваться поисковыми системами.

Результаты будут, главное, правильно расставить ключевые слова на страницах. Впрочем, с этим прекрасно справится и дорогенератор, только в соответствующих настройках нужно будет указать процент «ключевиков» на страницу 10%, и разбросать по шаблону штук 50 макросов, расставляющих другие слова выборочно (наугад).

Помните, что поисковые системы ранжируют каждую страницу исключительно по плотности ключевых фраз, и поэтому поисковый запрос для нас – один из наиболее важных факторов.

Как добиться высокого трафика на сайте

А вот самым важным фактором, который делает весь сайт в глазах поисковой системы довольно желанным и «правильным» ресурсом – это внимание к нему посетителей. Если ваш сайт будет для посетителей неинтересен, то он будет неинтересен и поисковым системам.

Поисковые системы этот «посетительский» интерес прекрасно вычисляют, например, с помощью тулбаров, которыми оснащены браузеры большинства интернет-пользователей. С помощью этих тулбаров они получают всю нужную информацию, в частности – время, которое посетитель проводит на той или иной странице.

Если каждый посетитель будет задерживаться на сайте довольно продолжительное время, то тогда в бой начинают вступать и остальные факторы, поднимающие страницы сайта по разным запросам на лучшие места выдачи.

Это плотность ключевых фраз, достаточная «низкочастотность» этих «ключей» (то есть незначительная конкурентность), правильная внутренняя перелинковка и многие другие, с которыми прекрасно справится генератор, если вы не допустите при создании шаблона каких-либо грубых ошибок.

В общем, задача, которая стоит перед вашим сайтом, заключается в том, чтобы каждая его страница «вылезла» минимум по одному из нужных поисковых запросов в ТОП (на первую страницу поисковой выдачи). В идеальном варианте она должна вылезти по всем фразам, упоминание которых встречается на странице хотя бы 3–5 раз.

Естественно, не каждая страница будет приносить одного посетителя в день, но обязательно найдутся страницы, которые принесут по 10, а то и по 100 уникальных посетителей. Таким образом, в худшем варианте весь сайт в целом должен приносить не менее 1 тыс. человек в день.

Но для того чтобы слепо не полагаться на лучшее, которое часто обманчиво, ничто не мешает вам сделать десяток, а то и сотню подобных сайтов. Овчинка выделки стоит, главное – не лениться.

Но, если вы хотите продвигать в топ видео контент, то советую прочесть мою статью, где я спалил свои рабочие фишки, о которых вам никто не расскажет.

Приветствую друзья. Как показали результаты опроса моих читателей — самая волнующая умы и сердца вебмастеров оказалась тема поискового продвижения сайта и seo приемчики. Оно и не удивительно, зачем мы создаем сайты в большинстве случаев? Верно, что бы зарабатывать с них.

Заработок с сайта напрямую зависит от количества посетителей, что в 99% случаев так же зависит от позиций сайта в поисковой выдаче.

Мало кто из нас желает покупать себе трафик в контекстной рекламе и других подобных инструментах — это очень дорого и подходит немногим. И даже те кому подходит все равно мечтают о халявном трафике =)

Так вот, сегодня я поделюсь с вами несколькими проверенными мной способами как вывести свой сайт на хорошие позиции в поисковиках. Они не дают 100% гарантий что вы сразу попадете в топ-3 Яндекса по вч ключам, но существенно повысят ваши шансы пробиться хотя бы на 1-ю страницу и определенно помогут улучшить позиции по ключевым запросам.

7 методов улучшить позиции сайта по ключам в Яндексе и Гугле

Для начала стоит определить основные моменты. Сайты мы продвигаем применяя некий комплекс мероприятий по поисковой оптимизации — то самое seo. Оно бывает внешнем и внутренним.

Внешняя оптимизация сайта это работа на стороне — закупка ссылок, всевозможные прогоны, статейное продвижение, различные сервисы и т.д. Как правило необходимы финансовые вливания.

Внутренняя оптимизация это соответственно работа на самом продвигаемом сайте, которая зачастую не требует вложений, нужны только знания и время.

Казалось бы, там где тратятся деньги и эффект должен быть больше. Но по моим наблюдениям решающую роль имеет именно внутренняя оптимизация сайта, внешняя лишь успешно дополняет, но не наоборот, поэтому ей я уделяю значительно больше внимания. Ну а теперь ближе к делу.

Способы продвижения сайта по ключам в поисковых системах

1. Уход за кодом сайта. Вы не представляете как много проектов, хороших, интересных, перспективных сайтов, страдает из-за того что люди не уделяют внимание техническим деталям. То, что не видно невооруженным глазом, но что определенно влияет на позиции сайта в выдаче. Если вы используете шаблон для вордпресса на своем сайте при этом никогда не заглядывали в его код, то будьте уверены — там сидит множество ошибок и недочетов, как незначительных, так и критических.

Из самых распространенных ошибок что встречались на моей практике:

  • не валидный код. проверяется элементарно , не забывайте в настройках ставить html5 а то ужаснетесь количеству ошибок =)
  • перегруженность скриптами, нерабочие или некорректно работающие скрипты
  • некорректная или устаревшая верстка, ошибки верстки, кривые таблицы стилей
  • нет адаптации для мобильных систем, что с недавних пор так же влияет на позиции сайтов в поиске
  • неправильное расположение элементов в коде, например сайдбар в коде выше контента или нарушенная структура заголовков — теги H1-H6 используются где попало и как попало, на одной странице могут налепить по 3-4 заголовка H1 и т.д.
  • долгая скорость загрузки, перегрузка тяжелыми элементами, скриптами, отсутствие плагинов кеширования и сжатия кода, использование тяжелых изображений или анимации, медленный хостинг и т.д. Вообще заметил что скорость загрузки сайта один из важнейших факторов для роста его посещаемости и позиций. Проверить насколько быстро грузится сайт можно инструментом гугла . Там же найдете и советы по оптимизации скорости загрузки
  • вредоносные элементы — как в самом шаблоне так и в плагинах может сидеть вредоносный код, вирусы, скрытые ссылки, что может погубить проект на корню. Настоятельно рекомендую проверять шаблоны на всякую пакость спец. плагинами типа и весь сайт антивирусными сервисами, типа AI-Bolit.
  • неправильная настройка движка — отсутствие чпу, кириллические url’ы, replytocom’ы и прочее.

Все это может встречаться даже в самых дорогих и крутых шаблонах. Как правило шаблоны делаются для того что бы покупателю внешне все нравилось, было красиво и интересно, а вот как оно все работает изнутри мало кто задумывается при покупке.

2. Перелинковка. Это так называемые внутренние ссылки на страницах сайта, которые распределяют вес ссылочной массы по сайту и напитывают страницы анкорными ссылочками. За счет можно неплохо улучшить свои позиции в выдаче, особенно по низкочастотным ключам. За счет неграмотной можно сделать только хуже.

Для небольших сайтов можно использовать ручной способ — проставлять 1-2 ссылочки в тексте статьи на похожие по тематике страницы. Для проектов со множеством страниц используются автоматизированные методы — это спец. плагины или самописные скрипты. Но даже в таком случае вручную добавленные ссылки будут не лишними- помимо прочего такие ссылки дают естественные переходы посетителей внутри сайта, что улучшает поведенческие факторы и так же благоприятно влияют на позиции. Работает сто процентов — проверено на данном блоге путем экспериментов с перелинковкой.

3. Оптимизация контента. Это непосредственная работа с текстом и изображениями. Пожалуй самый главный пункт. При создании контента важно понимать, что вы создаете его не только для поисковиков, или не только для читателей. Контент создается как для читателей, так и для поисковиков одновременно, это важно совмещать если вы хотите что бы страницы выходили на хорошие позиции.

Иногда придется искать компромиссы, например заголовки статей, должны ли они цеплять читателя или должны в первую очередь сообщать поисковикам точную информацию о сути статьи?)

В тексте нужно использовать заголовки и подзаголовки, причем в правильном порядке. Нужно будет использовать списки и выделения. Нужно будет добавлять картинки иди видео. И много всего другого. Даже если вы считаете что все это не важно и будет только отвлекать внимание от вашей гениальной писанины, все равно придется =)

Не стоит забывать и про технические детали — контент должен быть уникальный и качественный, без ошибок и по существу, размеры текста не менее 1500-2000 знаков, грамотное внедрение ключевых слов без переспама, с использованием синонимов и разбавлением, правильная заголовкам и ключам, использование для прописывание тегов title и description как самому тексту, так и картинками т.д. Страницы должны легко читаться, самое важное на странице должно быть как-то выделено (заголовки, размер шрифта, жирный шрифт, подчеркивания, графические элементы, картинки и т.д. ), что бы глаз цеплялся не позволяя посетителю уплыть на другие сайты.

4. Robotsы, чпу и карты сайта. С картами сайта все понятна — установил плагин и он все сам будет делать за вас. тоже недолго сделать. С тоже ясно — скопировал вставил и вот у нас уже ссылки содержат в себе какую-то семантику а не случайный набор цифр и букв. А вот с robots.txt не все так однозначно. Первым делом этот файлик нужен для борьбы с ненужным дублирующим контентом, которого в вордпрессе предостаточно. Но вы не можете просто скопировать с другого сайта и быть на 100% уверенным что он будет работать у вас как надо. Это все равно что выдавать всем людям одежду одного размера — на ком-то будет висеть, на кого-то не налезет.

Почему так происходит? Потому что правильная настройка роботса зависит от многих факторов — от того какой у вас шаблон, как настроены ЧПУ, какая внутренняя структура у сайта и уровень вложенности страниц с контентом, будет ли уникальный контент на страницах архивов и каталогов или нет, используются ли тэги, как вы настроили перелинковку, вплоть до отдельных плагинов которые тоже придется учитывать.

Важно настроить его так, что бы исключить весь дублирующий контент, при этом не зацепить ничего лишнего — не закрывать от индексации то, что должно попасть в поисковики. Это касается не только текстов, но и элементов оформления страниц и скриптов отвечающих за настройку структуры страницы. Для правильной настройки можно использовать отличный интрумент — гугл для вебмастеров, Посмотреть как Google-bot. Там вам покажут как видит ваш сайт поисковик, и ниже приведут список заблокированных элементов на странице. Кстати там же можно отправлять свежие страницы в индекс Гугла одним кликом.

Я однажды посмотрел на свой сайт глазами робота, ужаснулся и включил таблицы стилей в списки robots.txt разрешенных для индексации. На одном из молодых сайтов после этого трафик увеличился с 20-30 чел в сутки до 100+ буквально через пару недель. Постарайтесь сделать так, что бы поисковый робот видел ваш сайт таким, как его видят обычные посетители, при этом заблокировав все лишнее. Для этого может потребоваться вручную подключать каждый скрипт вплоть до файлов отдельных плагинов, что бы не дать случайно доступ роботу к дублям.

5. Социальное продвижение. Еще пару лет назад почти никто не обращал внимание на соц. сигналы в сфере продвижения, поисковики нейтрально относились к количеству твитов и лайков на страничках. Однако все меняется, сегодня соц. сигналы оказывают непосредственное влияние на позиции страниц в выдаче. Кроме того соц. сети это перспективный источник большого трафика для многих тематик.

Откуда же брать твиты и лайки? Для начала конечно необходимо установить соц. кнопки на страницах вашего сайта. Для этого существует множество сервисов и плагинов, я свой выбор остановил на кнопках от Яндекса . По крайней мере могу быть уверен что статистика не уплывет куда-то на сторону, да и грузится блок довольно быстро.

Кроме того, если вы расчитываете на соц. продвижение то необходимо создать представительство вашего сайта во всех популярных соц. сетях, проще говоря создать группы вконтакте, фейсбуке, завести рабочий твиттер, может даже создать канал на ютубе. И заниматься их развитием, добавлять интересный контент, устраивать конкурсы, точно так же заниматься раскруткой и набором подписчиков. На первых порах могут помочь сервисы, типа и подобных, которые за денежку позволяют покупать ретвиты, подписчиков, или публикации на стены ваших новостей и ссылок.

Вебмастерам придется задумываться о контенте, который будет в первую очередь интересен именно пользователям соц. сетей, хотя бы иногда.

6. Cсылочная масса. Да-да, на дворе шел 2019 год а ссылки по прежнему работают, вопреки всем утверждениям новых алгоритмов Яндекса и прогнозам сеошников в течении последних лет эдак 10. Но есть одно большое НО. Работают только естественные ссылки или очень похожие на них =) Т.е. ссылки размещенные в статьях и комментариях, ссылки безанкорные или с анкорами «здесь», «тут», «на этом сайте» и т.д., ссылки по которым есть реальные переходы заинтересованных посетителей, ссылки тематические и размещенные в статьях со схожей тематикой на трастовых ресурсах.

Те же ссылки которые ставятся на ваш сайт со ссылкопомоек, переспамленных страниц и сайтов с активной продажной позицией =), ссылки размещенные где-то внизу страниц или даже в футере, по которым никто и никогда не кликнет, а если и кликнет то случайно и сразу же закроет страницу и т.д. все это только поспособствует лишь наложению определенных санкций от поисковых систем, а вовсе не килотоннам трафика. От таких ссылок, если они имеются, нужно как можно скорей избавляться.

Это так же могут быть ваши гостевые статьи на других сайтах с вашей обратной ссылкой.

Ну и конечно же их можно купить. Если надумаете покупать то рекомендую не мелочиться и заказывать сразу размещение вашей статьи с ссылками, эффект будет намного лучше.

Неплохой вариант для внешнего продвижения — воспользоваться услугами сеошников на бирже Кворк . Там за 500 рублей можно найти нормальные варианты ссылочных профилей и прогонов.

7. Юзабилити. Наши сайты перегружены массой ненужных элементов, непонятной рекламой, которая не работает и особо не приносит дохода, всякими слайдерами, на которые никто не обращает внимания, всевозможными украшалочками или ссылками по которым никто никогда не кликает, страницами и баннерами, которые никому не нужны, плагинами, без которых можно легко обойтись или их можно заменить одной строчкой кода и еще кучей всякого виртуального хлама. Все что не работает должно исчезнуть. Все сложное должно быть упрощено. Избавившись от лишнего кода и ненужных элементов вы ускорите загрузку сайта и уменьшите вероятность ошибок и проблем в этих местах.

Пользователь должен в пару кликов достигать основной цели — вашей цели, то ради чего вы привлекаете его на свой сайт. Если ему что-то мешает или отвлекает от этой цели значит это лишнее.

В этом плане очень хорошо помогает инструмент Вебвизор , аналитка форм, карта кликов в Яндекс. метрике. Проанализируйте поведение пользователей на вашем сайте, найдите слабые места и устраните их. Это поможет улучшить и конверсию и поведенческие факторы, что благоприятно скажется на позициях в выдаче.

Например, вам может казаться что картинка на пол экрана это красиво и очень нравится посетителям, или что вам обязательно нужен слайдер на главной странице, или что без этого видео в сайдбаре все заплюют ваш ресурс и скажут что он уже не тот что был раньше. Но реальную картину вы сможете получить только после экспериментов — замерьте в метрике поведенческие факторы, посмотрите время пребывание на странице, показатели отказов, количество внутренних переходов. Затем удалите и понаблюдайте как изменятся ПФ в течении недели. Если пф не поменялись или даже выросли то можете смело удалять элемент. Если они ухудшились то возвращаем как было и пробуем что-то другое.

И только после того, как избавитесь от всего лишнего и удалять уже будет нечего, можно подумать о том, что бы что-то добавить. Все по той же схеме — с проверкой эффективности в метрике.

Вы можете заметить, что это далеко не все способы улучшить позиции сайта в поисковой выдаче, вспомните про накрутку поведенческих факторов, про покупку трафика, про какие-нибудь прогоны по трастовым сайтам, про ответы на форумах, про сслылки в профилях, про каталоги статей, сателлиты и т.д. и т.п. Но все это частные случаи, либо уже почти не работает, либо строго карается как манипуляции с поведенческими факторами например. Я постарался перечислить лишь самые главные и до сих пор актуальные методы поискового продвижения.

ТОП (в переводе с английского «top» – «верхушка») – в Интернете чаще всего это первая страница поисковой выдачи. Сайты, находящиеся в ТОП, отличаются максимально высоким трафиком.

Цели

Попадание сайта в ТОП является смыслом любого продвижения. Для этого требуется максимум усилий, поскольку только на верхних позициях можно получить хорошую посещаемость ресурса и, как следствие, высокую – большое количество переходов посетителей из категории пользователей в категорию посетителей.

ТОП-10

Считается, что ниже десятой позиции, то есть, далее первой страницы поисковой выдачи реального трафика нет. На вторую и последующие страницы заходит не более 1% пользователей.

Выход сайта в первую десятку является целью любого продвижения. Однако ТОП-10 не дает никакой гарантии на то, что сайт будет оставаться в десятке лидеров, если оптимизатор не будет им заниматься. Чтобы сохранить позиции, нужно постоянно работать над контентом и , повышать и улучшать другие характеристики сайта.

Сайты, находящиеся в ТОП-10, должны полностью удовлетворять потребностям пользователей.

Случается, и так, что трафик сайта, достигшего вершины поисковой выдачи, нулевой. Это бывает при условии высокой конкуренции в соответствующем сегменте и неполной релевантности .

ТОП-3

Продвижение сайтов в ТОП-3 – одна из наиболее амбициозных целей любого оптимизатора. Согласно тепловой карте, именно на первых трех позициях поисковой выдачи сосредоточена большая часть трафика. На более низкие позиции пользователи переходят только в том случае, если не находят необходимую информацию на первых трех сайтах.



Статьи по теме