Страница со всеми публикациями сайта, разбитыми на категории

Как выделить категории, подкатегории и фильтры на сайте

23 октября 2016

Привет, друзья! Сегодня я научу вас как правильно проектировать структуру сайта и разбивать товары на категории, подкатегории, а что относить к фильтрам.

В предыдущей статье мы собирали и кластеризовали семантическое ядро, сегодня мы разберемся со структурой. Начнем с того, какие структуры сайтов бывают.

Виды структуры сайтов

  • Простая структура сайта. В такой структуре выделяют категории и подкатегории товаров.
  • С фильтрами. В этой структуре так же выделяют категории, подкатегории и добавляются фильтры. Про фильтры я расскажу позже.
  • С тегами. Теги – это упрощенные фильтры, то есть готовые страницы с набором свойств. В этой структуре сайта выделяют категории, подкатегории и теги.
  • Звезда. Такая структура присуща очень простым сайтам (сайтам — визиткам). У нее выделяют главную страницу и подстраницы, то есть ссылки идут с главной на эти подстраницы.
  • Смешанная. Это самая сложная в реализации, но очень гибкая структура. В ней могут быть категории, подкатегории, теги, фильтры и элементы звезды.

Я умышленно пока не рассказываю, как устроены фильтры и теги, все это мы узнаем позже.

Как выбрать структуру для своего сайта

В этой части статьи мы попробуем выбрать какая структура сайта подходит вашему сайту:

  • Если у вас мелкий интернет-магазин или мало товаров, и вы пока не лидер отрасли – вам подойдет простая структура сайта с категориями и подкатегориями товаров.
  • Если у вас крупный интернет, вы лидер и товаров у вас много – вам нужна смешанная структура, с фильтрами или тегами – в зависимости от количества категорий товаров, все это оценивалось в предыдущих статьях.
  • Если вам нужен сайт услуг, то вам подойдет смешанная упрощенная структура, то есть малое количество свойств для описания услуг или вообще можете обойтись заранее заготовленными наборами свойств – тегами.
  • Если у вас информационный сайт – вам подойдет простая структура, к примеру, как на WordPress.
  • Если у вас сайт-визитка – вам подойдет звезда, то есть главная страница и несколько второстепенных.

Что отнести к категориям и подкатегориям

Теперь перейдем к построению каталога на примере простой структуры.

В этом случае разделы на сайте будут категориями товаров, к примеру, видеорегистраторы или автозвук – это категории, они же разделы в админке сайта. Создаются и заполняются вручную, как иерархические (вложенные) папки, по отношению к корню каталога.

Подкатегории будут подразделами вашего каталога, то есть сначала идут категории, а затем подкатегории, в которых уже будет содержаться товар. Примером подкатегорий могут быть видеорегистраторы Pandora в категории видеорегистраторов или автомагнитолы в категории автозвука.

Такая простая структура проста в проектировании и создании, единственная сложность, которая может возникнуть – это разделение товаров по категориями и подкатегориям, но это решать только вам. Так же такой структурой просто управлять и изменять, к тому же сколько вам категорий нужно – столько вы сможете создать.

Но у этой структуры есть и недостатки. Она подходит только небольшим интернет-магазинам, когда немного товаров или категорий товаров. Самым существенным недостатком этой структуры является то, что товары придется каждый раз вручную заносить в несколько подкатегорий и категорий, если они соотносятся с ними – это время.

Что отнести к фильтрам

Наконец, мы перешли к фильтрам. Фильтры – это набор свойств товаров. И для правильно спроектированной структуры сайта требуется собрать все свойства в каждой категории товаров, в том числе для большего охвата сортировок товаров.

Главным преимуществом фильтров является их гибкость – вы сможете построить практически неограниченное количество посадочных страниц под любые запросы, главное только правильно запрограммировать работу фильтров, иначе ваш сайт не получит трафик, а улетит в бан.

С помощью фильтров, как говорилось выше, вы охватываете очень большое самантическое ядро сайта – вы сможете строить посадочные страницы под любые запросы. При этом вы получите море трафика при правильной реализации фильтров.

Другим преимуществом фильтров является их простота заполнения, то есть контент-менеджеру достаточно проставить нужные свойства товара и все. При этом не нужно создавать дополнительные подкатегории и наполнять их товаром. Вы избежите дублей и сэкономите время.

А теперь поговорим о недостатках.

Фильтры сложно программировать, вернее программировать грамотно, чтобы они соответствовали сеошным требованиям, имели свои мета-данные и не порождали бесконечные дубли страниц.

Для реализации интернет-магазина с фильтрами товаров нужна сложная админка, и контент-менеджеру нужно еще в ней поразбираться чтобы заполнять все свойства товаров и добавлять сами товары.

При этом у вас будет сложная структура сайта, к чему мы собственно и стремились.

При реализации очень большого количества фильров (если вы вдруг увлеклись) вам будет непросто добиться хорошей индексируемости сайта. Забегая вперед скажу, что поисковые системы неплохо кушают страницы с уровнем вложенности до 2, дальше уже возникают сложности – помните про это.

Так же, еще раз подчеркиваю, сложно добиться правильной работы фильтров – нужен толковый программист.

Последняя сложность состоит в том, что у каждой страницы-фильтра должны быть свои мете-теги и желательно текст для хорошей ее индексации и последующего продвижения.

Что отнести в тегам

С тегами все намного проще, чем с фильтрами – нужно только разобраться.

Тег – это свойство товара, то есть страница, на которой собраны товары с одним свойством или свойствами – то, что их объединяет.

Читайте также:
Эстетическая косметология: процедуры, методы, способы коррекции форм тела и лица

Замечу, что у товаров может совпадать одно свойство (один тег) или несколько свойств, но при этом страница будет иметь тоже один тег, то есть в этом случае набор свойств.

Основным преимуществом тегов является то, что они удобны для пользователя – он попадает на страницу, на которой уже собраны все товары с нужным ему набором свойств, при этом ему не требуется выбирать эти свойства и фильтровать товары. К примеру, видеорегистраторы с 2 камерами – тег, а не свойство, в этом случае пользователю нужно кликнуть всего на 1 ссылку и не искать это свойство.

Контент-менеджеру в случае с тегами будет легко заполнять товары – достаточно просто указать принадлежность товара к определенному свойству. Не нужно в этом случае создавать дополнительные подкатегории и категории. Так же теги при правильной реализации не плодят дубли страниц.

В целом, теги легче в реализации, чем фильтры. И программист в этом случае не сильно нагружен.

Но у тегов есть и недостатки. Главным недостатком тегов считаю их меньшую гибкость по сравнению в фильтрами.

Для пользователя много тегов в интерфейсе не всегда удобно – он попросту может запутаться и уйти.

Теги служат как бы простыми фильтрами, в них можно вынести самые популярные фильтры, и они попадут в логическую структуру сайта.

Какой тип структуры, когда применим

Теперь пришло время перейти к применению и реализации всех типов структур сайта.

Когда применять категории и подкатегории

С категориями и подкатегориями все очень просто – если у вас небольшой интернет-магазин, в нем не так много товаров, что их не соотнести с приемлемым числом подкатегорий. А так же если товары мало пересекаются по подкатегориям. И последний вариант – когда цены на товары редко меняются.

Главным преимуществом категорий и подкатегорий для продвижения сайта является их хорошая индексируемость. Статичные страницы, при этом они в структуре сайта – хорошо индексируются поисковыми машинами, что упрощает процесс продвижения.

Так же вариантом для выбора этой структуры сайта может быть ограниченный бюджет на разработку или экономия на программистах, или их полное отсутствие.

Когда применять теги

Теги на сайте стоит применять, когда у вас много товаров, при этом их свойства понятны и популярны среди посетителей, другими словами – ищут ваши товары по ограниченному набору свойств, в этом случае целесообразно эти свойства объединять в теги и не заморачиваться с фильтрами.

Примером может быть магазин подарков, тут тегами могут быть подарки по праздникам: 8 марта, 23 февраля, день рождения и т.д. По полу: подарки для мужчин, подарки для женщин. По событию: юбилей, торжество.

Для такого интернет-магазина и не придумать большего набора свойств, поэтому целесообразно сгруппировать все товары в уже готовые наборы свойств (теги) и представить их в логической (но не явной) структуре сайта.

Предметом для увеличения количества тегов служит внутренний поиск на сайте – из анализа можно понять, какие товары ищут пользователи и стоит такие товары объединять в такие же теги для удобства и простоты дальнейших поисков.

Такая структура сайта хороша для индексирования, потому что все страницы с тегами представлены в логической структуре сайта.

Когда применять фильтры

Я считаю, что идти нужно от просто к сложному и последним (самым сложным) шагом будет внедрение в вашем интернет-магазине фильтров.

Фильтры стоит применять, когда у вас:

  • Реально много товаров;
  • Много свойств у товаров, что простая структура и теги не справляются с ними;
  • Вы – большой интернет-магазин и продолжаете расти.

Фильтры – это очень гибкий инструмент для создания уникальной структуры на сайте.

А теперь недостатки фильтров. Как уже отмечалось ранее, фильтры очень сложны в реализации и требуют серьезного программирования, иначе, если подойти к вопросу халатно, сайт может превратиться в хаос.

Последняя сложность, она же первая, которая останавливает меня применять фильтры – это сложность индексирования. Фильтры нужно очень грамотно организовать и спроектировать на сайте, очень многое решают знания программиста, поэтому думайте, прежде чем захотеть внедрять фильтры на своем сайте – может быть вы сможете обойтись малыми затратами.

Теперь вы знаете, что такое категории, теги и фильтры и знаете, когда их уместно применять – действуйте!

Добавляем на сайт раздел «Вопросы и ответы»: несколько способов

Способ 1: страница «Сайта»

Самый простой способ — обычная страница, на которой перечислены вопросы и ответы на них. Как добавить на сайт страницу «Вопросы и ответы»:

  1. В приложении «Сайт» откройте раздел «Структура» и убедитесь, что в нем присутствует строка с правилом для приложения «Сайт». Если такой строки нет, добавьте правило для приложения «Сайт».
  2. Перейдите в раздел «Страницы» и создайте черновик новой страницы. В тексте страницы перечислите вопросы, которые вы хотите осветить, и ответы на них. Оформите страницу, как вам нужно.
  3. Опубликуйте черновик.

Готово! Если ссылка на страницу с вопросами и ответами не появилась в меню сайта, настройте или измените тему дизайна соответствующим образом.

Страницы можно создавать также с помощью других приложений, а не только с помощью «Сайта», например: «Блог», «Фото», Shop-Script, «Поддержка», «Хаб». Для публикации страницы с помощью этих приложений необходимо в 1-м шаге проверить наличие строки с правилом для нужного приложения, которое вы хотите использовать вместо «Сайта» для публикации страницы.

Способ 2: приложение «Хаб»

Более функциональный вариант создания раздела вопросов и ответов — это интерактивный раздел сайта, в котором посетители сайта могут задавать вопросы, а другие посетители (а также вы) могут отвечать на них. Вы сможете создать полноценный центр поддержки со статьями, вопросами, ответами, комментариями и возможностью оценивать статьи и комментарии друг друга. Все эти возможности предоставляет приложение «Хаб»:

  1. Установите приложение «Хаб» с помощью «Инсталлера».
  2. Убедитесь, что в разделе «Структура» приложения «Сайт» присутствует строка с правилом для «Хаба». Если такого правила нет, добавьте его.
  3. В бекенде «Хаба» создавайте новые темы-статьи с помощью кнопки Новая тема.
  4. В настройках хаба включите возможность добавления комментариев к статьям.
  5. В настройках хаба включите возможность добавления вопросов и обсуждений посетителями сайта, а также возможность оценивать ответы и комментарии друг друга.
Читайте также:
Ноги, колени, ступни: похудение, коррекция формы, избавление от жира

Способ 3: приложение «Поддержка»

Приложение «Поддержка» предоставляет возможность сохранить ответы на часто возникающие вопросы в виде статей, которые вы можете использовать в ответах на запросы клиентов. Эти же самые ответы на частые вопросы можно одновременно сделать доступными для всех посетителей сайта — в виде раздела со статьями, разбитыми на категории.

  1. Установите приложение «Поддержка» с помощью «Инсталлера».
  2. Убедитесь, что в разделе «Структура» приложения «Сайт» присутствует строка с правилом для «Поддержки». Если такого правила нет, добавьте его.
  3. В бекенде приложения в разделе «ЧАВО» создайте статьи с ответами на часто задаваемые вопросы. Если статей много, распределите их по категориям. В свойствах статей включите флажок доступности на сайте.

4 комментария

Есть необходимость добавить на сайт раздел Вопросы-Ответы для клиентов. Правильно ли я понимаю, что для этой задачи – когда вопросы-ответы видны всем пользователям и любой посетитель может задать свой вопрос, а также прочитать вопросы-ответы других людей – наиболее подходит вариант приложения “Хаб”?

и следующий вопрос: возможна ли реализация раздела Вопрос-Ответ без обязательной регистрации нового посетителя? или вопрос через приложение Хаб можно задать только после авторизации? (что снижает кол-во обращений)

Такую возможность приложение Хаб не предоставляет.

Учтите, что публикация вопросов без регистрации и авторизации упрощает возможность спам-ботам публиковать на такой странице мусорную информацию, что потребует от вас дополнительных усилий по модерации всех новых сообщений.

Кроме того, в случае необходимости продолжения переписки в рамках каждого вопроса-ответа непонятно, каким образом вы планируете идентифицировать пользователя, который будет публиковать ответы на ваши уточняющие вопросы — ведь без регистрации и авторизации это сможет делать совершенно посторонний человек.

Как реализовать раздел Вопрос-Ответ на каждой странице товара, чтобы была привязка именно к товару и вопросы и ответы могли читать посетители?

Поскольку вы можете отвечать на отзывы о товарах, то можно попробовать использовать эту функцию не по её прямому назначению.

Если вы хотите использовать и отзывы, и вопросы-ответы отдельно, то для публикации вопросов и ответов можно использовать подстраницы товаров. Разместите любую форму обратной связи на странице товара, чтобы посетители могли задавать вам вопрос через неё и чтобы вопросы приходили на ваш электронный адрес. Текст вопроса и вашего ответа в любой форме публикуйте на подстранице соответствующего товара в произвольной форме.

Как правильно оптимизировать страницы пагинации сайта

Поисковики «любят» уникальные страницы. Пагинации же воспринимаются как дубли. Таким образом для успешного SEO-продвижения они могут становиться препятствием. Рассмотрим, как избежать такую ситуацию и не получить штраф.

Что такое страницы пагинации и какова их функция?

Страницы пагинации – пронумерованные страницы в составе одного раздела, которые разграничивают для удобства восприятия большое количество данных на странице (комментарии на форумах, статьи, список товаров категории и др.).

Кроме, как удобство восприятия, пагинации позволяют сократить время загрузки первой страницы. Используются чаще всего в интернет-магазинах и сайтах с большим количеством товаров. Пользователю не нужно ждать, пока загрузится большой поток текста или тысячи товаров, если говорить про интернет-магазины. Это в свою очередь отражается на поведенческих факторах и на конверсии ресурса.

Образец реализации функционала постраничной навигации на нашем блоге:

И еще один хороший пример реализации страниц пагинации у интернет-магазина akcentr.ru:

Рекомендации поисковых систем

Не стоит запрещать поисковым роботам индексировать страницы пагинации, чтобы они могли видеть весь набор товаров/услуг на сайте. Вместе с этим пронумерованным страницам не нужно попадать в поиск, поскольку это дублирующийся контент и низкое качество в глазах поисковых систем. Давайте разбираться, как же совместить эти два варианта?

И здесь имеются свои нюансы, связанные с разными требованиями у поисковиков Яндекса и Google. Поэтому рассмотрим каждого по отдельности.

Рекомендации Яндекса

Яндекс рекомендует прописывать атрибут rel=”canonical” тега
на страницах пагинации и отмечать в роли главного адреса самую первую страницу из всего списка. При таком варианте оптимизации только первая страница каталога будет принимать участие в поиске.

Стоит отметить, что при применении такого метода не возникнет сложностей с индексированием данных на страницах пагинации. Это связано с тем, что атрибут rel=”canonical” не закрывает для поисковых систем (и Google в том числе) переходы по страницам нумерации. Поэтому робот сможет пройти по всем товарам сайта, но в индексе будет находиться лишь одна первая страница.

Читайте также:
Ногти: уход, улучшение состояния здоровья, внешнего вида ногтевой пластины

Рекомендации Google

До 21 марта 2019 г. для оптимизирования страниц пагинации Google в своих ответах предлагал следующие три способа:

Бездействовать. Поисковик сам выберет самую подходящую под запрос пользователя страницу.

Сформировать страницу «Показать все». В данном случае делается специальная страница на сайте, на ней отображаются все товары категории и прописывается атрибут rel=”canonical” со всех страниц пагинации (в том числе и с первой) на страницу со всеми товарами.

Применить атрибуты rel=”next” и rel=”prev”. Таким способом Google поймет, что содержание страниц связано в закономерной очередности и переадресует пользователя на начальную страницу.

Однако в марте 2019 г. в официальном Twitter-аккаунте Google Webmasters появилась новость, что директивы ”next” и ”prev” больше не поддерживаются Google, т.е. не актуальны. Были проведены исследования, которые показали, что пользователи предпочитают считывать информацию без разбиения ее на ряд страниц.

Казалось бы, рабочими рекомендациями остаются первых две, но страница с ними исчезла из справки Google. Может это временно, но на момент написания статьи открыть ее не удалось:

Поэтому, возвращаясь снова к твиту Google Webmasters, можно подытожить, что наиболее приоритетным для Google является вывод информации на одной странице. К тому же это комфортнее пользователям.

Что говорят SEO-шники?

1. Каждую из имеющихся страницу пагинации необходимо затачивать под определенные запросы. Например, первую страницу под запрос “приобрести мониторы”, вторую под “приобрести мониторы в Москве”, а третью под “приобрести мониторы со скидкой» и т.д. Составить уникальные тексты для нескольких страниц не сложно, а если их более 10 процесс получается трудозатратным и занимает много времени.

2. Необходимо закрывать страницы пагинации в файле robots.txt или прописывать мета-тег meta name=”robots” content=”noindex,follow”, что тоже не совсем верно. Вот что отвечает на это Платон Щукин:

Рассмотрев рекомендации Яндекса, Google и SEO-специалистов по поводу оптимизации страниц пагинации, выделим следующие варианты, которыми можно воспользоваться на сайте. И разберем на примерах.

Правильная оптимизация страниц пагинации

Как правило, с вопросом оптимизации пагинации сталкиваются интернет-магазины, поэтому рассмотрим на их примере.

Прописать rel=”canonical” со всех страниц пагинации на самую первую

Например, есть страница каталога сайта http://site.ru/catalog/ и она разбита на другие несколько страниц типа:

Чтобы исключить нумерованные страницы из выдачи, достаточно на каждой из них в header прописать тег

В этом случае нужно сделать акцент на паре важных моментов:

Чтобы на сайте не было страницы http://site.ru/catalog/page1/, поскольку она будет являться дублем по отношению к http://site.ru/catalog/. Иначе необходимо прописать редирект на первую страницу каталога. Чтобы это избежать, нужно склеить первую страницу пагинации и главную страницу с помощью 301-го редиректа, т.е. прописать редирект с http://site.ru/catalog/page1/ на http://site.ru/catalog/.

Если на странице каталога размещен текст, то он не должен повторяться на всех страницах пагинации, поскольку из-за этого возникают проблемы с релевантностью. Текст размещаем только на главной странице раздела.

Прописать rel=”canonical” на страницу со всеми товарами

Тут всё просто. Создаем страницу, на которой будут выводиться все товары каталога (это может быть и страница фильтра). Прописываем на страницах пагинации (включая первую) атрибут rel=canonical и готово!

Например, на странице http://site.ru/catalog/page3/ нужно прописать строчку link rel=”canonical” href=”http://site.ru/catalog/product-all/; />.

Это даст понять поисковикам, что есть страница со всеми товарами и как раз ее нужно индексировать, вместо страниц пагинации.

Но тут есть и свои нюансы:

Страница со всеми товарами должна быстро загружаться, чтобы посетитель не покинул ее. Если в каталоге сотни или тысячи товаров, то нужно хорошо подумать сперва, сможете ли вы оптимизировать скорость загрузки этой страницы до приемлемой.

Тексты нужно размещать только на странице со всеми товарами, а не на страницах пагинации.

AJAX пагинация

Сейчас можно встретить на страницах топовых сайтов еще и AJAX (Asynchronous Javascript and XML) пагинацию, т.е. когда вы прокручиваете страницу вниз, и новый контент подгружается автоматически или при нажатии на кнопку «Показать еще».

Пример такого функционала можно увидеть на сайте lestehno.ru (без кнопки, только прокрутка). Этот вариант оптимизации страниц пагинации позволяет поисковому роботу видеть одну единственную страницу со всеми товарами, исключая возможность появления дублей. Содержимое страницы полностью индексируется и она быстро загружается.

Имеются и минусы этой технологии:

Понадобится опытный программист для реализации такого рода функционала.

Текст придется размещать вверху, перед товарами.

Пример с кнопкой отлично продемонстрирован на сайте ideal-flooring.ru.

Чтобы использовать такой способ оптимизации страниц, нужно одновременно использовать как постраничную навигацию (ее можно не выводить для пользователей), так и загрузку товаров с использованием кнопки «Загрузить еще».

При нажатии на кнопку страница не будет обновляться, а в URL будет отображаться номер страницы, на которую перешел посетитель.

Минус такого метода оптимизации пагинации в том, что поисковики могут не увидеть полный ассортимент товаров, а это важно.

Страницы сортировки

Если на сайте имеются страницы пагинации сортировки и количества товаров, то нужно постранично прописать на них атрибут rel=canonical с указанием страницы пагинации раздела без сортировки.

Имеются страницы сортировки по цене и пагинация для этой страницы:

Используем метатег
и получаем:

По такому же принципу оптимизируются все варианты сортировок и вывода количества товара на сайте.

Выводы

Если на вашем ресурсе большое количество страниц (товаров, статей, постов), то без оптимизации пагинации вам не обойтись. Иначе информация будет долго грузиться, количество отказов увеличится, конверсия уменьшится и позиции ресурса в поисковой выдаче ухудшатся.

Читайте также:
Волосы: укрепление волос, уход, рецепты для роста волос, от выпадения

Чтобы поисковые системы «любили» ваш сайт и индексировали его правильно, мы предлагаем использовать один из двух методов:

Прописать атрибут rel=”canonical” на всех страницах пагинации на самую первую страницу раздела (или фильтра);

Создать страницу с выводом на ней всех товаров и прописать на страницах пагинации атрибут rel=”canonical” с указанием этой самой страницы.

Не стоит забывать и про оптимизацию страниц пагинации сортировок на страницах разделов в каталоге.

Какие страницы следует закрывать от индексации

Индексирование сайта – это процесс, с помощью которого поисковые системы, подобные Google и Yandex, анализируют страницы веб-ресурса и вносят их в свою базу данных. Индексация выполняется специальным ботом, который заносит всю необходимую информацию о сайте в систему – веб-страницы, картинки, видеофайлы, текстовый контент и прочее. Корректное индексирование сайта помогает потенциальным клиентам легко найти нужный сайт в поисковой выдаче, поэтому важно знать обо всех тонкостях данного процесса.

В сегодняшней статье я рассмотрю, как правильно настроить индексацию, какие страницы нужно открывать для роботов, а какие нет.

Почему важно ограничивать индексацию страниц

Заинтересованность в индексации есть не только у собственника веб-ресурса, но и у поисковой системы – ей необходимо предоставить релевантную и, главное, ценную информацию для пользователя. Чтобы удовлетворить обе стороны, требуется проиндексировать только те страницы, которые будут интересны и целевой аудитории, и поисковику.

Прежде чем переходить к списку ненужных страниц для индексации, давайте рассмотрим причины, из-за которых стоит запрещать их выдачу. Вот некоторые из них:

  1. Уникальность контента – важно, чтобы вся информация, передаваемая поисковой системе, была неповторима. При соблюдении данного критерия выдача может заметно вырасти. В противном случае поисковик будет сначала искать первоисточник – только он сможет получить доверие.
  2. Краулинговый бюджет – лимит, выделяемый сайту на сканирование. Другими словами, это количество страниц, которое выделяется каждому ресурсу для индексации. Такое число обычно определяется для каждого сайта индивидуально. Для лучшей выдачи рекомендуется избавиться от ненужных страниц.

В краулинговый бюджет входят: взломанные страницы, файлы CSS и JS, дубли, цепочки редиректов, страницы со спамом и прочее.

Что нужно скрывать от поисковиков

В первую очередь стоит ограничить индексирование всего сайта, который еще находится на стадии разработки. Именно так можно уберечь базу данных поисковых систем от некорректной информации. Если ваш веб-ресурс давно функционирует, но вы не знаете, какой контент стоит исключить из поисковой выдачи, то рекомендуем ознакомиться с нижеуказанными инструкциями.

PDF и прочие документы

Часто на сайтах выкладываются различные документы, относящиеся к контенту определенной страницы (такие файлы могут содержать и важную информацию, например, политику конфиденциальности).

Рекомендуется отслеживать поисковую выдачу: если заголовки PDF-файлов отображаются выше в рейтинге, чем страницы со схожим запросом, то их лучше скрыть, чтобы открыть доступ к наиболее релевантной информации. Отключить индексацию PDF и других документов вы можете в файле robots.txt.

Разрабатываемые страницы

Стоит всегда избегать индексации разрабатываемых страниц, чтобы рейтинг сайта не снизился. Используйте только те страницы, которые оптимизированы и наполнены уникальным контентом. Настроить их отображение можно в файле robots.txt.

Копии сайта

Если вам потребовалось создать копию веб-ресурса, то в этом случае также необходимо все правильно настроить. В первую очередь укажите корректное зеркало с помощью 301 редиректа. Это позволит оставить прежний рейтинг у исходного сайта: поисковая система будет понимать, где оригинал, а где копия. Если же вы решитесь использовать копию как оригинал, то делать это не рекомендуется, так как возраст сайта будет обнулен, а вместе с ним и вся репутация.

Веб-страницы для печати

Иногда контент сайта требует уникальных функций, которые могут быть полезны для клиентов. Одной из таких является «Печать», позволяющая распечатать необходимые страницы на принтере. Создание такой версии страницы выполняется через дублирование, поэтому поисковые роботы могут с легкостью установить копию как приоритетную. Чтобы правильно оптимизировать такой контент, необходимо отключить индексацию веб-страниц для печати. Сделать это можно с использованием AJAX, метатегом либо в файле robots.txt.

Формы и прочие элементы сайта

Большинство сайтов сейчас невозможно представить без таких элементов, как личный кабинет, корзина пользователя, форма обратной связи или регистрации. Несомненно, это важная часть структуры веб-ресурса, но в то же время она совсем бесполезна для поисковых запросов. Подобные типы страниц необходимо скрывать от любых поисковиков.

Страницы служебного пользования

Формы авторизации в панель управления и другие страницы, используемые администратором сайта, не несут никакой важной информации для обычного пользователя. Поэтому все служебные страницы следует исключить из индексации.

Личные данные пользователя

Вся персональная информация должна быть надежно защищена – позаботиться о ее исключении из поисковой выдачи нужно незамедлительно. Это относится к данным о платежах, контактам и прочей информации, идентифицирующей конкретного пользователя.

Страницы с результатами поиска по сайту

Как и в случае со страницами, содержащими личные данные пользователей, индексация такого контента не нужна: веб-страницы результатов полезны для клиента, но не для поисковых систем, так как содержат неуникальное содержание.

Сортировочные страницы

Контент на таких веб-страницах обычно дублируется, хоть и частично. Однако индексация таких страниц посчитается поисковыми системами как дублирование. Чтобы снизить риск возникновения таких проблем, рекомендуется отказаться от подобного контента в поисковой выдаче.

Читайте также:
Бланширование в косметологии: фото до и после, что это такое, техника введения, отзывы, цена

Пагинация на сайте

Пагинация – без нее сложно представить существование любого крупного веб-сайта. Чтобы понять ее назначение, приведу небольшой пример: до появления типичных книг использовались свитки, на которых прописывался текст. Прочитать его можно было путем развертывания (что не очень удобно). На таком длинном холсте сложно найти нужную информацию, нежели в обычной книге. Без использования пагинации отыскать подходящий раздел или товар также проблематично.

Пагинация позволяет разделить большой массив данных на отдельные страницы для удобства использования. Отключать индексирование для такого типа контента нежелательно, требуется только настроить атрибуты rel=”canonical”, rel=”prev” и rel=”next”. Для Google нужно указать, какие параметры разбивают страницы – сделать это можно в Google Search Console в разделе «Параметры URL».

Помимо всего вышесказанного, рекомендуется закрывать такие типы страниц, как лендинги для контекстной рекламы, страницы с результатами поиска по сайту и поиск по сайту в целом, страницы с UTM-метками.

Какие страницы нужно индексировать

Ограничение страниц для поисковых систем зачастую становится проблемой – владельцы сайтов начинают с этим затягивать или случайно перекрывают важный контент. Чтобы избежать таких ошибок, рекомендуем ознакомиться с нижеуказанным списком страниц, которые нужно оставлять во время настройки индексации сайта.

  1. В некоторых случаях могут появляться страницы-дубликаты. Часто это связано со случайным созданием дублирующих категорий, привязкой товаров к нескольким категориям и их доступность по различным ссылкам. Для такого контента не нужно сразу же бежать и отключать индексацию: сначала проанализируйте каждую страницу и посмотрите, какой объем трафика был получен. И только после этого настройте 301 редиректы с непопулярных страниц на популярные, затем удалите те, которые совсем не эффективны.
  2. Страницы смарт-фильтра – благодаря им можно увеличить трафик за счет низкочастотных запросов. Важно, чтобы были правильно настроены мета-теги, 404 ошибки для пустых веб-страниц и карта сайта.

Соблюдение индексации таких страниц может значительно улучшить поисковую выдачу, если ранее оптимизация не проводилась.

Как закрыть страницы от индексации

Мы детально рассмотрели список всех страниц, которые следует закрывать от поисковых роботов, но о том, как это сделать, прошлись лишь вскользь – давайте это исправлять. Выполнить это можно несколькими способами: с помощью файла robots.txt, добавления специальных метатегов, кода, сервисов для вебмастеров, а также с использованием дополнительных плагинов. Рассмотрим каждый метод более детально.

Способ 1: Файл robots.txt

Данный текстовый документ – это файл, который первым делом посещают поисковики. Он предоставляет им информацию о том, какие страницы и файлы на сайте можно обрабатывать, а какие нет. Его основная функция – сократить количество запросов к сайту и снизить на него нагрузку. Он должен удовлетворять следующим критериям:

  • наименование прописано в нижнем регистре;
  • формат указан как .txt;
  • размер не должен превышать 500 Кб;
  • местоположение – корень сайта;
  • находится по адресу URL/robots.txt, при запросе сервер отправляет в ответ код 200.

Прежде чем переходить к редактированию файла, рекомендую обратить внимание на ограничивающие факторы.

  • Директивы robots.txt поддерживаются не всеми поисковыми системами. Большинство поисковых роботов следуют тому, что написано в данном файле, но не всегда придерживаются правил. Чтобы полностью скрыть информацию от поисковиков, рекомендуется воспользоваться другими способами.
  • Синтаксис может интерпретироваться по-разному в зависимости от поисковой системы. Потребуется узнать о синтаксисе в правилах конкретного поисковика.
  • Запрещенные страницы в файле могут быть проиндексированы при наличии ссылок из прочих источников. По большей части это относится к Google – несмотря на блокировку указанных страниц, он все равно может найти их на других сайтах и добавить в выдачу. Отсюда вытекает то, что запреты в robots.txt не исключают появление URL и другой информации, например, ссылок. Решить это можно защитой файлов на сервере при помощи пароля либо директивы noindex в метатеге.

Файл robots.txt включает в себя такие параметры, как:

  • User-agent – создает указание конкретному роботу.
  • Disallow – дает рекомендацию, какую именно информацию не стоит сканировать.
  • Allow – аналогичен предыдущему параметру, но в обратную сторону.
  • Sitemap – позволяет указать расположение карты сайта sitemap.xml. Поисковый робот может узнать о наличии карты и начать ее индексировать.
  • Clean-param – позволяет убрать из индекса страницы с динамическими параметрами. Подобные страницы могут отдавать одинаковое содержимое, имея различные URL-страницы.
  • Crawl-delay – снижает нагрузку на сервер в том случае, если посещаемость поисковых ботов слишком велика. Обычно используется на сайтах с большим количеством страниц.

Теперь давайте рассмотрим, как можно отключить индексацию определенных страниц или всего сайта. Все пути в примерах – условные.

Пропишите, чтобы исключить индексацию сайта для всех роботов:

11 фишек для извлечения и сохранения данных с сайтов

БЕЗ скриптов, макросов, регулярных выражений и командной строки.

Эта статья пригодится студентам, которые хотят скачать все картинки с сайта разом, чтобы потом одним движением вставить их в Power Point и сразу получить готовую презентацию. Владельцам электронных библиотек, которые собирают новые книги по ресурсам конкурентов. Просто людям, которые хотят сохранить интересный сайт/страницу в соцсети, опасаясь, что те могут скоро исчезнуть, а также менеджерам, собирающим базы контактов для рассылок.

Есть три основные цели извлечения/сохранения данных с сайта на свой компьютер:

  • Чтобы не пропали;
  • Чтобы использовать чужие картинки, видео, музыку, книги в своих проектах (от школьной презентации до полноценного веб-сайта);
  • Чтобы искать на сайте информацию средствами Spotlight, когда Google не справляется (к примеру поиск изображений по exif-данным или музыки по исполнителю).
Читайте также:
Шея, уши, затылок: укрепление мышц, удаление жира, подтяжка кожи, похудение, коррекция

Ситуации, когда неожиданно понадобится автоматизированно сохранить какую-ту информацию с сайта, могут случиться с каждым и надо быть к ним готовым. Если вы умеете писать скрипты для работы с утилитами wget/curl, то можете смело закрывать эту статью. А если нет, то сейчас вы узнаете о самых простых приемах сохранения/извлечения данных с сайтов.

1. Скачиваем сайт целиком для просмотра оффлайн

В OS X это можно сделать с помощью приложения HTTrack Website Copier, которая настраивается схожим образом.

Пользоваться Site Sucker очень просто. Открываем программу, выбираем пункт меню File -> New, указываем URL сайта, нажимаем кнопку Download и дожидаемся окончания скачивания.

Чтобы посмотреть сайт надо нажать на кнопку Folder, найти в ней файл index.html (главную страницу) и открыть его в браузере. SiteSucker скачивает только те данные, которые доступны по протоколу HTTP. Если вас интересуют исходники сайта (к примеру, PHP-скрипты), то для этого вам нужно в открытую попросить у его разработчика FTP-доступ.

2. Прикидываем сколько на сайте страниц


Перед тем как браться за скачивание сайта, необходимо приблизительно оценить его размер (не затянется ли процесс на долгие часы). Это можно сделать с помощью Google. Открываем поисковик и набираем команду site: адрес искомого сайта. После этого нам будет известно количество проиндексированных страниц. Эта цифра не соответствуют точному количеству страниц сайта, но она указывает на его порядок (сотни? тысячи? сотни тысяч?).

3. Устанавливаем ограничения на скачивание страниц сайта


Если вы обнаружили, что на сайте тысячи страниц, то можно ограничить число уровней глубины скачивания. К примеру, скачивать только те страницы, на которые есть ссылка с главной (уровень 2). Также можно ограничить размер загружаемых файлов, на случай, если владелец хранит на своем ресурсе tiff-файлы по 200 Мб и дистрибутивы Linux (и такое случается).

Сделать это можно в Settings -> Limits.

4. Скачиваем с сайта файлы определенного типа

В Settings -> File Types -> Filters можно указать какие типы файлов разрешено скачивать, либо какие типы файлов запрещено скачивать (Allow Specified Filetypes/Disallow Specifies Filetypes). Таким образом можно извлечь все картинки с сайта (либо наоборот игнорировать их, чтобы места на диске не занимали), а также видео, аудио, архивы и десятки других типов файлов (они доступны в блоке Custom Types) от документов MS Word до скриптов на Perl.

5. Скачиваем только определенные папки


Если на сайте есть книги, чертежи, карты и прочие уникальные и полезные материалы, то они, как правило, лежат в отдельном каталоге (его можно отследить через адресную строку браузера) и можно настроить SiteSucker так, чтобы скачивать только его. Это делается в Settings -> Paths -> Paths to Include. А если вы хотите наоборот, запретить скачивание каких-то папок, то их адреса надо указать в блоке Paths to Exclude

6. Решаем вопрос с кодировкой


Если вы обнаружили, что скачанные страницы вместо текста содержат кракозябры, там можно попробовать решить эту проблему, поменяв кодировку в Settings -> Advanced -> General. Если неполадки возникли с русским сайтом, то скорее всего нужно указать кодировку Cyrillic Windows. Если это не сработает, то попробуйте найти искомую кодировку с помощью декодера Лебедева (в него надо вставлять текст с отображающихся криво веб-страниц).

7. Делаем снимок веб-страницы


Сделать снимок экрана умеет каждый. А знаете ли как сделать снимок веб-страницы целиком? Один из способов — зайти на web-capture.net и ввести там ссылку на нужный сайт. Не торопитесь, для сложных страниц время создания снимка может занимать несколько десятков секунд. Еще это можно провернуть в Google Chrome, а также в других браузерах с помощью дополнения iMacros.

Это может пригодиться для сравнения разных версий дизайна сайта, запечатления на память длинных эпичных перепалок в комментариях или в качестве альтернативы способу сохранения сайтов, описанного в предыдущих шести пунктах.

8. Сохраняем картинки только с определенной страницы


Идем на owdig.com, указываем нужную ссылку, ждем когда отобразятся все картинки и кликаем на оранжевую полоску справа, чтобы скачать их в архиве.

9. Извлекаем HEX-коды цветов с веб-сайта

Идем на colorcombos.com и набираем адрес искомой страницы и получаем полный список цветов, которые использованы на ней.

10. Извлекаем из текста адреса электронной почты


Предположим, что вам надо сделать рассылку по сотрудникам компании, а их email-адреса есть только на странице корпоративного сайта и копировать их оттуда в ручную займет лишние 20-30 минут. В такой ситуации на помощь приходит сервис emailx.discoveryvip.com. Просто вставьте туда текст и через секунду вы получите список всех адресов электронной почты, которые в нем найдены.

11. Извлекаем из текста номера телефонов


Идем на convertcsv.com/phone-extractor.htm, копируем в форму текст/html-код, содержащий номера телефонов и нажимаем на кнопку Extract.

А если надо отфильтровать в тексте заголовки, даты и прочую информацию, то к вам на помощь придут регулярные выражения и Sublime Text.

Как найти все страницы сайта и не потратить на это вечность

Уследить за всеми страницами сайта сложно, особенно если сайт большой. Но иногда без полного списка страниц не обойтись. Например, если вы хотите создать xml карту сайта, удалить лишние страницы или настроить внутреннюю перелинковку.

Читайте также:
Пудровые брови: заживление по дням, техника напыления, фото после коррекции

С полным списком страниц вы сможете очистить сайт от мусора, исправить технические ошибки на страницах и улучшить ранжирование. Возникает логичный вопрос: как собрать такой список максимально быстро и просто.

Легче всего выгрузить все страницы из одного инструмента, но тогда ваш список может оказаться неполным. Чтобы собрать абсолютно все страницы, в том числе закрытые от поисковых роботов и страницы с техническими ошибками, придется потрудиться.

Почему для сбора данных одного инструмента мало

Собирать данные мы будем из трех инструментов:

  1. Из модуля «Анализ сайта» в SE Ranking выгрузим все страницы, открытые для поисковых роботов;
  2. В Google Analytics найдем все страницы, у которых есть просмотры;
  3. Из Google Search Console достанем оставшиеся закрытые от поисковых роботов страницы, у которых нет просмотров.

Сравнив все данные мы получим полный список страниц вашего сайта.

Проиндексированные URL-ы мы найдем еще на первом этапе. Но нам нужны не только они. У многих сайтов найдутся страницы, на которые не ведет ни одна внутренняя ссылка. Их называют страницами-сиротами.

Почему страницы оказываются «в изоляции»? Причины могут быть разные, к примеру:

  • посадочные страницы создавались под конкретную кампанию;
  • тестовые страницы создавались для сплит-тестирования;
  • страницы убрали из системы внутренней перелинковки, но не удалили;
  • страницы потерялись во время переноса сайта;
  • была удалена страница категории товаров, а страницы товаров остались.

Такие страницы отрезаны от остального сайта, а значит поисковой робот не может их просканировать. Также кроулер не увидит страницы, закрытые от него через файл .htaccess. Ну, и наконец, часть страниц не индексируется из-за технических проблем.

С помощью разных инструментов мы найдем абсолютно все страницы. Но давайте по порядку. Для начала выгрузим список всех проиндексированных и корректно работающих страниц.

Ищем открытые для краулеров страницы в SE Ranking

Экспортировать страницы, открытые пользователям и краулерам, будем с помощью инструмента « Анализ сайта » SE Ranking.

Чтобы поисковый робот просканировал все необходимые страницы, выберем нужные параметры в настройках.

Заходим в НастройкиИсточник страниц для анализа сайта и разрешаем системе сканировать Страницы сайта, Поддомены сайта и XML карту сайта. Так инструмент отследит все страницы сайта, включая поддомены.

Дальше переходим в раздел Правила сканирования страниц и разрешаем учитывать директивы robots.txt.

Осталось нажать кнопку Сохранить.

Затем переходим во вкладку Обзор и запускаем анализ — нажимаем кнопку Перезапустить аудит.

Когда анализ завершится, на главном дашборде нажимаем на зеленую линию в разделе Индексация страниц.

Вы увидите полный список страниц, открытых для поисковых роботов. Теперь можно выгрузить данные — нажимаем на кнопку Экспорт.

На следующем этапе мы будем сравнивать большие массивы данных. Если вам удобно это делать в Excel — оставляйте все как есть. Если вы предпочитаете Google таблицы, скопируйте оставшиеся строки и вставьте их в новую таблицу.

Через Google Analytics ищем все страницы с просмотрами

Поисковые роботы находят страницы переходя по внутренним ссылкам сайта. Поэтому если на страницу не ведет ни одна ссылка на сайте, кроулер ее не найдет.

Обнаружить их можно с помощью данных из Google Analytics — система хранит инфу о посещениях всех страниц. Одно плохо — GA не знает о тех просмотрах, которые были до того, как вы подключили аналитику к вашему сайту.

Просмотров у таких страниц будет немного, потому что с сайта на них перейти не получится. Находим их следующим образом.

Заходим в ПоведениеКонтент сайтаВсе страницы. Если ваш сайт не молодой, стоит указать данные за какой период вы хотите получить. Это важно, так как Google Analytics применяет выборку данных — то есть анализирует не всю информацию, а только ее часть.

Дальше, кликаем на колонку Просмотры страниц, чтобы отсортировать список от меньшего к большему значению . В результате, вверху окажутся самые редко просматриваемые страницы — среди них-то и будут страницы-сироты.

Двигайтесь вниз по списку, пока не увидите страницы, у которых просмотров существенно больше. Это уже страницы с настроенной перелинковкой.

Собранные данные экспортируем в .csv файл.

Выделяем страницы-сироты

Наш следующий шаг — сравнить данные из SE Ranking и Google Analytics, чтобы понять, к каким страницам у поисковых роботов нет доступа.

Копируем данные из .csv файла, выгруженного из Google Analytics, и вставляем их в таблицу рядом с данными из SE Ranking.

Из Google Analytics мы выгрузили только окончания URL, а нам нужно, чтобы все данные были в одном формате. Поэтому в колонку B вставляем адрес главной страницы сайта как показано на скриншоте.

Далее, с помощью функции сцепить (concatenate) объединяем значения из колонок B и C в колонке D и протягиваем формулу вниз до конца списка.

А теперь самое интересное: будем сравнивать колонку «SE Ranking» и колонку «GA URLs», чтобы найти страницы-сироты.

На практике страниц будет намного больше, чем на скриншоте, поэтому анализировать их вручную пришлось бы бесконечно долго. К счастью, существует функция поискпоз (match), которая позволяет определить, какие значения из колонки «GA URLs» есть в колонке «SE Ranking». Вводим функцию в колонке E и протягиваем ее вниз до конца списка.

Читайте также:
Фитнес, упражнения, тренировки, гимнастика, уход за телом, накачка мышц, спорт

Результат должен выглядеть так:

В колонке E увидим, каких страниц из GA нет в колонке SE Ranking, там таблица выдаст ошибку (#N/A). В примере видно, что в ячейке E9 нет значения, потому что ячейка A11 — пустая.

Ваш список будет намного больше. Чтобы собрать все ошибки, отсортируйте данные в колонке E по алфавиту:

Теперь у вас есть полный список страниц, не связанных ссылками с сайтом. Перед тем, как двигаться дальше, изучите каждую одинокую страницу. Ваша цель — понять, что это за страница, какова ее роль, и почему на нее не ведет ни одна ссылка.

Дальше есть три варианта развития событий:

  • Поставить на страницу внутреннюю ссылку. Для этого нужно определить ее место в структуре вашего сайта.
  • Удалить страницу, настроив с нее 301 редирект, если это лишняя страница.
  • Оставить все как есть, но присвоить странице тег , если, например, страница создавалась под рекламную кампанию.

Поработав с изолированными страницами, можно еще раз выгрузить и сравнить списки из SE Ranking и GA. Так вы убедитесь, что ничего не упустили.

Ищем оставшиеся страницы через Google Search Console

Как найти страницы, не связанные ссылками с сайтом, разобрались. Приступим к остальным страницам, о которых знает Google, — будем анализировать данные Google Search Console.

Для начала откройте свой аккаунт и зайдите в раздел Покрытие. Убедитесь, что выбран режим отображения данных «Все обработанные страницы» и откройте вкладку «Страницы без ошибок».

Таким образом в список попадут Проиндексированные страницы, которых нет в карте сайта, а также Отправленные и проиндексированные страницы.

Кликните на список, чтобы развернуть его. Внимательно изучите данные: возможно в списке есть страницы, которые вы не видели в выгрузках из SE Ranking и GA. В таком случае убедитесь, что они должным образом выполняют свою роль в рамках вашего сайта.

Теперь перейдем во вкладку Исключено, чтобы отобразились только непроиндексированные страницы.

Чаще всего страницы из этой вкладки были намеренно заблокированы владельцами сайта — это страницы с переадресациями, закрытые тегом «noindex», заблокированные в файле robots.txt, и так далее. Также в этой вкладке можно выявить технические ошибки, которые нужно исправить.

Если обнаружите страницы, которые вам не встречались на предыдущих этапах, добавьте их в общий список. Таким образом, вы наконец получите список всех без исключения страниц вашего сайта.

В заключение

Если у вас есть доступ к необходимым инструментам, собрать все страницы сайта не сложно. Да, сделать все в два клика не получится, но в процессе сбора данных вы найдете страницы, о существовании которых могли и не догадываться.

Страницы, которые не видят ни поисковые роботы, ни пользователи, не приносят сайту никакой пользы. Так же как и страницы, которые не индексируются из-за технических ошибок. Если таких страниц на сайте много, это может негативно сказаться на результатах SEO.

Хотя бы один раз собрать все страницы сайта нужно обязательно, чтобы адекватно его оценивать и знать, откуда ждать проблем 🙂

Контент сайта: требования и направления работ

Эффективность сайта практически полностью зависит от его содержания, ведь посетитель приходит на веб-ресурс именно за полезной информацией, а не за дизайном. Качественный, интересный и уникальный контент сайта – уже половина успеха интернет-площадки. Рассмотрим основные виды контента, требования к ним, а также направления работ с контентом и стоимость данных услуг.

Что такое контент сайта и как он влияет на конверсию и продажи

Контент сайта – это любая информация, размещенная на нем. Чаще всего под контентом понимают текстовое наполнение, реже – видео- и аудиоматериалы. Без качественного и регулярно обновляемого контента практически невозможно повысить эффективность онлайн-бизнеса и вывести сайт в топ поисковых рейтингов.

Любая информация, которую сайт предлагает пользователю, должна быть полезной. Практика показывает, что откровенно рекламные статьи не пользуются большим доверием у читателей. А вот достоверный и актуальный контент экспертного типа, рассказывающий обо всех плюсах, минусах и особенностях товара, услуги или компании, наоборот, заставляет людей задержаться на сайте и, в конце концов, нажать кнопку «Купить».

На уровень продаж влияют и такие факторы, как легкость восприятия и понятность контента, использование визуальных элементов (иллюстраций, видеоматериалов), качественная внутренняя структура ссылок и размер текстов – при прочих равных условиях, более объемный контент «продает» лучше.

Важно также не усложнять потенциальному клиенту процесс покупки – все «кнопки» должны быть под рукой. И если во время просмотра контента посетитель захочет совершить покупку, подписаться на рассылку или скачать ваше приложение, он должен иметь возможность сделать это немедленно, не блуждая по сайту в поисках формы заказа.

Стоит также сказать, что сейчас алгоритмы поисковых систем выводят в топ выдачи лишь сайты с наиболее качественным контентом. Для того чтобы выявить их, разработаны специальные поведенческие факторы ранжирования – сценарии поведения посетителей на сайте, позволяющие поисковикам определить, насколько страница востребована пользователями.

Виды контента

Наполнение сайта контентом – крайне важная задача. Как уже было сказано, качественный контент сайта – это не только тексты, но и иллюстрации, видео и аудио, а также ссылочный материал, заголовки и метотеги.

Читайте также:
Пластическая хирургия: операции, методы, процедуры для коррекции форм тела
Текстовое наполнение

Среди видов текстового контента можно выделить несколько основных:

  • Копирайт. Текст, созданный профессиональным журналистом или копирайтером «с нуля». Это уникальный контент, наиболее предпочтительный для поисковых систем и, конечно же, пользователей. Авторский материал повышает лояльность посетителей сайта к продукту, услуге и самой компании, а значит, положительно влияет на конверсию и продажи.
  • Рерайт. Это переработанный вариант готового текста (не всегда, но часто для этого используется контент других сайтов). Чаще всего рерайтинг заключается в замене слов из оригинальной текстовой статьи синонимами, что не идет на пользу ни стилю, ни восприятию, ни месту сайта в поисковой выдаче. Впрочем, высококачественный рерайтинг, компилирующий несколько источников, может приближаться по качеству к копирайту.
  • Перевод оригинального текста статьи/материала с одного языка на другой. Поскольку при переводе, также как и при написании, создается авторский текст, с точки зрения поисковых машин это уникальный контент.
  • Копипаст. Прямое копирование статей из других источников без внесения в текст каких-либо изменений – самый простой способ наполнения сайта контентом и он же – самый худший. Во-первых, сайт рискует подвергнуться санкциям поисковиков. Во-вторых, это противоречит законодательству об авторском праве, согласно которому подобное использование ресурсов является грубым нарушением и влечет за собой серьезную ответственность. В-третьих, такой контент отрицательно сказывается на репутации компании.
Аудиоматериалы и подкасты

К аудиоконтенту относятся любые звуковые ролики – музыка, записи интервью, подкасты, лекции, вебинары. Самый ценный аудиоконтент – тот, который клиент не сможет услышать больше нигде. Аудиоматериалы могут использоваться в качестве обучающих материалов, для повышения уровня доверия к компании и информированности о продукте. На продающих сайтах это могут быть аудиоинструкции, на имиджевых – различные презентации, лекции авторитетных специалистов и др.

Видеоматериалы

Видеоконтент – это различные клипы, видеомануалы, скринкасты, обучающие видео, фильмы, видеопрезентации, виртуальные туры и многое другое. Их можно снимать самостоятельно, брать из бесплатных источников, покупать или даже привлекать к созданию такого контента самих пользователей – например, устраивая конкурсы видеороликов. Как показало исследование компании Eyeview, размещение качественных видеоматериалов может повысить конверсию сайта на 86%.

Изображения

Любой текстовый материал в идеале должен быть проиллюстрирован – это облегчает восприятие текста и увеличивает шансы на то, что он будет дочитан до конца. К изображениям относятся не только картинки, но и анимация, фотографии, схемы, скриншоты, слайды. Особенно эффективна инфографика – она в среднем повышает трафик на 12%. Стоит вспомнить и оборот «картинка для привлечения внимания», который часто используют в Facebook. Текст с иллюстрациями получает почти на 100% больше внимания, чем текст без картинок.

Заголовки

Заголовок сайта играет заметную роль в его продвижении – он должен быть оригинальным, ясно описывающим его содержимое, развернутым и информативным.

Стоит сказать, что многие пользователи вообще не читают текст на странице сайта, а всего лишь пробегают взглядом по заголовкам, выискивая нужную информацию. И если они будут невнятными и бесцветными, страницу будут быстро закрыты.

Различают несколько видов заголовка – title, h1, h2, h3, h4, h5, h6. Title – это основной заголовок страницы. Тэг title можно увидеть, наведя курсор на адресную строку. По нему поисковые системы определяют, чему посвящена страница. Он должен быть емким и напрямую описывать содержание страницы. На практике многие допускают ошибку, выбирая title со слишком широким смыслом (например, title «Услуги») или же вообще никак не связанный с содержанием страницы (типичный плохой title – «Главная»).

Тег h1 предназначен для читателей, он также описывает содержание страницы. Следует избегать перегруженности заголовка ключевыми словами, иначе, во-первых, сами пользователи моментально потеряют доверие к сайту, а во-вторых, поисковые системы могут воспринять их как спам.

Теги h2-h6 – это подзаголовки, структурирующие текст и разбивающие его на смысловые блоки. Они выполняют роль определенного скелета статьи и позволяют читателю за несколько секунд оценить материал на предмет интересующей информации.

Требования к контенту сайта

Уровень эффективности сайта определяется его содержимым, но как создать контент, который привлечет пользователей и поможет вывести сайт в топ? Существуют определенные требования, соблюдение которых поможет раскрутить сайт, сделать его более популярным, а также повысить продажи.

1. Уникальность текстов

Как уже было сказано выше, текстовый контент должен быть уникальным. Существует несколько бесплатных онлайн-сервисов, с помощью которых можно проверить сайт на уникальность – например, content-watch.ru, findcopy.ru, text.ru и множество других. Нужно помнить, что уникальность сама по себе еще не гарантирует качество. Продажи повышают высококачественные, интересные авторские тексты, которые легко читаются и содержат полезную информацию.

2. Информативность (смысловая нагрузка)

В Интернете очень много поверхностных бессодержательных статей, из которых читатель не может почерпнуть никакой полезной информации. Не стоить продолжать распространять такие материалы – они не пойдут на пользу читателям, и как следствие – сайту. Контент (и речь идет не только о текстовом наполнении) обязательно должен быть полезным, информативным и профессионально подготовленным.

3. Грамотность

Низкий уровень грамотности – еще одна беда многих сайтов. Тяжелый, сложный для восприятия язык, обилие стилистических и орфографических ошибок сильно подрывают доверие к ресурсу. Напротив – сайты, над которыми потрудились профессиональные копирайтеры, редакторы и корректоры, намного более востребованы пользователями.

4. Подача и оформление контента

Массивный текстовый блок без разбивки на главы, без иллюстраций и вспомогательных материалов читается тяжело. Это же касается и беспорядочно размещенного аудио- и видеоконтента. Продуманная верстка очень важна – она помогает акцентировать внимание читателя на основных элементах сайта, выделить наиболее важные его части, чем облегчает восприятие веб-ресурса в целом и повышает лояльность клиента.

Читайте также:
Интимная зона: уход, коррекция, улучшение внешнего вида, здоровья
5. Соответствие требованиям поисковых систем

Известная аналитическая компания SearchMetrics обнародовала детали своего исследования факторов ранжирования поисковой системой Google «Ranking Factors 2014». В частности, было выявлено, что поисковые машины сегодня отошли от определения релевантности контента путем простого подсчета числа ключевых слов на странице. Вместо этого они анализируют контент-блоки – абзацы, разделы, статьи и главы – вычисляя семантические связи между словами. Поэтому преимущество получает материал, глубоко раскрывающий заявленную тему. Такой контент сайта занимает высокие позиции в поисковой выдаче сразу по нескольким запросам.

Говоря о контенте сайта, нельзя не упомянуть и о ключевых словах – именно по ним поисковые машины найдут вашу страницу. Текст должен быть в меру насыщен «ключевиками» из семантического ядра сайта (совокупности поисковых запросов, по которым осуществляется оптимизация для привлечения целевой аудитории). Чтобы текст «понравился» поисковику, он должен быть разбит на блоки (главы, абзацы, списки), содержать минимум лирических отступлений и неинформативных фрагментов. Провести seo-анализ текста можно, в частности, на сайте advego.ru.

Направления работы с контентом сайта

Управление контентом сайта требует серьезного и комплексного подхода. Контент сайта не создается раз и навсегда – он требует анализа, обновления и контроля.

Наполнение сайта контентом

Мы уже много раз подчеркнули влияние грамотного контента на конверсии и лояльность пользователей. Чем интереснее контент, чем больше он соответствует потребностям посетителей, тем больше времени они проведут на сайте. Обновлять контент необходимо регулярно. «Заброшенные» сайты постепенно теряют свои позиции и у посетителей, и у поисковых машин. Особенно это касается раздела новостей: когда посетитель заходит на сайт и видит, что самые последние новости датированы прошлым годом, он начинает думать, что и вся остальная информация, скорее всего, неактуальна. И даже если это не отражает действительность, первое впечатление сыграет в данном случае более серьезную роль. Очень важно также следить за поддержкой в актуальном состоянии таких разделов сайта, как контакты компании, ее история и портфолио, информация о специальных предложениях и ценах на услуги.

Анализ контента сайта

Аудит контента нужен для проверки его соответствия задачам и целям сайта. Эта услуга необходима всем, но особенно тем компаниям, чьи сайты создавались непрофессионалами. Во время анализа контента сайта специалисты могут обнаружить и исправить ошибки, устранить ненужные повторы и восполнить нехватку информации. Контент сайта анализируется и SEO-специалистами, которые проверяют соответствие текстов алгоритмам поисковиков и, при необходимости, проводят оптимизацию. Основные инструменты для анализа сайта – это сервисы Google Webmasters Tools и Яндекс Вебмастер.

Оптимизация контента

Оптимизация контента сайта – это приведение текстового и другого наполнения ресурса в соответствие с требованиями поисковых машин. Это подразумевает и введение в тексты ключевых слов, по которым пользователи найдут сайт, и расчет текстовой релевантности, и применение инструментов разметки страницы. Иногда требуется рерайт существующих текстов, а иногда проще и надежнее переписать их заново.

Стоимость услуг контент-менеджмента

Стоимость оказания услуг по контент-менеджменту зависит от объема, сроков и трудоемкости поставленных задач и согласовывается с каждым заказчиком индивидуально. В среднем цена комплексного наполнения сайта контентом начинается от 20 000 рублей в месяц, хотя эта цифра может варьироваться в зависимости от объема, вида работ и сроков. В среднем подготовка профессиональным журналистом одной статьи объемом в один лист формата А4 обойдется в 4000-7000 рублей.

Где можно заказать услуги по наполнению, анализу и управлению контентом сайта?

Некоторые компании предпочитают создавать контент самостоятельно, и обычно это приводит к тому, что сайт попросту «не работает». Другие, понимая прямую зависимость между наполнением сайта и привлечением с его помощью новых клиентов, обращаются к профессионалам.

Найти авторов и SEO-экспертов можно среди многочисленных фрилансеров, дающих объявления в Интернете, и на специальных биржах копирайтеров. Услуги таких «вольных стрелков» обходятся относительно недорого, но в данном случае никто не сможет гарантировать профессионализм, качество и соблюдение сроков. Порой компании приходится месяцами искать действительно надежных специалистов.

Гораздо проще и экономнее заказать контент-менеджмент сайта в агентстве. Как правило, в таких фирмах работают профессионалы с опытом, а процесс взаимодействия заказчиков и исполнителей отработан до мелочей.

Мы рекомендуем вам обратить внимание на компанию BeneQuire, предлагающую свои услуги в сфере интернет-маркетинга уже 5 лет и специализирующуюся на создании и обслуживании сайтов, проведении масштабных рекламных кампаний. BeneQuire практикует комплексный подход, который включает регулярное обновление контента, и предлагает создание высококачественных текстов любой сложности и на любую тематику. Каждый текст, подготовленный профессиональным журналистом, подвергается литературному редактированию и проходит корректорскую проверку, а также анализируется на соответствие алгоритмам поисковых сервисов.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: