Опасность заспамить тег Title

В одной из давних статей, я указывал, насколько важен тег title для продвижения страницы. Вес ключевых слов в этом теге имеет большой вес. Потихоньку, за несколько последних лет сложилась тенденция к тому, что очень многие стали использовать его не только для того, чтобы вставить основные ключевые слова, но и для подхватывания всех запросов с основными коммерческими плюс словами.

Речь идет, прежде всего, о словах «купить, заказать, цена, стоимость, интернет магазин, москва» и некоторых других. В погоне за трафиком, который можно привлечь, нашпиговывая этими словами теги заголовков страницы title, вебмастера начали пататься использовать их чуть ли не все в каждом тайтле на страницах сайтов.

И вот, то, что мы так долго ждали, наконец, произошло. Яндекс начал применять санкции против спама в этом теге. Поскольку раньше заспамленный тайтл никакого вреда кроме пользы не приносил, то я тоже несколько перебарщивал с употреблением этих слов. Еще бы! Посетители, в запросе которых есть слова купить, заказать и интернет магазин, в 3-4 раза лучше конвертируются в заказы.

Однако, Яндекс начал бороться с этим явлением и теперь рекомендация «создаем читабельный тег заголовка страницы» выглядит несколько по иному.

Итак. Что конкретно нужно иметь в виду, чтобы не заспамить title?

  • Избегайте неестественных конструкций фразы в теге title

Например, тайтл «купить недорого синхрофазатрон в москве, цена – Интернет магазин ххх.ru» прямо кричит своей неестественностью. Сейчас, по моим наблюдениям, если у вас всего 1 такая страница из 10 в индексе, то ничего не будет, но если подобные вещи на каждой рубрике и подрубрике товаров, ждите санкций.

Примеры у меня есть. За последние 3 месяца я успешно загнал 2 сайта клиентов под пессимизацию, благодаря переоптимизации тегов Title. Последствия очень неприятные. Падение трафика более, чем в 2 раза, и многие позиции улетают за пределы видимости.

Сейчас занимаюсь тем, что убираю слова, которые могут быть явно неестественными.

  • Избегайте одновременного использования разных плюс слов с одним значением. Например, не надо пихать в один заголовок слова «цена» и «стоимость», или «купить» и «заказать»

Да, я вовсе не призываю совсем отказаться от использования этих слов. Их использование вполне хорошо работает и дает свои плоды. Ваша задача лишь понять, что вы пытаетесь нащупать грань между спамом и эффективным заголовком.

Т.е. заголовок из моего примера без слова «цена» будет уже не таким спамным. Даже несмотря на то, что слово «купить» вообще редко может естественным образом вписаться в заголовок.

Эти же рекомендации относятся к оформлению текста.

Обязательно давайте понять копирайтерам, что точное попадание ключа «спам в теге тайтл как правильно написать», это вовсе не точное написание этой фразы, а просто набор этих слов в ЛЮБОЙ словорме и даже в порядке слов. Кроме того, союзы и предлоги вставлять в ключ можно И нужно!

Т.е. фраза «как написать правильно тег тайтл без спама» – это будет ТОЧНОЕ вхождение ключа. Но при этом конструкция будет с точки зрения русского языка, нормальной.

Ну и напоследок. Проверяйте тщательно тексты за копирайтерами. Правьте, добавляйте свои фразы и конструкции. Заключение и вступление иногда для ключей можно написать буквально в 2 предложениях, и это даст куда больший эффект, чем все вхождения по ТЗ, которые в тексте разместил копирайтер.

Когда-то у меня был живой пример. Была статья из серии «как грамотно составить резюме». Его написал копирайтер под кучу ключей и дополнений в которых фигурировали «образец резюме, пример резюме, резюме на английском и т.п.». Эта странчка давала трафика около 50 человек в сутки. После моей обработки тайтла и добавления всего 2 абзацев, трафик с нее подрос до 1400 человек в сутки. Это очень наглядный пример того, что эффективность текста все же зависит не только от ТЗ и копирайтера, но и от последних штрихов оптимизатора.

Так что сейчас реалии таковы, что спам в Title карается, и притом очень жестко. Будьте осторожнее. Как всегда, старая добрая рекомендация о естественности, актуальна.

Как посчитать конверсию сайта?

Про важность определения конверсии я уже неоднократно писал в статьях ранее. И сегодня я хотел бы рассказать об одном из очень неплохих инструментов измерения конверсии сайта, который смогут позволить себе даже интернет магазины с небольшими бюджетами.

Задача любого бизнеса – получать прибыль от его ведения. Поэтому, чтобы рассчитать его рентабельность, необходимо знать, сколько получается прибыли с рекламы. По хорошему, знать это надо для каждого канала рекламы.

Например, у вас есть сайт интернет магазина. И так сложились звезды, что для покупки вашего товара люди гораздо чаще звонят, чем оставляют онлайн заявку. Вы тратитесь на SEO, на администрирование сайта, на контекстную рекламу в Яндекс Директ, в Гугл Адвордс, используете тизерные сети и баннеры.

Кроме того, у вас 3 разных направления продаж, у каждого из которых есть свой чек и своя маржа.

Ранее, когда я общался с владельцами интернет магазинов с низким и средним бюджетом на рекламу (до 100 т.р. в месяц), я мог все рассказать о необходимости установить скрипт замены номера и замере стоимости звонка. Однако, далее этих рассказов дело редко доходило. Ведь внедрение такого кода – это весьма нехилый геморрой: написать скрипт, купить IP номер (еще договор заключать с этой компанией), оплачивать все эти услуги, разбираться с панелью управления номеров.

А уж про рентабельность я вообще молчу для малобюджетного проекта. Представьте себе интернет магазин, владелец которого при бюджете 40 т.р. решил посчитать рентабельность сайта от трафика с рекламных кампаний в Директе и Адвордс. Его ждет покупка 2 IP номеров (минимум 1100 р/месяц), внедрение кода на сайт (если своему программеру ставить задачу, то это еще около 5000 р единоразово) и еще за консультацию SEO специалисту. А ведь если делать это для трех разных групп товаров, то количество номеров увеличивается до 6.

40 т.р. может и выглядит нормальной суммой, но только не для продвижения. Ведь в бюджет будет входить стоимость работ SEO специалиста, стоимость ссылок, копирайтинга и то, что идет в Директ и Адвордс. Если вычесть стандартные 16-20 т.р. за работы SEO специалиста и 7-10 т.р. за копирайт, то бюджет на контекстную рекламу вообще смехотворный. Если речь идет еще о товарах в принципе с низкой конверсией, то посчитать ничего не получится. Вы данные будет собирать только 3 года с таким бюджетом.

К счастью, сейчас появился более дешевый и куда более простой способ измерить конверсию звонков с сайта – это улучшенный сервис Яндекс Метрики, целевой звонок.

Стоимость услуги всего 330 рублей в месяц. В ее рамках вам предоставляется номер в коде 495 или 499 (по вашему выбору), и при этом никаких скриптов внедрять толком не надо, все сделает сам скрипт счетчика метрики. Все, что нужно, это в коде шаблона сайта охватить все телефонные номера тегом div или span с идентификатором, который вы указали в настройках.

Мало того, что тут все просто внедряется и дешево. Вы можете измерять конверсию по любому каналу с помощью простой настройки скрипта подмены номера. На скриншоте показаны сервисы, для которых вы можете просто указать, что этот новый номер, надо подставлять при переходе из этой конкретной системы.

Настройка идентификатора div или span тоже очень простая. В настройках вы даете имя класса, а в шаблоне просто внедряете этот код. То, что на примере, значит, что если у вас есть номер 495-111-11-11 надо заменить на 495-<span class=’ya-phone’>111-11-11</span>

Тогда для всех посетителей из поиска или прямых заходов будет показываться обычный номер, а для тех, кто перешел из выбранных систем рекламы, покажется телефон, который вы арендуете у Яндекса.

Имхо, шикарное решение для измерения конверсии звонков с сайта для определения эффективности различных каналов. Сам пользуюсь и очень рекомендую.

Как снизить нагрузку на сервер?

И меня постигла необходимость уменьшать нагрузку на сервер. Один из моих сайтов интернет магазинов довольно тяжелый. И несмотря на включенное кеширование, шустрый хостинг, он очень сильно грузил сервак. Когда я переехал с выделенного сервера на обычный хостинг с увеличенной мощностью, необходимость уменьшения нагрузки стала особенно остро, т.к. при разрешенных 150cp у меня один только один этот сайт давал нагрузку до 250ср. Это никуда не годилось. Чистка емких скриптов, например динамическая обработка фото, не была очень эффективной и мне пришлось копать далее.

После изучения логов доступа, я обнаружил, что у меня в сутки страницы вызываются до 10К раз, это при том, что посещаемость довольно низкая и всего количество просмотров не превышает 1200. Остальное – это боты, которые с радостью скачивают все 20К страниц товаров этого сайта. При этом они не стесняются запускать одновременно много потоков и делают сотни и тысящи запросов к сайту в сутки. Именно они явились для меня проблемой, которую надо было решить.

Порывшись в интернете, я нашел способ, чтобы отрубить ненужных ботов, и ограничить деятельность нужных.

Итак, п.1. Снижаем нагрузку на сервер с помощью блокировки деятельности ненужных ботов.

Для этого вставляем в файл .htaccess следующую запись:

<Files 403.shtml>

order allow,deny

allow from all

</Files>

# Далее список юзерагентов которым мы запрещаем доступ

SetEnvIfNoCase User-Agent MJ12bot bad_bot

SetEnvIfNoCase User-Agent JS-Kit bad_bot

SetEnvIfNoCase User-Agent PostRank bad_bot

SetEnvIfNoCase User-Agent Python-urllib bad_bot

SetEnvIfNoCase User-Agent UnwindFetchor bad_bot

SetEnvIfNoCase User-Agent facebookexternalhit bad_bot

SetEnvIfNoCase User-Agent TweetmemeBot bad_bot

SetEnvIfNoCase User-Agent Butterfly bad_bot

SetEnvIfNoCase User-Agent MFE_expand bad_bot

SetEnvIfNoCase User-Agent Java bad_bot

SetEnvIfNoCase User-Agent Summify bad_bot

SetEnvIfNoCase User-Agent MetaURI bad_bot

SetEnvIfNoCase User-Agent FlipboardProxy bad_bot

SetEnvIfNoCase User-Agent ScribdReader bad_bot

SetEnvIfNoCase User-Agent RockMelt bad_bot

SetEnvIfNoCase User-Agent InAGist bad_bot

SetEnvIfNoCase User-Agent NING bad_bot

SetEnvIfNoCase User-Agent TweetedTimes bad_bot

SetEnvIfNoCase User-Agent PaperLiBot bad_bot

SetEnvIfNoCase User-Agent Library bad_bot

SetEnvIfNoCase User-Agent Ezooms bad_bot

SetEnvIfNoCase User-Agent strawberryj bad_bot

SetEnvIfNoCase User-Agent Scooper bad_bot

SetEnvIfNoCase User-Agent Ahrefs bad_bot

SetEnvIfNoCase User-Agent Spider bad_bot

SetEnvIfNoCase User-Agent None bad_bot

SetEnvIfNoCase User-Agent EventMachine bad_bot

SetEnvIfNoCase User-Agent aiHitBot bad_bot

SetEnvIfNoCase User-Agent SolomonoBot bad_bot

SetEnvIfNoCase User-Agent SearchBot bad_bot

SetEnvIfNoCase User-Agent Wget bad_bot

SetEnvIfNoCase User-Agent Crawler bad_bot

Order Allow,Deny

Allow from all

Deny from env=bad_bot

Т.е. сначала мы даем список ботов, которым хотим запретить заходить на сайт, помечая им параметр bad_bot, а далее запрещаем отдавать им содержимое страницы, если они появятся.

Список можно пополнять. В моем случае особые проблемы вызывал MJ12bot, который по 1-3К запросов делал в сутки.

п.2. Уменьшение нагрузки за счет установки тайминга

Устранение ненужных ботов – это лишь часть проблемы. К вам в любом случае будут наведываться и те боты, которых вы с нетерпением ждете, например боты Яндекса, Гугла и Майла, т.к. в рунете именно они дают львиную долю трафика.

Загружая по многу страниц, эти боты вполне себе тоже могут положить сайт и весь сервер вместе с ними.

Чтобы они не клали сервер, им можно задать интервал минимального времени задержки, которое должно проходить до следующего запроса.

Это можно сделать в файле robots.txt. Добавьте туда следующие записи:

User-agent: Yandex

Crawl-delay:5

Эта запись означает, что ботам Яндекса запрещено делать обращения к сайту чаще, чем 1 раз в 5 секунд.

Точно такую же запись следует сделать для ботов других поисковых систем.

Делаем, и радуемся снижению нагрузки и росту средней скорости работы сайта.

Важность высокой скорости загрузки страницы для пользователя на продвижение

Я и несколько лет назад замечал, что в зависимости от хостинга и скорости ответа страницы пользователю, есть довольно заметное влияние на то, насколько успешно двигается проект.

Понятное дело, чем медленнее пользователь получает ответ на свои действия, тем меньше у него мотива оставаться на этой странице. Тем более, что у конкурентов в ТОП, страницы, как правило, «летают».

Сейчас это актуально как никогда. Причем если раньше поисковики обращали внимание только на общее время формирования пользователю страницы, то сейчас они смотрят куда глубже: какое время реакции сервера, есть ли сжатие данных или нет при передаче, какой размер графики, ее размер, как работают js скрипты, сжаты ли они, замедляют ли они загрузку страницы и т.п.

Т.е. если раньше все оптимизация сводилась тупо к тому, чтобы размер страницы не был более такой-то величины, то сейчас параметров, которые неплохо бы держать в форме, куда больше.

Эволюция поисковиков в этой области была неизбежной, т.к. есть большая разница между долго загружающейся страницей из-за большого количества картинок и аналогично долго загружающейся пользователю страницы из-за неоптимизированных скриптов и долгого ответа сервера. Если страница просто грузится долго из-за тяжелых скриптов и медленно работающего сервера, то ваши конкуренты, которые грузятся быстрее, могут легко вас обойти. Даже при наличии более долгого формирования страницы для пользователя из-за графики.

Давайте разберем основные моменты подробнее.

  1. Графика

Это чисто для пользователя. Картинки надо сохранять в качественном графическом редакторе специально для web. Упаси вас бог вставлять изображения, сделанные фотоаппаратом в 15Мпикс и потом формировать маленькую картинку параметрами ширина и высота (как это обычно бывает в панели управления сайта).

Разница есть даже если вы просто уменьшаете размер картинки тем же самым Paint. По сравнению с ним, с помощью фотошопа можно добиться еще в 2-3 раза меньшего размера при сохранении качества.

  1. Сжатие данных на сервере

После того, как сервер получил запрос на какую-то страницу, он формирует пакет данных и пересылает эти данные вам. Скорость получения этих данных зависит от канала передачи, и канала приема. Сейчас уже дай лап ушел в прошлое, но до сих пор полно пользователей, которые сидят кучами на 512 мбитах общего пропускания. Что и говорить, интернет у них медленный.

Так вот. Сервер может отправлять данные, как есть, а может их предварительно заархивировать. Архивация незначительно увеличивает нагрузку на сервер, но сокращает время передачи данных для слабых каналов в разы. Подробнее можете прочитать об этом. Вбейте в яндексе «nginx gzip-сжатие». Хорошие хостинги обычно сжимают данные по умолчанию. Как всегда, я порекомендую timeweb )) Проверить есть у вас сжатие или нет можно с помощью любого онлайн сервиса анализа скорости страницы. Параметр content-encoding.

http://pr-cy.ru/speed_test — проверка скорости загрузки страницы для пользователя

  1. Используйте советы от Гугл для оптимизации страницы

Для разработчиков, Гугл предоставляет чудесный сервис, который позволяет не только оценить, но и получить конкретные советы, что именно нужно сделать с сайтом, чтобы уменьшить время загрузки и сделать сайт удобочитабельным для мобильных и настольных устройств.

https://developers.google.com/speed/pagespeed/insights/

а) Если у вас длительное время ответа сервера – он сообщит. Это знак, что надо оптимизировать работу CMS, менять ее или менять хостинг на более шустрый

б) Если у вас есть блокирующие загрузку страницы скрипты, система покажет какие и предложит вам либо переместить их вниз страницы, либо же использовать асинхронный код.

в) Система предложит вам варианты, как сжать JS скрипты и текст страницы

Ну и избавьтесь от ненужных скриптов. Часто бывает, что ставят что-то новое, тестируют, оно не приживается, видимую часть убирают, а куски подгружаемого скрипта остаются болтаться на странице. Такие скрипты сильно замедляют загрузку.

Также нет никакого смысла держать по 3-5 счетчиков на странице. Выберите себе один – Метрику или GA и хватит. Остальные лишь тормозят сайт и увеличивают вес страницы. Больше данных вы все равно от кучи счетчиков не получите, а на посещаемость они будут влиять скорее негативно.

И обязательно блокируйте деятельность ботов у себя на сайте. Они часто создают огромную нагрузку на сервер.

Итак, резюмируя статью в двух словах, скажу, что сейчас бороться за ускорение загрузки страницы важно, как никогда ранее. Посмотрите по конкурентным запросам. В ТОП вы не найдете медленные сайты. Т.е. выбор cms, хостинга и прямых рук своего программиста сейчас стал еще более важен. Учитывайте это при проектировании своего будущего сайта.

Что более доходно: РСЯ или Adsense?

Как-то исторически сложилось, что я никогда не экспериментировал с рекламой на своих сайтах. Когда-то давно я рассматривал Adsense как возможный источник дохода, но получать чеки оказалось большим геморроем с большими временными задержками и грабительскими комиссиями обналички у банков. В итоге я повесил почти на всех своих сайтах блоки РСЯ даже без особых экспериментов и успокоился на этом.

Как я уже писал ранее, последний месяц я только и занимаюсь, что экспериментирую с различными блоками, формами, местами и принадлежностью рекламных сетей. Практически везде Адсенс дает куда более интересные цифры по прибыльности. Другие проекты палить не буду, а про конкретно этот сайт, на котором вы сейчас находитесь, расскажу. У него в день 400-500 посетителей. Последние 2 года у меня висел один блок РСЯ вверху и один внизу статьи. Иногда я убирал блок сверху. В общем, когда стояло 2 блока, то я получал в среднем 40 рублей в день с него. Абсолютный рекорд дохода в день было 123р. Пара раз за все время было что-то близко к этому. А в остальные дни от 7 до 80р. Т.е. около 1200рублей в среднем в месяц. Очень не густо, учитывая тематику и трафик.

После моих экспериментов с блоками Адсенс в праздничные дни я увидел небольшую разницу. Праздничные дни 30-70р с Адсеса в день, и при этом доход с одного верхнего блока РСЯ был в районе 5-40р. Я уже думал, что разница есть, но не критичная, как вдруг в рабочие дни мая все резко поменялось. Цена клика выросла в разы и в первый рабочий день 5 мая я заработал с сайта 128 р только с Адсенс. Учитывая, что еще с блока РСЯ накапало 12 рублей, то это уже было новым рекордом. Следующий день мне принес 221 рубля и 37р с РСЯ, что составило в сумме 258 рублей и в 2 раза превышало мой давнишний рекорд, который за долгие месяцы. Тут же за 2 рабочих дня, оба раза доход только с Адсенс превысил мой предыдущий рекорд.

Так что теперь кусаю локти. Судя по всему 150 р\день – это нормальная доходность с этого сайта, а не 40, как было раньше. Получается, что за 3 года я потерял 3*365*(150-40)=120 450р. Да это полноценный отдых зимой на 2 недели на экваторе ))

А если посмотреть на то, что у меня по другим сайтам, то эту сумму можно умножать в 3 раза. Три хороших отпуска я провафлил своим нежеланием экспериментировать ранее.

Чет получилось, что я просто разгромил Яндекс в пользу Гугла )). В защиту РСЯ могу сказать, что есть тематики, в которых все же цена клика выше и кликабельность объявлений лучше, как бы я не игрался Гугловскими блоками.

Вывод из этого простой.

Пробуйте, а не предполагайте. Разные рекламные сети, разные формы блоков, даже шрифты и адаптацию к дизайну. Тогда вы сможете выжать из сайтов максимум.

Даже если ваш сайт зарабатывает копейки в одной системе, это вовсе не означает, что он будет приносить копейки в другой.

В случае моего сайта разница 1200 р или 4500 может не так существенна, т.к. основной доход от этого сайта идет не с рекламы, а привлеченных клиентов на продвижение или консультации.  Но сам факт, что эти дополнительные 3200 рублей могли капать в каждый месяц без моего участия, требует, чтобы возможность использовалась.

Обновление страниц в современном алгоритме

Яндекс, для ранжирования своих записей, в настоящее время использует несколько сотен параметров сайта для определения его качества, авторитета, удобства и релевантности конкретному запросу пользователя. Причем какие-то параметры очень важны, какие-то важны, какие-то вносят более или менее заметный вклад в продвижении, а коими и вовсе можно пренебречь.

При таком количестве параметров очень хорошо работает принцип Парето, который применительно к факторам в SEO может звучать, как «20% параметров отвечают за 80% веса» в рамках какого-то запроса и общего уровня доверия в целом.

Среди параметров, которые все еще входят в 20% я бы однозначно выделил скорость загрузки, нахождение пользователя искомой информации чаще, чем у других сайтов по какому-либо запросу, текст и заголовки тоже никуда не денутся (хотя надо признать, сейчас их сила несколько ослабла) и частота обновления сайта.

Вот об этом последнем, я и хотел сегодня немного высказаться. Я занимаюсь продвижением уже 7 лет и если раньше этот фактор при продвижении вроде как был и я обычно рекомендовал своим клиентам обновлять контент, добавлять статьи, новости, обзоры и т.п., чтобы получить какое-то небольшое преимущество.

Сейчас ситуация в корне изменилась. Я уже давно по своим и клиентским проектам замечал, что если сойти с какого-то режима наполнения сайта и перестать добавлять новые посты и статьи, проект медленно, но верно, начинает терять позиции.

В последний месяц я много времени провел за анализом статистики сайтов на бирже продажи сайтов. Там было много проектов, которые продавались на этапе роста, а также таких, которые планомерно за последние месяцы теряли свою посещаемость и позиции в поиске.

Сопоставить время начала падения с датой, когда прекратили добавлять контент было несложно, почти везде безошибочно это являлось причиной.

Т.е. по параметру «обновление контента» вес очень сильно изменен в большую сторону. И сейчас, рекомендация добавлять на сайт новые статьи, обзоры, рекомендации и т.п. уже будет звучать не так » чтобы получить какое-то небольшое преимущество», а как необходимое условие, чтобы удержаться на плаву.

Увеличив вес этого параметра, Яндекс добился того, что топ занимают только живые сайты. Я пока не знаю, как при этом частота обновления контента завязана с уником или неуником, но факт о котором я поведал, вне всякого сомнения.

Рискну предположить, однако, что этот параметр по разному работает для блогов, новостных сайтов и для корпоративных коммерческих сайтов. По крайней мере, это было бы логично. Но даже в случае с корпоративными сайтами если есть возможность, что регулярно добавлять на сайт – обязательно добавляйте.

Считаем экономическую целесообразность статей

Поскольку я сейчас довольно много времени уделяю тому, чтобы научиться зарабатывать с сайтов с неккомерческой тематикой за счет продажи трафика с помощью тизерных сетей и систем контекстной рекламы, то мне необходимо понимать, насколько эффективно я могу распоряжаться деньгами на копирайт, чтобы получить в конечном итоге прибыль, а не просто слить деньги на статьи.

Дело в том, что при том количестве сайтов, что я веду сам, писать контент на каждый из них я не могу чисто физически – мне просто не хватит времени, даже несмотря на то, что я печатаю со скоростью, которая вполне подойдет для профессиональной секретарши ))

Исходные данные:

  1. 1. Заработок на 1000 показов

Этот параметр указывается практически во всех системах контекстной рекламы и тизерных сетях. После того, как вы провели оптимизацию, поигрались с видом блоков и их расположением, вы поняли, что, допустим для какого-то сайта А вы получаете со всей рекламы, предположим, 75 рублей за 1000 показов.

  1. 2. Стоимость создания материала

Я специально написал не текста, а материала, т.к. копирайтерам я часто даю задание не просто написать статью, а написать статью, найти фото без водяных знаков, уникализировать немного эти фото и вставить разместить материалы на сайте. Как правило, эта работа увеличивает стоимость работ.

Тут приходится постоянно искать баланс между стоимостью и качеством. Т.к. найти дешевых копирайтеров несложно, но найти таких, которые при этом писали бы качественно и недорого, куда более сложная задача.

В общем виде, для статьи 3000  знаков, допустим, мне обходится материалы в

  1. 3. Объем текста статьи

По разным темам может быть адекватен разный размер статьи. Где-то 2000 знаков вполне достаточно, а для какой-то темы 5000 будет хватать с трудом. Все это будет влиять на стоимость в п.2.

  1. 4. Ожидаемое число заходов на эту статью

В общем виде, можете посчитать примерное число заходов с помощью сервиса вордстат.яндекс.ру, с учетом вашего региона, а также с пониманием, как ctr кликов со страницы выдачи зависит от места. Помним, что цифры по ctr на первой странице могут колебаться от 2 до 45% в зависимости от места и тематики.

Вообще, есть более точные методы, как спрогнозировать. Их я рассказываю только на консультации.

Итак, для чего мы все это затеяли? Что нужно?

Я хочу знать, за какое время, мои вложения в написание контента вернутся ко мне обратно и станут приносить чистую прибыль.

Чтобы это узнать, нужно произвести несложные расчеты. Давайте все это рассмотрим на конкретном примере.

Предположим, я создаю контент для какого-то сайта. Для статьи нужны фото и 3000 знаков текста. Плюс их надо разместить на сайте. Цена вопроса у моего неплохого копирайтера будет что-то в районе 320 рублей.

А еще мы предположили, что я получаю с рекламы 75 рублей за каждую 1000 показов этой страницы. Учитывая, на такие статьи обычно люди заходят напрямую с поиска, то я могу рассчитывать только на тех людей, у которых в статистике эта страница будет являться входной.

Если допустить, что для меня нормальным сроком возврата инвестиции в контент можно посчитать год, после чего эта статья уже будет приносить мне чистую прибыль, то мы имеем следующее:

320р/12мес даст нам около 27 рублей. Т.е. в месяц, мне эта статья должна приносить в среднем не менее этой суммы, чтобы за год окупиться.

Учитывая, что я за 1000 показов получаю 75 рублей, то для того, чтобы получить 27 рублей, мне необходимо прокрутить 1000показов*27руб/75руб=360 показов.

Т.е. если на мою статью будет в месяц заходить в среднем суммарно 360 человек, то я за год окуплю эту статью.

Что отсюда следует? Прежде всего то, что я должен искать темы и писать ТЗ по ключам таким образом, чтобы на эту конкретную страницу было заходов не менее 12 в сутки (360 в месяц).

И тут самое интересное. Если использовать интуицию и просто искать темы в статистике, то вы столкнетесь с такой проблемой. Иногда вы будете попадать в яблочко и выстреливать одной статьей так, что там будет не 360, а все 4000 заходов в месяц. Например, у меня рекорд, когда одна статья, приносила до 43000 заходов в месяц, а это более 1200 в день!

Обратная сторона медали в том, что большинство статей будут напротив, приносить куда меньше, чем 360 посетителей в сутки. В некоторых случаях это оправдано. Например, на этом сайте, большинство статей, что я пишу, я даже на заморачиваюсь над тем, как они будут себя чувствовать в поиске. Я просто даю полезный контент, чтобы люди приходили и читали еще. Хотя, даже на этом сайте есть страницы, которые я специально оптимизировал под большое количество заходов. Например, страничка про тег тайтл приносит мне в месяц около 1300 посетителей, а страничка начала моей эпопеи про интернет магазин более 2200. С другой стороны, тут огромное количество статей, на которые число заходов не превышает 5-15 человек в месяц. Но тут и тематика куда более прибыльная. В ней я с 1000 показов получаю уже не 75, а около 130р. Так что и для окупаемости за год можно было бы ориентироваться на 200 человек в сутки ))

Большинство высокопосещаемых проектов имеет несколько таких удачных страниц с удачной темой и контентом, что позволяет им получать высокий трафик. Остальные 90% страниц, как правило, собирают остатки.

Так что, учитесь искать темы для статей, которая в состоянии сорвать большое количество посетителей при прочих равных.

Что сделать, чтобы сайт «пошел»?

Я регулярно либо сам запускаю новые проекты, либо, что гораздо чаще, наблюдаю за клиентами и коллегами,  которые раскручивают проекты с нуля. Если делать все правильно, то сайт имеет все шансы занять достойное место в выдаче яндекса и гугла и приносить хороший трафик.

Под «правильно» в данном случае я имею в виду прежде всего оптимизированный код, хорошую верстку, очень быстрое время загрузки страниц сайта для пользователей, размещена контактная информация в Яндекс адресах, произведена регистрация в крупных и сильных каталогах типа яндекса и майла, уникальные и полезные тексты, постоянство заполнения сайта информацией, а также грамотную работу с семантическим ядром и основными тегами. Кроме этого, необходимо работать над ссылочными факторами и над тем, чтобы пользователю было проще находить ту информацию на вашем сайте, ради которой он, собственно, набирал запрос в поиске.

Так вот, если все сделано правильно, то сайт должен по идее лезть вверх довольно шустро. Это становится обычно понятно через 4-6 месяцев. За это время уже должна вырисоваться положительная динамика роста посещаемости.

Это в идеале. Однако, очень нередко бывает так, что вроде с сайтом все сделано правильно, но сайт по каким-то причинам «не идет» и определить причины, что именно не так, не представляется возможным. К сожалению, сейчас таковы реалии, что ситуация, при которой сайт «не идет» возникает довольно часто.

Чтобы такого не произошло, можно покупать сайт в этой же тематике, который уже сделан и у которого такая динамика прослеживается. Т.е. понятно, что у сайта определенный уровень доверия уже есть. Если у такого продаваемого сайта посещаемость еще не очень высока, стоимость будет также вполне приемлемой. Зачастую она будет даже меньше, чем необходимо потратить за 4-5 месяцев на развитие такого проекта.

При этом, можно получить экономию времени несколько месяцев (1-2 месяца на создание и еще 4-7 месяцев до получения подобных результатов) и гарантию того, что сайт будет нормально продвигаться в поиске.

Для некоммерческих тематик это работает в том плане, что если я вижу, что сайт уже получил высокий уровень доверия и по довольно частотным запросам выходит в топ только на одном тексте, мне это дает основание полагать, что и по другим запросам аналогичной тематики, сайт будет хорошо подниматься в ТОП только при написании статей.

Единственное, что надо найти такой сайт, который хорошо подходит по тематике, направлениям и разделам под то, что вы изначально собирались развивать. Хотя, конечно, возможен и другой вариант, при котором вы просто покупаете сайт, который при изучении стартовой ситуации, сам подскажет вам, что с ним делать дальше и как его развивать.

Для коммерческой это еще более критично. Другой вопрос, что часто может потребоваться редизайн. Кроме того, придется довольствоваться той CMS, на которой покупаемый сайт. Однако, предложений на рынке покупки-продажи сайтов немало, поэтому я очень рекомендую изучать предложения по продаже сайтов в случае, если вы собираетесь открыть свой бизнес. Очень часто я вижу хорошие сайты с весьма чистым трафиком, которые продаются явно в 3-4 раза дешевле, чем надо потратить, чтобы достичь этого уровня.

Покупка уже «продвинутого» сайта решает проблему «пойдет или нет». Учитывая, что ситуация с «сайт не пошел» даже при идеальном раскладе возникает очень часто, я настоятельно рекомендую использовать эту возможность.