Раскрутка сайтов

Популярная тема, у многих сегодня есть сайты и конечно необходимо их раскручивать.

Зачем раскручиваем сайт?

Безусловно сайт раскручивают в зависимости от задач, которые ставятся.
Задачи сайта:

  • продавать рекламу в виде баннеров и ссылок (показы рекламы и клики) для продажи чужого продукта или услуги;
  • сайт для продажи собственного продукта или услуги;
  • сайт социальный;
  • сайт личный, как правило блог. Привлечение читателей;
  • сайт, как часть сети сайтов ведущий на целевой сайт и так далее.

Однако цель раскрутки одна — привлечение посетителей.
Однако нужно ответить на главный вопрос: а что привлеченный человек должен делать на этом сайте, когда пришел на него?
Возможно нужно в первую очередь наполнить сайт качественным контентом. Это важно для любой задачи.

Как к раскрутке относятся поисковые машины?
Конечно поисковые машины к накрутке сайтов относятся очень плохо. Алгоритмы Гугла и Яндекса по выдаче сайтов в поисковых запросы претерпевают постоянные изменения, в связи с тем, что идет их совершенствование. На заре интернета сайтов было мало, а в настоящий момент объемы информации постоянно растут и пользователю трудно найти нужный сайт по своему запросу. Поисковые машины постоянно перемещают ваш сайт в списке выдачи (ранжируют), для того чтобы подсунуть более подходящие сайты. Если сайт стал не актуальным или был заподозрен в черной раскрутке есть шанс вылететь из выдачи. Гугл и Яндекс, очень не любят «внешние ссылки» (ссылки на другие сайты не помеченные тэгом rel=»nofollow»). Ну и конечно главная проблема информационного мира — это уникальность контента (содержимое сайта не должно содержать сочетание слов и выражений из других источников), такой сайт не имеет ценности никакой.

Мысли о раскрутке

Источником данных для подбора нужных ссылок является история запросов самого пользователя. Таким образом мы приходим к первой мысли — что большую роль играет история запросов пользователя.
Пользователь переходя по сайтам выдачи поисковой машины, если не обнаруживает в текущем сайте необходимой информации, практически сразу закрывает его и переходит на следующий. Второй мыслью — пользователь должен задержаться более 30 секунд времени на заинтересовавшем его сайте.
Если на первых 5-10 страницах выдачи поисковой машины, пользователь не находит нужной информации, то он изменяет запрос. Третья мысль — большую роль играет meta тэг keywords (ключевые слова) страницы вашего сайта, а точнее его содержимое. И если вы подобрали неудачные keywords у вас нет шансов удержаться в поиске. Подбор ключевых слов тесно связан с тематикой сайта и лучше, чтобы она была узко специализированна (Например «Ремонт Audi Москва»).
Ну и в подборе поисковой выдачи большую роль играет гео местоположение и язык пользователя.
Как видите все не очень просто.

Пишем бота

Распространенное решение «в лоб» — это написать бота, который будет прикидываться посетителем и будет пользоваться поисковиком и делать переход на сайт. Поисковик будет фиксировать переход на сайт и если таких переходов будет много, то поисковик даст этому сайт более высокий приоритет в поисковой выдаче. А для того, чтобы поисковик думал, что таких людей много бот будет заходить с разных прокси и чистить кукисы.

Есть пару моментов:
1) Прокси необходимо иметь «качественные» (платные). На бесплатные (и иногда платные) гугл реагирует всегда однозначно и ввод капчи ситуацию не исправляет;
Если гугл дал капчу на этот прокси, то использование его в следующие 24 часа не имеет смысла;
2) Количество запросов в день должно быть ограничено. Многократные запросы от одного прокси фиксируются поисковиком (при повторном и последующих проходах), за запрос также идет проход в «глубину» (последующие страницы), запрос за каждую страницу;
3) Если ваша задачей является раскрутка сайта, то бот должен находится на нем не менее 30 секунд. И чего-нибуть там делать, кликать и делать переходы (на картинке тепловая карта сайта от Яндекс метрика);
4) Зачищенные кукисы вызывает резонные подозрения у поисковика (пользователь без истории).

Если у вас сайт уже имеет аудиторию, то использую методы «черной оптимизации» могут привести к потере поисковой позиции.

Белая оптимизация

Про нее очень много написано. Скажу вкратце, главное это содержание сайта и цитируемость его другими сайтами. В Яндексе есть показатель ТИЦ(индекс цитирования), а в Гугле это PR (page rank) это сложные механизмы, с засекреченными алгоритмами. Получить цитируемость можно только со временем или позаботится об этом самостоятельно.

Итог

Многие методики раскрутки, которые вы найдете в интернете являются устаревшими и могут дать обратный эффект(хотя в свое время приносили большое количество просмотров). В любом случае работу по наполнению контентом сайта делать необходимо.