Jump to content

Введите пароль или зарегистрируйтесь

Авторизация
Ваш логин:У меня нет логина!Ваш пароль:Я забыл пароль!

Двигаем сайт!

В начале своего пути компания ViPro была подразделением известной консалтинговой группы. Очевидно, что для получения конкретной пользы от сайта необходимо правильно организовать его тематическую посещаемость, привести на сайт посетителей, которым он интересен. Главная задача - продвижение сайта в поисковых системах с целью его присутствия при поиске на первых позициях по важным для бизнеса ключевым словам.

Что такое SEO

Если быть точным, search engine optimization или SEO - это американский термин, в переводе на русский язык «оптимизация сайта для поисковых систем». Если популярно, это некие работы над сайтом, иногда называемые продвижением сайта, результатом которых является присутствие ссылки на данный сайт в первых строчках результатов поиска Yahoo, Yandex и других поисковых серверов по словам и словосочетаниям, которые для данного сайта важны.

Термин SEO или оптимизация сайта для поисковых систем возник достаточно давно, еще в прошлом веке. В ту славную пору поисковики еще не обладали современными мощными системами искусственного интеллекта, а сортировали сайты по достаточно простым и легко вычисляемым принципам. Можно было «напихать» в текст много раз слово «морковка» и ваш сайт легко находился по этому слову. Если Вы еще и выделили это слово жирным и поставили в заголовок и Title, то успех был почти гарантирован.

Поскольку с момента возникновения поисковиков возник спрос на продвижение сайтов в результатах поиска, на рынке SEO возникли подрядчики, которые начали предлагать услуги в этой области. Скорее всего, они и придумали этот термин.

С тех пор в SEO многое изменилось. Во-первых, все поисковики осудили любые попытки искусственно влиять на результаты поиска. Некоторые даже написали правила - что можно делать с сайтом, а что нельзя. Во-вторых, алгоритмы поисковиков настолько усложнились, что все примитивные способы продвижения сайтов перестали работать и легко определяются поисковиками. Результатом таких вычислений является полное исключение сайта из базы поисковика.

Оптимизаторы (люди и компании, которые предоставляют услуги SEO или продвижения сайтов) тоже изменились. Условно их можно разбить на три группы:

Белые оптимизаторы - чтут Уголовный Кодекс и требования поисковиков. Применяют только белые, разрешенные способы оптимизации и продвижения сайтов. Работают непосредственно с сайтом клиента: наполняют текстами, оптимизируют тексты по необходимым ключевым словам, анонсируют сайт в тематическом сегменте интернет. Работа дает максимальный эффект, но при этом стоит денег и выполняется не быстро.

Черные оптимизаторы - сознательно обманывают поисковики, применяют запрещенные способы продвижения сайтов и влияния на результаты поиска. Часто работают не непосредственно с сайтом клиента, а с различными фантомами-однодневками, которые «взлетают ракетой» и потом так же быстро падают. При этом любят хвастаться, что поисковики их ни когда не поймают, а они знают алгоритмы поиска лучше всех. Работа черных оптимизаторов стоит меньше и выполняется быстрее, но ее результат не долгосрочен, часто случаен и всегда таит в себе угрозу исключения сайта клиента из базы поисковой системы (бан).

Пионеры SEO - это люди, реже компании, которые не ведают, что творят. Именно они чаще всего попадают в черные списки поисковиков. Их легко найти в любой общаге технического вуза. Могут легко пообещать продвинуть или задвинуть ваш сайт куда угодно. В 99% случаев у них вообще ничего не получится, при этом все время их упражнений Ваш сайт будет под угрозой бана.

Принципы работы поисковых систем

Основная задача любой поисковой системы - дать пользователю ответ на его запрос. Ответ поисковой системы в сети интернет должен быть актуальным и информативным.

Первая задача поисковых систем - сбор информации. Для этого сначала поисковые системы формируют свои базы знаний или так называемый «индекс» - роботы поисковой системы ходят по сайтам, забирают тексты и картинки, и, сформировав это в удобный для использования вид, складывают в свои архивы. Одновременно страницы и сайты анализируются на предмет морфологии, текстов, тематики и положении в сети интернет относительно других сайтов. Конкретная работа роботов строится на алгоритмах, созданных совместной работой лингвистов, программистов и аналитиков. Из за того, что объем информации в сети интернет огромен (по данным поисковой системы Яндекс, ими проиндексировано 5 тысяч 610 Гб информации), сбор и хранение данных требует огромных мощностей - высокопроизводительных серверов с большой памятью и сильными процессорами.

Следующая задача поисковых систем - определение тематики информации (определение тематических групп, рубрицирование сайтов по теме их текстов). Делается это частично вручную, например, у многих поисковых систем существуют собственные каталоги ресурсов, когда опытный редактор точно соотносит некий ресурс конкретной рубрике в огромном каталоге ресурсов. Для определения важности ресурса в сети создателями поисковых систем были придуманы коэффициенты и методы их расчета, основанные на учете внешних ссылок на сайты. Это тИЦ (тематический индекс цитирования) у Яндекса), Page Rank у Гугля, коэффициент популярности у Рамблера. Эти данные даже частично показываются пользователям, но на самом деле расчетов гораздо больше. На этом подготовительная стадия заканчивается.

Основная задача поисковых систем - поиск и вывод ответов на запросы пользователей. Эта функция есть поиск по огромному массиву индекса с учетом неких заложенных алгоритмов релевантности и дальнейшего ранжирования результатов. Эта информация в удобном виде преподносится пользователям - показываются сниппеты (выдержки из текста), жирным выделяются запрошенные слова. Еще поисковые системы анализируют реакцию пользователя на информацию, выданную поисковой системой. У поисковой системы Гугль есть панель-бар (надстройка к браузеру), с помощью которой пользователь может высказать свое мнение об отношении к тому сайту, на который его отправила поисковая система. Так же многие российские поисковые системы учитывают как и куда пользователи кликают из результатов поиска. Точной информации о том, как что учитывается нет, но понятно, что чем меньше на сайт кликают по сравнению с другими сайтами, тем менее он релевантен запросам пользователей.

Спамдексинг, или Черные методы продвижения сайтов в поисковых системах

С момента появления и популяризации поисковых систем для многих сайтов основным источником посещаемости стали ссылки с результатов поиска Яндекса и Рамблера, Апорта и Гугля. При этом для коммерческих сайтов приходящая аудитория характеризуется высокой покупательной способностью и становится значительным источников заказов и прибыли. С этого момента начинается коммерциализация и переход на рекламную модель поисковых систем. Многие web-мастера начинают задумываться о методах влияния на результаты поиска с тем, что бы их сайты появлялись выше в результатах поиска, то есть ближе к первым местам.

Сначала в своих алгоритмах разработчики поисковых систем опирались на статистические методы анализа текстов сайтов. Достаточно было сделать или большой документ, или в тексте часто использовать некое ключевое слово, что приводило к тому, что сайт web-мастера относительно высоко начинал показываться в результатах поиска. Далее производя манипуляции над текстом (добавляя или удаляя ключевые слова в разных местах документа), можно было наблюдать как меняются позиции сайта по соответствующим ключевым словам.

Во многих сферах бизнеса, где много сайтов, web-мастера начинают задумываться о том, как привлекать большие объемы аудитории на свои сайты. Для этого начинаются использоваться разные способы обмана поисковых систем.

Невидимый текст

Первым таким способом стало использование «невидимого текста», например черным по черному или белым по белому, когда текст между строк становится видным только при выделении его мышкой. При посещении страницы Вы увидите Рисунок 1, но если сделаете выделение мышкой (например нажмете Ctrl + F5), то увидите вариант Рисунок 2.


Его вариацией явился метод использования стилей (styles) когда некоторому абзацу или куску текста «присваивается» свойство невидимости. Т.е. поисковики видят и учитывают текст, но пользователь не находит его в броузере. Реально использование таких методов можно найти в исходном html страницы по тегам style=«visibility: hidden;», style=«display: none;» . Так же это может быть задано в подгружаемой таблице стилей или в Java Script.

Редирект или переадресация

Второй волной роста количества «методов» получения посещаемости из поисковых систем стало использование методов редиректа или переадресации пользователя на «целевой» сайт (или сайт заказчика) при попадании его на одну из страниц из результатов поиска. Содержанием таких страниц мог быть любой текст, напичканный ключевыми словами, созданный роботом по шаблонам или с помощью некоторого алгоритма, замечалось так же использование материалов чужих сайтов. Особенным отличием такого метода стало переадресация посетителя с одного сайта на другой. Этот способ получил название дорвейного, а сами страницы - дорвеи (от английского слова door-way).

Клоакинг

По мере роста интернета и знаний web-мастеров получил известность метод обмана роботов поисковых систем когда роботам поисковых систем на сайте показывался одно содержание, при реальном попадании на эту страницу пользователя, он видел уже отличающийся контент, который мало чем напоминал исходный и содержащий некий рекламный текст.
Модификацией этого приема стал способ объединения клоакинга и редиректа - робот поисковой системы при заходе на страницу видит текст, а когда на страницу попадает пользователь, сервер его переадресует (Java script, meta-refresh или серверный редирект) на другой сервер или страницу.

Непотистский спам

В 2001 году создателями поисковой системы Google был предложен способ оценки релевантности сайта и страниц на основе ссылок на них с других сайтов. Чем больше и качественные ссылки ведут на сайт - тем выше этот сайт показывается в поисковых системах.

Web-мастерами это было трактовано как «меняться ссылками налево и направо». «Умные» web-мастера на своих «раскрученных» сайтах в разделе «Партнеры» ставили ссылки на клиентов. В 2002 году случился конфликт между «оптимизаторской компанией» и поисковой системой Яндекс, когда Яндекс запретил учет ссылок на сайте компании за то, что на сайтах оной существовали страницы только для того, что бы влиять «ссылками» на результаты поиска. Надо сказать, что до этого случая сайт компании был достаточно важным «в глазах» поисковой системы.

В настоящее время обмен ссылками «налево и направо» носит просто ошеломляющий характер, меняются ссылками сайт про развлечения и подшипники, рефераты и торговля. Существуют даже системы когда за деньги или «по бартеру» можно разом получить несколько сотен ссылок на клиентский сайт. По нашему мнению, это тоже спам поисковых систем потому как такие ссылки не соотносятся ни с местом, ни с темой сайта где устанавливаются.

В настоящее время уже замечены факты того, что сайтам, участвующим в автоматических системах обмена ссылками, не позволяют высоко подняться в результатах поиска, т.е. накладываются некие фильтры на ссылки с сайтов, участвующих в таком «обмене». Это значит, что создатели поисковых систем работают над алгоритмами подавления влияния некачественных/нетематических ссылок.

Как попасть в бан (черный список) поисковых систем

Для начала, необходимо уточнить термины. Существует два неприятных последствия сотрудничества с черными оптимизаторами, кроме потери времени и денег.

Первое это попадание сайта в «черный список» (бан) - т.е. удаление сайта из базы поисковой системы. В результате ваш сайт будет продолжать успешно работать, но найти его смогут только те, кто заранее знает его адрес. В результатах поиска, ни по каким запросам его найти будет нельзя. Событие неприятное и с большим трудом исправимое. Часто приходится закрывать домен и искать новый адрес для сайта. Для справедливости отметим, что у всех поисковых систем собственные черные списки. Центрального, объединенного нет.

Второе это пессимизация сайта. Иногда это даже более неприятное явление, чем бан, поскольку невозможно точно сказать присутствует оно или нет. Проявляется постоянным отставанием сайта в результатах поиска, поскольку сайт «оштрафован» поисковой системой и его релевантность всегда умножается на понижающий коэффициент.

Цитируем «Яндекс»:

«Яндекс запрещает „поисковый спам" - попытки обмана поисковой системы и манипулирования ее результатами с целью завышения позиции сайтов (страниц) в результатах поиска. Сайты, содержащие «поисковый спам», вручную исключаются из индекса из-за невозможности их корректного ранжирования.
Мы не комментируем удаление сайтов, не предуведомляем о нем, и не даем никаких гарантий и сроков на повторное их включение в индекс.

Мы также не сообщаем исчерпывающий список методов спама, которые могут вызвать удаление сайта. Тем не менее, вот некоторые из них: использование на странице элементов, вводящих в заблуждение поисковую систему (текст, ссылки и др); создание и размещение обманных «входных» страниц, перенаправляющих посетителей тем или иным способом на целевую страницу; специальное программирование веб-сайта с целью выдачи роботу Яндекса содержимого, отличного от того, которое выдается обычным пользователям; размещение ссылок, предназначенных лишь для «накачивания» релевантности в поисковой системе, в т.ч. участие в программах их обмена с указанной целью».

Теперь несколько слов на тему, как быстрее познакомиться с этими неприятными для жизни сайта моментами. Поскольку современные способы обмана поисковых систем сложны, мы практически не встречались с их применением владельцами сайтов. Всегда это творчество неквалифицированных подрядчиков. Посему существует один основной способ загреметь в бан - довериться сознательно или бессознательно специалистам по взлету ракетой».

Вот их основные опознавательные признаки:

  1. обещают результат быстро, в течение нескольких недель, иногда дней;
  2. гарантируют первое место в результатах поиска;
  3. у них нет своего сайта, тем более офиса;
  4. основной метод рекламы - спам.

Краткие итоги

Для всех сайтов, а для коммерческих особенно, заметное присутствие в результатах поиска по профильным ключевым словам является важнейшей основой получения эффекта от эксплуатации сайта.

Ни один вид рекламы не может сравнится с эффективностью присутствия ссылки на сайт на первой странице результатов поиска. Это факт, которые мы наблюдаем в течение 5 лет на десятках клиентских сайтов.

Все попытки обмануть поисковики заканчиваются плачевно. Не советуем вступать на этот путь. Потеряете время, деньги и репутацию. Заниматься оптимизацией сайта нужно серьезно и профессионально. Можно делать это силами своих специалистов или поручить подрядчикам. Важно, чтобы работу выполняли действительно специалисты, понимающие как можно решить задачу, имеющие опыт и необходимые знания.

Олег Сковородников

Комментарий

Новое сообщение

Проверочный код 

Рассылка



Проверочный код
_SECURITY_CODE 

настройка / отписаться ]

На правах рекламы: