Группа компаний Webcom Media: Минск, ул. Скрыганова, 6а, 4 этаж.

Великолепная пятерка среди поисковиков


В статье автор раскрывает основные принципы и подходы к оптимизации веб-сайтов для поисковых машин.

Успех веб-сайта начинается не с поисковой машины, а с наполнения вашего сайта и правильно выбранной оптимизационной стратегии. Не много пользы принесет засевание поисковиков линками сайта, если на сайте не совсем четко описано то, что вы предлагаете, и кому вы это предлагаете. Как только вы определитесь с вашими заданиями и целевой аудиторией, можно начинать.

Итак, первое, что нам нужно сделать — составить список услуг и определиться с аудиторией.


Поставьте цели своей кампании

Перед тем, как начинать свою кампанию, у вас должно выработаться четкое представление о том, чего вы хотите достичь. Это может быть либо повышение трафика на вашем сайте, либо увеличение количества новых посетителей, или же увеличение процента целевых заходов, то есть количества клиентов.

Вне зависимости от размера вашего бюджета, затраты и усилия должны быть соизмеримыми с ожидаемой результатами, то есть вы должны реально оценить возможности достижения поставленных результатов. Проделайте следующую процедуру: приблизительно оцените что каждый новый посетитель может принести вам и поставьте реальное желаемое количество посетителей. Из этих двух цифр выведите максимальный лимит затрат на вашу Интернет-кампанию. Старайтесь не намного превышать эти затраты, поскольку в случае, если по той или иной причине кампания не удастся, вы вряд ли сможете их себе вернуть.

 
Подберите правильные ключевые слова

Тщательно подобранные ключевые слова являются осевой частью любой Интернет-кампании. Главная цель тут — правильно предвидеть поисковые фразы, которые будут использованы потенциальными посетителями сайта. Основная причина того, что некоторые хорошо сделанные и продуманные сайты не добиваются популярности — неправильное использование ключевых слов.

Подумайте о том, что наиболее точно описывает ваш вид деятельности, и что отличает вашу деятельность от ваших конкурентов; какие слова описывают ваши услуги, месторасположение, касаются потенциальных клиентов и их интересов.

 
Составьте список слов, которые описывают ваш сервис. Задайте по ним поиск на известных поисковиках и внимательно изучите полученные результаты. Просмотрите сайты ваших главных конкурентов в данной области и подсмотрите в коде их страниц как это реализовано у них.

Overture предоставляет очень ценную бесплатную услугу по поиску ключевых слов, которые встречаются чаще всего в комбинации с заданным, и сколько раз это слово искали на протяжении минувшего месяца. Компания Wordtracker предлагает аналогичную услугу, с несколько расширенными возможностями, но уже за умеренную плату. Программа Page Promoter производства компании NetPromoter содержит модуль, который строит список ключевых слов по результатам анализа поиска на основных поисковых сайтах.

 
Стройте ваш сайт вокруг ключевых слов

Разбейте содержание вашего сайта на ясно очерченные страницы и секции, которые представляют наиважнейшие тематики. Разработайте карту сайта. Каждая страница должна называться соответственно ключевому слову, на которое она направлена. Отталкивайтесь от составленной карты при создании сайта. Не прячьте основные страницы очень глубоко. Разместите навигационные ссылки так, чтобы минимизировать количество кликов при переходе от одной страницы на другую. Для сайта, содержащего, например, сто страниц нетрудно сделать так, чтобы одна страница была не дальше, чем в двух кликах от другой. Дело в том, что некоторые поисковики индексируют только несколько первых страниц сайта, таким образом, если вы сделаете навигацию как можно проще, вы облегчите им поиск и индексацию остальных страниц.

Если сайт содержит страницы, не имеющие отношения к основному назначению сайта, скажем, для другого рода вашей деятельности, их лучше разместить под другим доменом.

 
Разрабатывайте страницы так, чтобы они привлекали поисковых роботов

Основные способы для привлечения как роботов, так и людей, совпадают. И те и другие высоко оценят ваш сайт, если он хорошо организован и насыщен полезной информацией.

В идеале каждая страница должна содержать следующие тэги: TITLE, DESCRIPTION и KEYWORDS. Тэг TITLE (заголовок) имеет наибольший вес при индексации. Содержание именно этого тэга выводится в результатах поиска, а следовательно, не только роботы, но и люди быстрее обратят внимание на грамотный и хорошо написанный заголовок. Заголовок должен быть коротким и, при возможности, содержать ключевые слова. Не поддайтесь искушению внести название своей компании или начать заголовок с доброжелательного «Добро пожаловать…». Еще худший эффект будет иметь игнорирование этого тэга.

Тщательно оформите мета-тэг DESCRIPTION, поскольку именно этот тэг будет сопровождать название вашего сайта в большинстве результатов поиска. Он должен быть коротким — не больше 150 символов, и как можно более интересным. Повторите содержание тэга TITLE и насытьте ключевыми словами.

В последнее время вебмастера все больше и больше пренебрегают мета-тэгом KEYWORDS, ссылаясь на то, что поисковые роботы не индексируют их и не используют в своем алгоритме при оценивании. Это не так. Действительно, Google не проиндексирует в этот тэг, если в тексте страницы он не повторяется, поскольку начинка тэга ключевых слов словами на порнографическую тематику — один из распространенных способов спамирования, а специалисты поисковиков стараются оградить людей от спама. Итак, как правильно отформатировать тэг KEYWORDS? В принципе, большинство поисковиков не учитывают регистр, но предпочтительно, чтобы все слова были в нижнем регистре, поскольку поиск, как правило, делается именно в нижнем регистре. Не следует дублировать слова с большой и маленькой буквы, например «Компьютер,компьютер» поскольку это будет воспринято как попытка искусственно повысить значимость слова. Разделяйте слова запятыми или пробелами. При разделении слов комами каждое слово будет учитываться отдельно. Если вы разделяете слова пробелами, то поисковик будет самостоятельно составлять фразы из слов. Правда, это намного легче реализовать в английском языке, где нет спрягаемых окончаний.

Первый же заголовок на странице должен в той или иной форме обыгрывать содержимое тэга TITLE — это значительно придаст странице релевантности. Желательно почаще использовать тэги заголовков для помещения в них ключевых слов. Это особенно важно для тех поисковиков, которые не учитывают или придают мало значения мета-тэгам.

Когда вы организовываете навигацию внутри сайта, делайте ссылки, ведущие к заголовкам. Каждая ссылка к тематически релевантному заголовку додает веса странице в целом. Так же обратите внимание на сам текст ссылок. Это еще одно место, где ключевое слово будет иметь больший вес, чем в обычном тексте.

Изображения будут проигнорированы поисковиками, а вот альтернативный текст изображений — нет.

 
Не используйте фреймы. Некоторые индексирующие роботы все еще не научились их распознавать, и иногда при просмотре результатов поиска по ключевому слову вы можете увидеть в них сообщение «Ваш браузер не поддерживает фреймы». Это отнюдь не значит, что ваш браузер не поддерживает фреймы, это — всего лишь ответ, который получил поисковый робот при запросе какой-то страницы, содержащей фреймы. Практически невозможно указать путь к странице внутри фреймсета. Вебмастера стараются обойти эту проблему, регистрируя на поисковике страницы, содержащие фреймсеты, но опять же, фреймовые страницы, богатые на содержание, могут остаться непроиндексированными. Если же они и будут проиндексированы, то посетитель, пройдя по ссылке увидит не целый фреймсет, а отдельный файл.

 
Также, следует избегать чрезмерного использования javascript. Роботы не умеют различать ссылки внутри javascript, в отличие от обычных посетителей, которые без проблем проходят по такой ссылке. Между специалистами по веб-оптимизации ведется долгая дискуссия о том, в каком именно месте страницы размещать код javascript. Традиционно вебмастера размещают код в пределах тэга . Существуют ли для этого какие-либо правила разметки, или его можно помещать где угодно. Каждый, кто когда-либо имел дело с javascript знает, что его можно размещать где угодно. Размещение же в тэге облегчает работу вебмастеру, но только не роботу. Вопрос состоит в том, как упростить роботу индексацию страницы, например, если там находится несколько строк текста и сотня-другая строк кода javascript. Ведь робот должен исследовать страницу от начала и до закрывающего тэга , следовательно не имеет значения, где будет находиться javascript в коде HTML. Облегчить это задание можно, поместив javascript в отдельный файл — он создается в любом текстовом редакторе и имеет расширение .js. В заголовке страницы помещается лишь ссылка на этот файл:

Похожая ситуация обстоит и с Flash объектами. Я наблюдал сайты, навигация в которых осуществляется исключительно через Flash. Результат — сайт остается полностью непроиндексированным. В лучшем случае поисковик выдает ссылку на домашнюю страницу сайта, дальше же робот пройти просто не смог. Такая страница расценивается как dangling page — страница не содержащая внешних ссылок, и оценивается очень низко. Избежать такой ситуации можно продублировав все ссылки в HTML-коде где-нибудь, скажем, внизу страницы.

Каскадные стили CSS так же рекомендуется выделять в отдельный файл. Это намного упрощает разметку страницы, делает ее более ясной, и экономит трафик. Можно запретить индексацию роботами этих файлов используя robots.txt — специальный файл, помещаемый в корневом каталоге сайта и содержащий инструкции для роботов по индексации.

Каждая страница вашего сайта может оказаться входной страницей, то есть, если робот ее оценит высоко, посетители будут приходить к вам именно через нее. Поэтому следует максимально тщательно обрабатывать каждую страницу. Сначала испробуйте данные рекомендации но нескольких страницах и проверьте их эффективность для вашего сайта. Если вы оптимизируете уже готовый сайт, а не создаете новый, вам могут пригодиться некоторые инструменты для оптимизации.

Регистрация на поисковых сайтах и директориях

Давайте сразу же выведем различия между тремя понятиями, которые постоянно путают, но которые, тем не менее, все же следует различать:

  • Поисковая машина. Это база данных, которая использует поискового робота, для исследования всемирной паутины. При оценивании релевантности сайта робот пользуется алгоритмом, известным только его создателям. Этот алгоритм, к тому же, постоянно меняется, поэтому некоторые компании специально занимаются отслеживанием алгоритма поисковиков, в особенности же Гугла. Поисковая машина может обслуживать несколько поисковых сайтов.     
  • Поисковый сайт. Это веб-сайт, который пользуется результатами поиска поисковой машины. Он не обязательно имеет своего поискового робота, и может пользоваться данными нескольких поисковых машин и каталогов. 
  • Веб-каталоги. Это базы данных сайтов, составляемые и редактируемые людьми, работниками компании или добровольцами, как в случае Open Directory (DMOZ). Основная цель в существовании каталогов — дать людям непредвзятую объективную информацию и оградить от спама. Недостаток — очень долгий период времени, который проходит между тем, как вы подали сайт на регистрацию, и появлением сайта в индексе каталога. Остановимся на нескольких наиболее достойных внимания поисковых машинах и каталогах.

Согласно статистике компании OpenStat, состоянием на ноябрь 2003 года, рейтинг наиболее популярных поисковых машин представлял собой следующее:

1.       Google 56.1%
2.       Yahoo 21.5%
3.       MSN Search 9.4%
4.       AOL Search 3.7%
5.       Terra Lycos 2.3%
6.       Altavista 1.9%
7.       AskJeeves 1.6%


О том, что Google прочно укрепился на первом месте по популярности вряд ли стоит говорить. Эта компания, основанная двумя студентами Стенфордского университета, и которая лишь в сентябре 1999 сняла знак бета-версии со своего веб-сайта, сейчас осуществляет поиск по трем миллиардам веб страниц и делает более 50 процентов всего трафика любого веб-сайта.


Поисковая машина в своей работе пользуется технологией PageRank основные принципы работы которой кратко изложены на веб-сайте Гугла. Каждая ссылка на сайт считается «голосом» за этот сайт и, соответственно, помогает ему поднять рейтинг. При этом оценивается не только сайт, к которому ведет ссылка, но и сайт, на котором находится ссылка, то есть оценивается релевантность сайта данной тематике. Под релевантностью следует понимать соответствие содержания сайта объявленной тематике. То есть, поисковая машина считает оглавление страницы, содержимое мета тэга DESCRIPTION, и несколько абзацев текста. Тэг KEYWORDS будет проигнорирован, она сама решит какие слова для данной страницы являются ключевыми, проанализировав частоту повторений определенной фразы в тексте. Тем не менее, мы настойчиво рекомендуем не отказываться от этого тэга, поскольку другие машины все еще пользуются им при оценке релевантности страниц. Также, следует обратить внимание на так званную «заметность, или броскость» ключевых слов (keyword prominence). Особую важность будут иметь заголовки, заключенные в тэги, слова выделенные полужирным шрифтом, а также текст гиперссылок. Также, предполагается, что определенный вес будут иметь слова в альтернативном тексте изображений (атрибут ALT).

В Интернете существует множество публикаций, посвященных разгадыванию алгоритма. В последнее время много говорится о том, что Гугл оценивает не только количество ссылок, но и качество. Определив тематику страницы или сайта по своим собственным правилам, Гугл будет оценивать сходство тематики вашего сайта и сайтов, которые содержат ссылки на ваш. Ссылки с сайтов со сходной тематикой будут оцениваться выше, чем случайные ссылки. Поэтому, когда-то эффективный метод публикации ссылок на так называемых «фермах» линков (FFA farms), где ваш сайт, пребывая некоторое время в базе данных, мог быть замечен роботом и проиндексирован, сейчас практически не приносит желаемых результатов. Для этого есть несколько причин. Во-первых в последнее время появилось много программ автоматической регистрации, которые забросят вашу ссылку на тысячи ферм одновременно. Поскольку тысячи людей во всем мире пользуются такими программами, время пребывания вашей ссылки в базе данных значительно сокращается. Ваша ссылка просто «вытесняется» новыми регистрациями. Во-вторых, даже если GoogleBot и наткнется на вашу ссылку, то ее ценность будет очень невысока, поскольку тематику таких ферм невозможно определить.


Yahoo! является самым старым поисковым порталом и находится на втором месте после Google по популярности, хотя еще несколько лет назад казалось, что этот поисковый портал прочно посел первое место в поисковом рейтинге популярности. Он имеет свою директорию, регистрация в которой вам будет стоить 299 долларов, при чем, оплата еще не гарантирует вам занесения в каталог. Если вы согласны заплатить данную сумму, то вам гарантируют, что сайт будет рассмотрен в течении семи бизнес-дней. На протяжении семи дней редактор директории посетит ваш сайт и решит, достаточно ли ваш сайт актуален и интересен для того, чтобы быть зарегистрированным. Если вы не готовы заплатить, то вы все же можете подать свой сайт на рассмотрение, но это займет намного больше времени — от нескольких недель до полугода. Единственное, что мы можем посоветовать — сделайте свой сайт как можно более информационно насыщенным и тщательно выберите категорию, в которой вы хотите зарегистрировать сайт. И последнее — не пытайтесь регистрировать сайт на порнографическую тематику — Yahoo! просто не принимает на бесплатную регистрацию сайты такой категории. Кроме своей директории, Yahoo! пользуется результатами поиска, предоставляемыми Гуглом. До 2000 года поисковая машина Inktomi обслуживала Yahoo!, но потом, очевидно признав преимущество поисковой технологии Гугла, они перешли на его сервис. В июле 2003 года компания выкупили поисковую машину Inktomi. Скорее всего, корпорация осознала, что из партнера Google постепенно превратился в серьезного конкурента, вытеснив на второе место.

У MSN есть как собственная директория, так и поисковый робот — компания Microsoft известна своим стремлением объять как можно большую часть рынка Интернет-технологий. Когда осуществляется поиск по ключевому слову, команда специалистов компании отслеживает наиболее релевантные на их взгляд сайты, вручную отбирают и классифицируют их, и вносят в определенные рубрики директории. При выведении результатов поиска вы можете видеть некоторые результаты, обозначенные как «Popular Topics». Это так же работа редакторов, которые пытаются вывести более точные и релевантные результаты. Очень часто среди первых номеров в результатах поиска появляются ссылки на статьи из Майкрософтовской энциклопедии Encarta. Конечно, одним только людским коллективом тут не обойтись, каким бы многочисленным он не был, поэтому MSN черпает данные для своих поисков еще и в каталоге Look Smart, который, в свою очередь, также редактируется людьми. Для обслуживания самых «сложных» запросов MSN пользуется услугами вышеупомянутой машины Inktomi. Для того, чтобы гарантировать себе присутствие в результатах поиска данной машины, следует зарегистрироваться в каталоге Look Smart и на сайте Inktomi.

Из каталогов, кроме вышеупомянутых Yahoo! и MSN особо следует вспомнить проект Open Directory Project, он же DMOZ. В отличие от многочисленных самопровозглашенных каталогов и так званных «ферм линков», каталог DMOZ является действительно авторитетным источником информации. Регистрация в нем бесплатна, но для того, чтобы ваш сайт начал появляться в результатах поиска, вам придется подождать от двух недель до 6 месяцев. Объясняются такие продолжительные задержки недостатком редакторов для некоторых категорий. На домашней странице сайта вы увидите что на DMOZе работает около 60 тысяч редакторов, но это не текущее число редакторов, а количество людей, работавших там за всю историю существования проекта. Но даже когда ваш сайт появится в каталоге, не ожидайте сразу резкого повышения приплыва посетителей — мало кто пользуется этим каталогом для осуществления поиска. Тем не менее, польза от регистрации есть, и значительна, хотя и не прямая. Дело в том, что Google пользуется каталогом DMOZ таким же образом, как Yahoo! или MSN пользуются своими — по сути, каталог Google — это копия каталога DMOZ. Так что, несмотря на то, что у вас не будет посетителей непосредственно с каталога, присутствие в нем может просто таки взвинтить ваш рейтинг к верхушке результатов поиска. Кроме того, другие поисковые машины кроме Google сканируют каталог DMOZ, а это опять-таки значит увеличение трафика.

Если ваш сайт представляет тематику, в которой идет напряженная борьба за первые места, и предложение очень высоко, бывает очень трудно, иногда даже невозможно пробиться к вершине поиска. В таком случае лучшим решением проблемы может быть покупка места в результатах поиска. Наиболее известными схемами платных включений в результаты поиска являются Overture, Google AdWords, и каталог Look Smart.

 
Overture — наверное, самый известный из мировых PPC (Pay Per Click) аукционов. Компания предоставляет платные результаты на таких поисковых платформах, как Yahoo!, MSN, AltaVista, AllTheWeb, и других. Система покупки рекламы следующая: вы выбираете поисковые слова, по которым хотите чтобы вас находили, и сами назначаете цену за каждое прохождение по ссылке. Три самые большие ставки появляются на сайтах-партнерах Overture в рубрике Sponsored Links. Преимущества данной системы в том, что вы сами можете определять цену, которую готовы заплатить за каждое вхождение. Кроме того, публика, которая проходит по вашей спонсорской ссылке — целевая, люди знают что они там найдут. Overture так же содержит штат сотрудников, которые проверяют релевантность представленного на аукцион сайта заявленной теме, по этому это практически исключает возможность того, что это — спам. Главный недостаток же в том, что вы в любой момент можете вылететь из результатов, если кто-то заявит ставку, большую чем ваша. В России главным и единственным аналогом Overture является Бегун, предоставляющий платные результаты на Mail.ru и Апорт.

 
LookSmart являет собой комбинацию платной директории и PPC аукциона. Он предоставляет рекламное место на MSN, Lycos и Road Runner. Для российского Интернета этот каталог представляет мало интереса, поскольку большая часть его аудитории — Соединенные Штаты и Канада, где он занимает довольно-таки высокие позиции.

 
Хотя машинная регистрация и протоколирование рейтинга и считается незаконным приемом, о чем прямо заявляют специалисты поисковых сайтов, существует много программ, способных облегчить вебмастеру работу, особенно если он должен вести постоянный надзор над несколькими сайтами. Рассмотрим некоторые из программ, облегчающие вебмастерам оптимизацию и сабмит сайтов на поисковые машины.

 
Признанным мировым лидером среди программ регистрации является Web Position Gold. Программа содержит такие полезные модули, как протоколирование рейтинга по заданным ключевым словам, генератор дорвеев — специальных, оптимизированных под отдельные поисковики страниц, а также анализатор существующих страниц. Кроме того, программа автоматически подает сайт на регистрацию на всех основных международных и национальных поисковых машинах. Главная проблема при пользовании данной программой состоит в том, что Google засекает использование этой программы, и ваш IP может быть заблокирован на некоторое время.

 
Единственный на российском рынке русифицированный пакет программ NetPromoter исполняет практически все функции хоть как-нибудь связанные с Интернет-промоцией. Все функции пакета можно разделить на следующие три группы:

  • Модуль Domain Name Checker позволяет производить поиск свободных доменов по протоколу WHOIS. 
  • Анализатор лог-файлов отслеживает визиты поисковых роботов и позволяет создавать файл robots.txt.
  • Модуль Page Promoter помогает производить автоматическую регистрацию сайта на основных мировых поисковых машинах и сайтах FFA. Также, программа детально анализирует отдельные страницы веб-сайта и выводит отчеты с рекомендациями по оптимизации, в том числе по частоте ключевых слов и количеству внешних ссылок на сайт.
Менее популярная программа для автоматической регистрации Search Engine Commando все же стоит того, чтобы о ней упомянуть. Она, помимо функций автоматического сабмита на 123 основных мировых поисковых машин и отслеживания рейтинга по заданным ключевым фразам, еще и следит за изменениями регистрационного статуса вашего доменного имени.

SubmitWolf Enterprise — очень серьезная программа для автоматического сабмита, которая к тому же «умеет» редактировать мета-тэги и отслеживать рейтинг. Положительным моментом в программе является то, что она позволяет добавлять собственные адреса поисковых машин и FFA сайтов.

Перед тем, как начать процесс регистрации на наиболее известных поисковых машинах и директориях, еще раз просмотрите, хорошо ли содержание тэгов TITLE и DESCRIPTION отображает цель и вид деятельности вашего сайта — вам потом будет очень трудно переубедить тех же Yahoo! в необходимости изменения начальных данных. Именно содержимое этих тэгов будет создавать первое впечатление о сайте. Желательно, чтобы они совпадали с той информацией, которую вы будете подавать при регистрации. Если вы серьезно решили взяться за продвигание и раскрутку сайта, к этому делу надо подойти со всей серьезностью и ответственностью, поскольку этот процесс иногда может значительно растягиваться во времени, и пройдет много времени, прежде чем вы обнаружите свои ошибки. И еще больше времени займет их исправление.

Не тратьте время на исправление своих ошибок - доверьте продвижение вашего сайта Webcom Media.

Желаю вам успеха и высоких рейтингов!

Источник: www.oborot.ru

x