Главная      Учебники - Разные     Лекции (разные) - часть 20

 

Поиск            

 

«Теория и практика связей с общественностью»

 

             

«Теория и практика связей с общественностью»

Министерство образования и науки РФ

Государственное общеобразовательное учреждение

высшего профессионального образования

Нижегородский государственный технический университет

Кафедра «Связи с общественностью, маркетинг и коммуникации»

студентки 2 курса дневного отделения

по курсу «Теория и практика связей с общественностью»

группы 09-СО

Трепалиной Марии Сергеевны

на тему «Основы работы с поисковыми системами»

Научный руководитель

старший преподаватель кафедры СОМиК

Шелеп И. А.

Нижний Новгород, 2010

Содержание:

Введение…………………………………………………………………………..

……….3

1. Развитие поисковых технологий и поисковых систем......................................

.............6

1.1. Причины и история возникновения и развития поисковых систем........

.............6

1.2. Основные задачи поисковых систем..........................................................

.............8

1.3. Развитие современных поисковых технологий..........................................

...........11

2. Общие принципы работы поисковых систем....................................................

...........15

2.1. Основные компоненты поисковой системы.................................................

...........15

2.2. «Внутренние» факторы. Поисковая оптимизация сайта..........................

...........18

2.3. «Внешние» факторы: ссылки, PR, ТИЦ.....................................................

...........22

2.4. Алгоритм ранжирования результатов поиска..............................................

...........26

3. Продвижение сайтов в поисковых системах.....................................................

...........29

3.1. Определение и актуальность продвижения в поисковых системах........

...........29

3.2. Различные взгляды на продвижению в поисковых системах..................

...........31

3.3. Выбор ключевых слов для продвижения....................................................

...........33

3.4. «Серые» технологии продвижения в поисковых системах......................

...........36

Заключение............................................................................................................

.........38

Список используемой литературы.......................................................................

...........40

Приложение А. Статистические показатели........................................................

...........42

Введение

Современные поисковые системы представляют собой относительно новый, удобный и достаточно массовый канал коммуникации между компаниями (владельцами сайтов) и соответствующей целевой аудиторией. От умения PR-специалиста работать с поисковыми системами напрямую зависит эффективность применения этого инструмента. Общее представление о работе поисковых систем, а так же умение правильно представить компанию в Интернете, и, в частности, в поисковых системах является не просто полезным, а необходимым навыком для специалиста по связям с общественностью.

Большинство пользователей считают, что информация, которую они находят в поисковой системе, носит не рекламный, а рекомендательный характер, и поэтому пользуется большим доверием и лояльностью пользователей, чем Интернет-реклама в том или ином ее виде. [1]

Как известно, Интернет, практически, не имеет границ ни в пространстве, ни во времени – это и определяет возможность взрывного характера интернет-рекламы. При грамотном её размещении и фокусировке, размещенная информация доступна 24 часа в сутки, одновременно сотням и тысячам заинтересованных в ней людей, независимо от того, находятся ли они в соседнем доме или в отдалённом регионе, в России или за рубежом. Очень важна и максимальная оперативность обратной связи в Интернет.

Поисковые системы - это самый удобный и самый распространенный способ поиска информации в Интернете. Именно поисковые системы дают в среднем около 80% посетителей сайта. [4]

Проблема поисковых систем состоит в том, что в их базах данных содержатся сотни тысяч документов. Поэтому по любому запросу поисковая машина выдаст пользователю огромное количество ресурсов (сайтов) по данной теме. Если учесть, что на каждой странице размещается (чаще всего) 10 ссылок, шансов, что кто-нибудь просмотрит, например, тридцатую страницу и увидит ссылку номер 301, практически нет. По статистике только 10% пользователей просматривают результаты своего запроса дальше третьей страницы. Одной из основных задач практически для любой коммерческой организации является расширение рынка и увеличение объема продаж. Для решения этой задачи идеально подходит продвижение в поисковых системах. Таким образом, перед многими коммерческими организациями встает задача добиться того, чтобы сайт компании показывался одним из первых в результатах поиска по заданным запросам.

Почему продвижение в поисковых системах выгодно коммерческим организациям?

1. Достаточно большой (в зависимости от запроса) размер потенциальной целевой аудитории

2. Предсказуемость интересов целевой аудитории (опять же в зависимости от запроса)

3. Возможность сегментировать и выделять целевую аудиторию по запросам.

4. Возможность оценивать эффективность продвижения (конверсию)

5. Низкая (относительно, в зависимости от запроса) стоимость продвижения, и, соответственно, привлечения новых клиентов.

Комплексное продвижение сайта в поисковых системах – это сложный процесс, который своим итогом должен принести высокие позиции сайта в выдаче поисковых систем по целевым запросам. Как правило, наличие конкуренции по большинству из них требует учета всех факторов, используемых поисковыми системами при ранжировании. Эти факторы можно условно разделить на "внутренние" и "внешние". К "внутренним" факторам относится все то, что, собственно, находится на продвигаемом сайте и не может быть изменено извне: страницы сайта, их содержимое и внутренняя перелинковка с другими страницами сайта (т.н. внутреннее ссылочное ранжирование). К внешним факторам продвижения относятся ссылки на сайт, установленные на других сайтах (т.н. внешнее ссылочное ранжирование).

В данной работе описаны основные принципы работы поисковых систем, наиболее типичные и часто применяемые способы и приемы продвижения сайта коммерческой организации в Поисковых системах, «внешние» и «внутренние» факторы, влияющие на ранжирование сайтов на страницах результатов поиска, а так же методы оценки их эффективности.

Таким образом, цель работы заключается в описании базовых принципов и технологий работы с поисковыми системами.

Задачи:

· Обоснование актуальности продвижения сайта в поисковых системах

· Описание принципов работы поисковых систем;

· Описание принципов, технологий и конкретных методов продвижения сайта в поисковых системах.

Объектом курсовой работы является задача продвижения компании в Интернете, а предметом – конкретные мероприятия и технологии.

Структура работы: состоит из введения, трех глав, заключения, приложения и списка литературы.

Первая глава посвящена истории развития поисковых технологий и поисковых систем.

Во второй представлено описание основных принципов алгоритма работы популярных поисковых систем Яндекс и Google.

Третья глава описывает основные технологии, а так же конкретные методы и приемы продвижения сайта коммерческой организации в поисковых системах.

1. Развитие поисковых технологий и поисковых систем

1. 1. Причины и история возникновения и развития поисковых систем

На начальном этапе развития интернета, число пользователей сети было невелико и количество информации относительно небольшим. В подавляющем большинстве случаев пользователями Интернет были сотрудники различных университетов или научных организаций. В то время поиск нужной информации в сети был не столь актуален, как теперь.

Одной из первых попыток организации доступа к информационным ресурсам сети стало создание тематических каталогов сайтов. Первым, открывшимся в апреле 1994 г, стал Yahoo. Это еще не было поисковой системой, в современном понимании, т.к. возможность поиска информации ограничивалась ресурсами, зарегистрированными в каталоге Yahoo.

Каталоги ссылок ранее использовались довольно широко, но в настоящее время практически утратили свою популярность. Объяснение этому очень простое – даже современные, содержащие огромное количество ресурсов каталоги, представляют информацию лишь о довольно незначительной части сети. Для сравнения - самый полный каталог сети интернет - DMOZ содержит информацию о примерно 12.000.000 ресурсов, в то время как база данных самой полной поисковой системы Google состоит из более чем 28.000.000.000 документов.

Первой полноценной поисковой системой в 1994г. стал проект WebCrawler. Далее в 1995 году появились поисковые системы AltaVista и Lycos.

В 1997 году в Стэнфордском университете, в рамках исследовательского проекта, была создана Google - самая популярная поисковая система на данный момент в мире.

В 1997 году появилась поисковая система - Yandex, лидер в русскоязычной части Интернета.

На данный момент основными поисковыми системами являются три международных – Google, Yahoo и MSN Search (теперь уже Bing). Остальные, коих не мало, используют целиком или частично базы и(или) алгоритмы выше приведенных систем.

В Рунете основной поисковой системой является Яндекс, далее по популярности идут Rambler, Google.ru, Mail.ru [9].

По оценке экспертов объем информации, передаваемой по каналам Интернет, удваивается каждые полгода. Ежедневно в сети появляются миллионы новых документов, и естественно, что без систем поиска они в подавляющем своем большинстве остались бы не востребованными.

Возникла необходимость создания таких средств, которые позволили бы легко ориентироваться в информационных ресурсах глобальных сетей, быстро и надежно находить нужные сведения. В интернете появились специальные поисковые средства. Еще несколько лет назад бытовало такое мнение: в Интернете есть все, но найти там ничего невозможно. Однако с появлением и быстрым развитием поисковых каталогов, поисковых машин, и всевозможных поисковых программ ситуация изменилась, и теперь в Сети срочно понадобившуюся информацию иногда можно найти быстрее, чем в книге, лежащей на столе.

Первоочередная задача любой поисковой системы – доставлять людям именно ту информацию, которую они ищут. Получая результат, пользователь оценивает работу системы, руководствуясь несколькими основными параметрами. Нашел ли он то, что искал? Если не нашел, то сколько раз ему пришлось перефразировать запрос, чтобы найти искомое? Насколько актуальную информацию он смог найти? Насколько быстро обрабатывала запрос поисковая машина? Насколько удобно были представлены результаты поиска? Был ли искомый результат первым или же сотым? Как много ненужного мусора было найдено наравне с полезной информацией? Найдется ли нужная информация, при обращении к поисковой системе, скажем, через неделю, или через месяц?

1. 2. Основные задачи поисковых систем

Задачи поисковых систем в современной интернет-экономике выглядят следующим образом:

1. Обеспечение релевантности поиска

Долго решение этой задачи по большинству запросов ведущим поисковым системам не удавалось. Так, были времена, когда обмануть поискового робота можно было также легко, как и поиск в Ворде. Эти времена прошли, впрочем, также как и времена отсутствия в Интернете конкуренции между коммерческими компаниями.

2. Обеспечение тематичности поиска

Поисковая система стремится, чтобы пользователь получал не только искомый документ, релевантный запросу, но и чтобы весь веб-сайт (хотя, что такое веб-сайт ходят споры, но обычно понимается отдельный домен) содержал в себе преимущественно информацию по искомому запросу. Например, сайт, посвященный “ремонту Iphone” (и только ему) будет выигрывать (по слову “ремонт iphone”) у сайта, который производит ремонт всех мобильных телефонов подряд, и так далее можно привести множество примеров, когда узкотематические сайты с небольшими ссылочными бюджетами обходят своих маститых конкурентов (с большим ассортиментом услуг или товаров).

3. Обеспечение разнообразия выдачи

Другой крайностью (по сравнению с тематичностью), является та, когда даже не то что машине, человеку не понятно, что же ищет пользователь является задача дать этому “заблудшему” пользователю максимально разнообразные результаты. Пусть пользователь выбирает, что ему по душе. Например, что ищет пользователь, который набирает фразу “ремонт” или “фото”. Ремонт стиральных машин, квартир, мобильных телефонов и т. д.? В идеале пользователю по таким (эти запросы называют “общие”) фразам должна выдаваться результаты из разных тематик. [10]

4. Уникальность выдаваемых результатов (главным образом текста).

Для проверки на уникальность используются различные алгоритмы, которые в различной степени “нагружают” поисковые системы. Уникальный текст, это текст, любой части которого (больше 9 слов подряд) нет в поисковой системе. Но он может присутствовать в Большой Ленинской Библиотеке (не в электронном виде). На тему уникальности контента можно рассуждать, довольно много. Соответственно если контент неуникальный, то он называется дублированным, и к такой странице или ко всему сайту применяется фильтр “ты последний”. [10]

5. Геотаргетивность выдачи

Очевидно, что пользователю, который ищет слово “заказ пиццы”, находясь во Владивостоке совершенно не подойдут сайты московских/питерских фирм (которые в силу высокой конкуренции всегда вытесняли региональные сайты). Яндекс Арзамас-Снежинск успешно справляется с региональной выдачей. А Google до сих пор не научился различать регионы, только крупные города России по региональности, и в этом плане у Яндекса есть преимущество.

6. Борьба с оптимизаторами .

С одной из точек зрения оптимизаторы помогают поисковым системам находить и правильно индексировать сайты. Под их давлением владельцы ресурсов улучшают для пользователей свои неэффективные сайты (поскольку обычно SEO-компании также занимаются разработкой). Давайте перечислим основные подзадачи борьбы Яндекса с оптимизаторами.

· Борьба с покупными ссылками

· Борьба с серыми методами продвижения

· Борьба с черными методами накрутки.

Первый пункт практически эквивалентен борьбе с биржей Sape. Хотя интересен тот факт, что ПС Яндекс по их выражению “не борется с Sape”, а борется с сайтами, которые превышают определенный лимит исходящих ссылок (подпадают под фильтр).

7. Влияние юзабилити на ранжирование

Очевидно, что хорошо бы, если в выдаче были не только релевантные сайты, но и УДОБНЫЕ. До последнего времени web-юзабилити (как отрасль IT) находилась “за бортом”, чтобы Дмитрий Сатин (UsabilityLab) не пытался вложить в наши умы: веб-юзабилити было и остается чем-то из разряда web-фитнеса. Говорят, как это хорошо, очень много людей (веб-разработчиков и иногда даже оптимизаторов), но реально занимаются им за деньги очень немногие. Т.е. бизнес пока не приветствует веб-юзабилити.

Будущими задачами ПС являются:

8. Персонализация поиска

9. Анализ действий пользователей на выдаче, анализ переходов по ссылкам

1. 3. Развитие современных поисковых технологий

Поисковые технологии развиваются быстрыми темпами (есть спрос, большая конкуренция): совершенствуется качество поиска, вводятся разные новые “фишки”, облегчающие процесс поиска, улучшающие визуальное представление найденной информации.

Развитие алгоритмов поисковой системы, ее аппаратной части должно идти в ногу со стремительно увеличивающимся объемом информации в Интернете. В соответствии с “характером времени” должен меняться и сам подход к поиску информации.

Так, например, если 10 лет назад результатом поиска был ответ (топ-10), то сейчас это уже исчерпывающий ответ (релевантные изображения, видеофайлы, актуальные новости, справочная информация, объект на карте, контекстные сервисы) . А так же предложение релевантной услуги, товара (понятие “синтетическая поисковая выдача”). [11]

Одним из условий развития поисковой системы (как показывает практика) становится ее интеграция с различными социальными сервисами (почта, фотографии, блоги, знакомства, интернет-телевидение и т.д.). “Всё в одном месте” - вот рецепт успеха. Этот рецепт и прописан на будущее. Будущее за мультипорталами – «копилками» пользователей, средой их общения.

Качество поисковой выдачи зависит как от эффективности реализованных в поисковой машине алгоритмов, так и от информативности проиндексированных поисковиком сайтов. Проблема информативности и полезности интернет-ресурса для пользователя (потребителя) - очень важна. В настоящее время в Сети “расплодилось” огромное количество спам-сайтов, сплогов, сателлитов для заработка и продвижения в поисковиках сайтов-акцепторов.

Поисковые системы “ответственны” за “информационную грязь” в Сети. Ради продвижения в поисковиках и создается “внешняя поддержка” (сателлиты, платные ссылки и прочее). Возможно, когда-нибудь придется радикально менять “поисковую политику” [5]

Поисковая система будущего должна быть независима от “негативной” seo-атаки. А SEO-принципы должны строиться, исходя из критерия “максимальной полезности для интернет-пользователей”.

Это все идеалы, реально же в условиях жесткой конкуренции в борьбе за попадание ТОП поисковой выдачи seo-действия порой носят “враждебный” характер по отношению к поисковым системам (”черная”, “серая” оптимизация) - прессинг запрещенными и рисковыми методами (тут хотелось бы заметить, что поисковый спам способствует эволюции поисковых систем.

Да, все, но выживает сильнейший… В нашем случае - на умении манипулировать и быть в ТОПе. Поисковая система же должна быть на стороне пользователя, потребителя (это ее хлеб). Тут тоже есть конкуренция, тем более в российском сегменте Интернета - Рунете (Яндекс и Google - 46,7% и 34% - распределение переходов с поисковых систем, соответственно) [8]

Идеальная поисковая система должна на запрос пользователя дать исчерпывающий ответ, учитывая максимальное количество факторов:

· географическое положение интернет-пользователя: например, неоднозначный поисковый запрос “ленинский район” для жителей Нижнего Новгорода и Минска должен по-разному формировать ТОП выдачи поисковой системы;

· историю запросов пользователя (интересы): так если человек интересуется музыкой, то запрос “премьер-министр” должен выдавать информацию о музыкальной группе, в приоритете;

· актуальность поискового запроса на информационном фоне: например, запрос “финансовый кризис в России” должен выдавать информацию о текущих проблемах в экономике и промышленности России, а не, скажем, кризисе 98-го;

· стандарты страны: вывод информации о температуре (в градусах Цельсия, Фаренгейта), весе (килограмм, фунт), расстоянии (километр, миля) и т.д.;

· языковые особенности;

· … и другие факторы.

Поисковая система будущего должна максимально облегчать пользователю формулировать запрос, опираясь на статистические данные:

· исправлять грамматические ошибки и очепятки опечатки (по статистике ошибки содержатся примерно в 15% слов в поисковых запросах);

· исправлять набор поискового запроса на другой раскладке клавиатуры;

· понимать синтаксис языка, запросы на естественном языке (например, поисковый запрос “козлов” - это фамилия, а не животное);

· понимать транслитерированные слова;

· распознавать сложные слова, набранные слитно;

· предупреждать о вирусах на найденных веб-страницах (сайтах).

Перечисленные функции уже реализованы в ведущих поисковых системах. Дело за улучшением. Выделим еще некоторые возможности.

· Подсказки при поиске (саджесты; от англ. suggest): на основе статистических данных поисковик предлагает наиболее популярные варианты по однословному запросу (можно выводить подсказки с учетом географического, событийного факторов).

· Показ основных разделов сайта (топ 1) для быстрой навигации. Можно улучшить, показывая только релевантные и нужные разделы (например, “о компании”, “контакты”).

· Поиск с возможностью автоматического перевода страниц на разные языки.

· Вертикальный поиск (англ. Vertical search) - рубрикация выдаваемого поисковиком контента - тема отдельного разговора.

· Понимание (и учет при выдаче) структуры новости, художественного текста и т.п.

· Отображение коротких ответов прямо на странице поисковой выдачи (ее называют “СЕРП”; на англ. SERP от Search Engine Result Page). Например, “прогноз погоды в Москве“, “столица Сирии”, “курс доллара за 3 месяца”, “1564+445″ - ответ или результат.

Активно ведутся работы по развитию семантического поиска (входит в концепцию Web 3.0, которую называют также “Semantic Web” - “Семантическая паутина”), основанного на использовании смыслового анализа текста документов. Один из примеров - Twine; при запросе USA сервис знает, что это название страны. Также упомяну Wolfram Alpha - интеллектуальную поисковую систему, предназначенную для вычисления связей между разнообразными фактами, данными.

Выше мы уже говорили об интеграции поисковика с различными социальными сервисами. А какую информацию полезную можно от этой интеграции получить? Именно персональную. А значит можно более эффективно подбирать поисковые ответы на запросы пользователя, опираясь на его интересы (личную информацию). Данное направление - персонализация поиска - вызывает много вопросов. Человек не хочет раскрывать свою личную информацию. У него должен быть выбор. Но несмотря на все спорные моменты, персонализация поисковых запросов ведет к улучшению поисковой выдачи, экономии времени пользователя. Персонализация ведет также к снижению seo-прессинга на поисковые алгоритмы. [9]

При разработке эффективных поисковых алгоритмов необходимо улучшать поисковую выдачу, опираясь на модные тенденции представления результата, до тех пор, пока люди пользуются услугами поисковой системы. Представление результата можно персонифицировать.
2. Общие принципы работы поисковых систем

2.1. Основные компоненты поисковой системы

Поисковые системы состоят из пяти отдельных программных компонент:

1. spider (паук): браузероподобная программа, которая скачивает веб-страницы.

2. crawler : «путешествующий» паук, который автоматически идет по всем ссылкам, найденным на странице.

3. indexer (индексатор): «слепая» программа, которая анализирует веб-страницы, скаченные пауками.

4. the database (база данных): хранилище скаченных и обработанных страниц.

5. search engine results engine (система выдачи результатов): извлекает результаты поиска из базы данных.

Spider: Паук – это программа, которая скачивает веб-страницы. Он работает точно как ваш браузер, когды вы соединяетесь с веб-сайтом и загружаете страницу. Паук не имеет никаких визуальных компонент. То же действие (скачивание) вы можете наблюдать, когда просматриваете некоторую страницу и когда выбираете «просмотр HTML-кода» в своем браузере.

Crawler: Как и паук скачивает страницы, он может «раздеть» страницу и найти все ссылки. Это его задача – определять, куда дальше должен идти паук, основываясь на ссылках или исходя из заранее заданного списка адресов.

Indexer: Индексатор разбирает страницу на различные ее части и анализирует их. Элементы типа заголовков страниц, заголовков, ссылок, текста, структурных элементов, элементов BOLD, ITALIC и других стилевых частей страницы вычленяются и анализируются.

Database: База данных – это хранилище всех данных, которые поисковая система скачивает и анализирует. Это часто требует огромных ресурсов.

Search Engine Results Engine: Главный программный компонент. Именно система выдачи результатов решает, какие страницы удовлетворяют запросу пользователя. Это та часть поисковой системы, с который вы имеете дело, осуществляя поиск. [2]

Когда пользователь вводит ключевое слово и делает поиск, поисковая система отбирает результаты на основании постоянно меняющихся критериев. Алгоритмом называется метод, по которому она принимает решение. Профессиональные оптимизаторы (SEO) иногда употребляют термин «algos» - это и есть то, о чем мы говорим.

Не смотря на то, что поисковые системы сильно изменились, большинство до сих пор отбирают результаты поиска на основании примерно следующих критериев:

· Title (заголовок): Присутствует ли ключевое слово в заголовке?

· Domain/URL (Домен/адрес): Присутствует ли ключевое слово в имени домена или в адресе страницы?

· Style (стиль): Жирный (STRONG или B), Курсив (EM или I), Заголовки HEAD: если место на странице, где ключевое слово использовано в жирных, курсивных или Hx (H1, H2,…) текстовых заголовках?

· Density (плотность): Как часто ключевое слово употреблено на странице? Количество ключевых слов относительно текста страницы называется плотностью ключевого слова.

· MetaInformation (мета данные): Хотя многие отрицают, некорые поисковые системы до сих пор читают мета ключевые слова (meta keywords) и мета описания (meta description).

· Outbound Links (ссылки наружу): На кого есть ссылки на странице и встречается ли ключевое слово в тесте ссылки?

· Inbound Links (внешние ссылки): Кто еще в Интернет имеет ссылку на данный сайт? Каков текст ссылки? Это называется «внестраничный» критерий, потому что автор страницы не всегда может им управлять.

· Insite Links (ссылки внутри страницы): На какие еще страницы данного сайта содержит ссылки эта страница?

Подробнее об алгоритме ранжирования результатов поиска в поисковых системах, а так же об основных факторах, влияющих на позиции сайта, рассказано в следующих 2 параграфах.

2.2. «Внутренние» факторы, влияющие на позиции сайта в результатах поиска

Все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. Внутренние факторы ранжирования – это те, которые находятся под контролем владельца веб-сайта (текст, оформление и т.д.).

1. Текстовое оформление веб-страниц

1.1. Объем текста на странице

Поисковики ценят сайты, богатые информационным содержанием. В общем случае следует стремиться к увеличению текстового наполнения сайта. Оптимальными следует считать страницы, содержащие 500-3000 слов или 2-20 кб. текста (от 2 до 20 тыс. символов). Кроме того, большее количество текста на странице увеличивает видимость страницы в поисковых системах за счет редких или случайных поисковых фраз, что в некоторых случаях может давать неплохой приток посетителей.

1.2. Число ключевых слов на странице

Ключевые слова (фразы) должны встречаться в тексте как минимум 3-4 раза. Верхняя граница зависит от общего объема страницы – чем больше общий объем, тем больше повторений можно сделать. Отдельно следует рассмотреть ситуацию с поисковыми фразами, то есть словосочетаниями из нескольких ключевых слов. Наилучшие результаты наблюдаются, если фраза встречается в тексте несколько раз именно как фраза (т.е. все слова вместе в нужном порядке), а кроме того, слова из фразы попадаются в тексте несколько раз поодиночке. Также должно существовать некоторое различие между числом вхождений каждого из слов, составляющих фразу.

1.3. Плотность ключевых слов

Плотность ключевого слова на странице показывает относительную частоту содержания слова в тексте. Плотность измеряется в процентах. Например, если заданное слово встретилось 5 раз на странице из 100 слов, то плотность этого слова равна 5%. Слишком низкая плотность приведет к тому, что поисковая система не придаст должного значения этому слову. Слишком высокая плотность способна включить спам-фильтр поисковой системы (то есть страница будет искусственно понижена в результатах поиска из-за чрезмерно частого употребления ключевой фразы). Оптимальной считается плотность ключевого текста 5-7%. В случае фраз, состоящих из нескольких слов, следует посчитать суммарную плотность всех ключевых слов, составляющих фразу и убедиться, что она укладывается в указанные пределы.

1.4. Расположение ключевых слов на странице

Очень короткое правило – чем ближе ключевое слово или фраза к началу документа, тем больший вес они получают в глазах поисковой системы.

1.5. Стилистическое оформление текста

Поисковые системы придают особое значение тексту, тем или иным способом выделенному на странице. В настоящее время использование css позволяет переопределить вид текста, выделенного этими тегами, поэтому использование тегов «H» имеет меньшее значение, чем раньше. Имеет смысл так же выделение ключевых слов на странице жирным шрифтом.

1.6. Тег «TITLE»

Один из наиболее важных тегов, которому поисковые системы придают огромное значение. Обязательно нужно использовать ключевые слова в теге TITLE.

1.7. Ключевые слова в тексте ссылок

Также очень простое правило – использование ключевых слов в тексте исходящих ссылок со страниц сайта (как на другие внутренние страницы этого же сайта, так и на другие ресурсы сети) может добавить небольшое преимущество при ранжировании.

1.8. Теги «ALT» изображений

Любое изображение на странице имеет специальный атрибут «альтернативный текст», который задается в теге «ALT». Этот текст будет отображен на экране в том случае, если скачать изображение не удалось или же показ изображений заблокирован в браузере. Поисковые системы запоминают значение тега ALT при разборе (индексации) страницы и используют его при ранжировании результатов поиска.

1.9. Мета-тег Desciption

Мета-тег Description специально предназначен для задания описания страницы. Этот тег никак не влияет на ранжирование, но, тем не менее, очень важен. Многие поисковые системы (и, в частности, крупнейшая Google) отображают информацию из этого тега в результатах поиска, если этот тег присутствует на странице и его содержимое соответствует содержимому страницы и поисковому запросу.

Поэтому грамотное составление мета-тега Description имеет большое значение. Описание должно быть кратким, но информативным и привлекательным, содержать ключевые слова, характерные для данной страницы.

1.10. Мета-тег Keywords

Этот мета-тег изначально предназначался для указания ключевых слов данной страницы. Однако в настоящее время он почти не используется поисковыми системами [7].

2. Структура сайта

2.1. Число страниц сайта

Общее правило – чем больше, тем лучше. Увеличение числа страниц сайта улучшает его видимость в поисковых системах. Кроме того, постепенное добавление новых информационных материалов на сайт воспринимается поисковыми системами как развитие сайта, что может дать дополнительные преимущества при ранжировании.

2.2. Навигационное меню

Как правило, любой сайт имеет навигационное меню. Использование ключевых слов в ссылках меню позволит придать дополнительный вес тем страницам, на которые ведет ссылка.

2.3. Ключевое слово в названии страницы

Использование ключевых слов в названии html-файла страницы может положительно сказаться на ее месте в результатах поиска. Естественно, это касается только англоязычных запросов.

2.5. Одна страница – одна ключевая фраза

Необходимо оптимизировать каждую страницу под свою собственную ключевую фразу. Иногда можно выбрать 2-3 родственных фразы, но не следует оптимизировать одну страницу под 5-10 фраз сразу, скорее всего результата не будет никакого.

2.6. Главная страница сайта

Особенно важна оптимизация главной страницы сайта под наиболее важные словосочетания. Эта страница имеет наибольшие шансы попасть в топ поисковых систем. [12]

2.3. «Внешние» факторы, влияющие на позиции сайта в результатах поиска

1. Для чего используется учет внешних ссылок на сайт

Как можно видеть из предыдущего раздела, почти все факторы, влияющие на ранжирование, находятся под контролем автора страницы. Таким образом, для поисковой системы становится невозможным отличить действительно качественный документ, от страницы, созданной специально под заданную поисковую фразу или даже страницы, сгенерированной роботом и вообще не несущей полезной информации. Поэтому одним из ключевых факторов при ранжировании страниц является анализ внешних ссылок на каждую оцениваемую страницу. Это единственный фактор, который неподконтролен автору сайта.

Логично предположить, что чем больше внешних ссылок имеется на сайт, тем больший интерес этот сайт представляет для посетителей. Если владельцы других сайтов в сети поставили ссылку на оцениваемый ресурс, значит, они считают этот ресурс достаточно качественным. Следуя этому критерию, поисковая система также может решить, какой вес придать тому или иному документу.

Таким образом, существует два основных фактора, по которым страницы, имеющиеся в базе поисковика, будут отсортированы при выдаче. Это релевантность (то есть, насколько рассматриваемая страница связана с темой запроса – факторы, описанные в предыдущем разделе) и число и качество внешних ссылок. Последний фактор также получил названия ссылочная цитируемость, ссылочная популярность или индекс цитирования. [6]

2. Важность ссылок (индекс цитируемости)

Легко увидеть, что простой подсчет числа внешних ссылок не дает нам достаточной информации для оценки сайта. Очевидно, что ссылка с сайта www.ARTLEBEDEV.ru должна значить гораздо больше, чем ссылка с домашней страницы www.denisbarabanov.ru/lost.html, поэтому сравнивать популярность сайтов лишь по числу внешних ссылок нельзя – необходимо учитывать также и важность ссылок.

Для оценки числа и качества внешних ссылок на сайт поисковые системы вводят понятие индекса цитирования. Индекс цитирования или ИЦ - это общее обозначение численных показателей, оценивающих популярность того или иного ресурса, то есть некоторое абсолютное значение важности страницы. Каждая поисковая система использует свои алгоритмы для подсчета собственного индекса цитирования, как правило, эти значения нигде не публикуются

Помимо обыкновенного индекса цитирования, который представляет собой абсолютный показатель (то есть некоторое конкретное число), вводится термин взвешенный индекс цитирования, который является относительным значением, то есть показывает популярность данной страницы относительно популярности остальных страниц в Интернет. Термин "взвешенный индекс цитирования" (ВИЦ) обычно употребляют в отношении поисковой системы Яндекс. [7]

3. Ссылочный текст

Огромное значение при ранжировании результатов поиска придается тексту внешних ссылок на сайт. Текст ссылки (или по другому якорный или ссылочный текст) – это текст, стоящий между тегами <A>» и </A>, то есть тот текст, по которому можно “кликнуть” указателем мыши в браузере для перехода на новую страницу.

Если текст ссылки содержит нужные ключевые слова, то поисковая система воспринимает это как дополнительную и очень важную рекомендацию, подтверждение того, что сайт действительно содержит ценную информацию, соответствующую теме поискового запроса.

4. Релевантность ссылающихся страниц

Кроме ссылочного текста учитывается также общее информационное содержимое ссылающейся страницы.

5. Google PageRank – теоретические основы

Первыми, кто запатентовал систему учета внешних ссылок стала компания Google. Алгоритм получил название PageRank. В этой главе мы расскажем об этом алгоритме и о том, как он может влиять на ранжирование результатов поиска.

PageRank рассчитывается для каждой веб-страницы отдельно, и определяется PageRank’ом (цитируемостью) ссылающихся на нее страниц. Своего рода замкнутый круг. Главная задача заключается в том, чтобы найти критерий, выражающий важность страницы. В случае с PageRank таким критерием была выбрана теоретическая посещаемость страницы.

Рассмотрим модель путешествия пользователя по сети путем перехода по ссылкам. Предполагается, что пользователь начинает просмотр сайтов с некоторой случайно выбранной страницы. Затем по ссылкам он переходит на другие ресурсы. При этом есть вероятность того, что посетитель покинет сайт и вновь начнет просмотр документов со случайной страницы (в алгоритме PageRank вероятность такого действия принята 0.15 на каждом шаге). Соответственно, с вероятностью 0.85 он продолжит путешествие, перейдя по одной из доступных на текущей странице ссылок (все ссылки при этом равноправны). Продолжая путешествие до бесконечности, он побывает на популярных страницах много раз, а на малоизвестных - меньше.

Таким образом, PageRank веб-страницы определяется как вероятность нахождения пользователя на данной веб-странице; при этом сумма вероятностей по всем веб-страницам сети равна единице, так как пользователь обязательно находится на какой-либо странице. Поскольку оперировать вероятностями не всегда удобно, то после ряда преобразований с PageRank можно работать в виде конкретных чисел (как, например, мы привыкли видеть его в Google ToolBar, где каждая страница имеет PageRank от 0 до 10).

Согласно описанной выше модели получаем, что:

- каждая страница в сети (даже если на нее нет внешних ссылок) изначально имеет ненулевой PageRank (хотя и очень маленький);

- каждая страница, имеющая исходящие ссылки, передает часть своего PageRank страницам, на которые ссылается. При этом переданный PageRank обратно пропорционален числу ссылок на странице – чем больше ссылок, тем меньший PageRank передается по каждой;

- PageRank передается не полностью, на каждом шаге происходит затухание (та самая вероятность 15%, когда пользователь начинает просмотр с новой, случайно выбранной, страницы).

Рассмотрим теперь, каким образом PageRank может влиять на ранжирование результатов поиска (говорим «может», так как в чистом виде PageRank уже давно не участвует в алгоритме Google, как это было раньше, но об этом ниже). С влиянием PageRank все обстоит очень просто – после того как поисковая система нашла ряд релевантных документов (используя текстовые критерии), отсортировать их можно согласно PageRank – так как логично будет предположить, что документ, имеющий большее число качественных внешних ссылок, содержит наиболее ценную информацию.

Таким образом, алгоритм PageRank "вытесняет" наверх в поиске те документы, которые и без поисковика наиболее популярны. [2]

6. ТИЦ и ВИЦ Яндекс

ВИЦ – взвешенный индекс цитирования – аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.

ТИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов. [7]

2.3. Алгоритм ранжирования результатов поиска

Алгоритм ранжирования поисковой системы определяет, какой документ из базы данных (в данном случае какая интернет страница) будет находиться на первом и последующих местах поисковой выдачи, по заданному ключевому запросу пользователя. Для каждой популярной поисковой машины разрабатывается свой собственный алгоритм ранжирования, а точная формула и вес всех факторов влияющих на выдачу держится в секрете и является главной коммерческой тайной поисковика.

Не смотря на желание программистов и разработчиков поисковой машины скрыть точную формулу ранжирования, так или иначе, оказывается возможным определить факторы влияющие на положение сайта в выдаче. Воздействуя на эти факторы можно улучшить позиции по нескольким ключевым запросам, в результатах поиска по базе данных поисковика.

Одна из задач оптимизации, как раз, и состоит в том, чтобы максимально эффективно влиять на алгоритм с целью улучшений позиций (многие считают это даже основной целью поискового продвижения сайта).

Основную идею, почему программисты ведущих поисковых систем, таких как Яндекс, Гугл и Рамблер не раскрывают формулы ранжирования можно понять как забота о качестве поисковой выдачи. Если большое число вебмастеров смогут высокоточно воздействовать на алгоритм, ты выдача по многим неоднозначным запросам будет сильно подвержена SEO-прессингу. Под SEO-прессингом понимается подавляющее число однообразных сайтов в выдаче в ответ на неоднозначный информационный пользовательский запрос.

Примером такого информационного запроса может служить запрос «дизайн», «дерево», «автомашина» и другие. Лучшей выдачей на такие запросы, было бы присутствие в первой десятке сайтов из различных отраслей и категорий знаний. Так, в ответ на «автомобиль» поисковик «должен» выдать сайты об истории автомашин, конструкции автомашин, продаже автомобилей, современных тенденциям в автомобилестроении и школу обучения вождению на автомашине.

Взамен на такое разнообразие категорий, часто выдаётся десятка однообразных сайтов о продаже и покупке новых и б/ю автомобилей. Это связано с коммерческой окупаемостью вложений в продвижение, именно в этой области (проекты об истории и науках не являются коммерческими и их продвижение в поисковиках крайне ограничено).

Конечно, помимо заботы о пользователях поисковых систем, алгоритм также не раскрывается и по причине заботы об уникальности поисковика и не желанию раскрывать все аспекты поиска конкурентам. На российском рынке поиска, поисковики-гиганты которыми являются Яндекс и Гугл постепенно вытесняют с рынка меньшие. Так, Рамблер потерял за год более половины своей поисковой аудитории. [5]

Яндекс и региональная формула ранжирования

Время от времени поисковые системы изменяют алгоритм ранжирования. Это может быть как небольшое изменение действующих весов факторов, так и внесение кардинальных изменений в формулу. Ведущая поисковая система в России сейчас активно вводит региональную формулу выдачи веб-документов. Это значит, что в зависимости от места вашего нахождения, вам будет предложена различная выдача. Помимо того, может применять одна из двух формул ранжирования, это либо региональная формула, либо общая формула. Какая из формул будет применяться, можно понять из Рис.2.

Этот принцип лежит в основе работы алгоритма Арзамас поисковой системы Яндекс, отличительная черта его работы это локальные результаты поиска. Сейчас региональная формула используется для ранжирования результатов по гео-зависимым запросам в Санкт-Петербурге, Екатеринбурге, Новосибирске, Красноярске, Омске, Ростове-на-Дону, Краснодаре, Нижнем Новгороде, Уфе, Перми, Казани, Самаре, Челябинске, Владивостоке, Кемерово, Иркутске, Барнауле и Воронеже. Таким образом, Яндекс расширяет список регионом где действует региональная формула.

Этот принцип лежит в основе работы алгоритма Арзамас поисковой системы Яндекс, отличительная черта его работы это локальные результаты поиска. Сейчас региональная формула используется для ранжирования результатов по гео-зависимым запросам в Санкт-Петербурге, Екатеринбурге, Новосибирске, Красноярске, Омске, Ростове-на-Дону, Краснодаре, Нижнем Новгороде, Уфе, Перми, Казани, Самаре, Челябинске, Владивостоке, Кемерово, Иркутске, Барнауле и Воронеже. Таким образом, Яндекс расширяет список регионом где действует региональная формула [19]

3. Продвижение сайтов в поисковых системах

3.1. Определение и актуальность продвижения в поисковых системах

«Продвижение в поисковых системах» или «поисковая оптимизация» (англ. search engine optimization, SEO) — комплекс мер для поднятия позиций сайта в результатах выдачи поисковых систем по определенным запросам пользователей. Обычно, чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей переходит на него с поисковых систем. При анализе эффективности поисковой оптимизации оценивается стоимость целевого посетителя с учетом времени вывода сайта на указанные позиции и конверсии сайта, на который привлекаются целевые посетители. [12]

Данная группа методов и технологий продвижения компании в Интернете уже несколько лет переживает настоящий бум. Причиной тому стали следующие обстоятельства.

· Рост количества пользователей сети Интернет. И, как следствие увеличение аудитории Поисковых систем (смотрите приложение А).

· Увеличение общего числа страниц в Интернете и, соответственно, объема информации и сервисов, полезных пользователям (смотрите приложение А).

· Повышение уровня доверия к Интернету, как к источнику полезной для бизнеса информации.

· Улучшение качества информации, ее представления, удобства и сервиса сайтов для пользователей.

Суть деятельности по продвижению сайта компании в поисковых системах заключается в том, что оптимизатор, зная внешние и внутренние факторы, от которых зависят позиции сайта (смотрите параграфы 2.2 и 2.3) в данной поисковой системе по заданному запросу, прямо или косвенно изменяет их для достижения как можно более высокой позиции сайта в результатах поиска по этому запросу, а так же в выявлении наиболее значимых и легко изменяемых факторов, влияющих на позиции сайта в поисковой выдаче.

3.2. Различные взгляды на деятельность по продвижению в поисковых системах

Существует два противоположных взгляда на оптимизацию сайта для поисковых систем:

Консервативный взгляд:

Любая деятельность по продвижению, формально, незаконна, так как нарушает «соглашение пользователя» любой из основных поисковых системы, где сказано о том, что «намеренное» изменение результатов поисковой выдачи является нарушением данного соглашения. Согласно этой точке зрения, сайты должны создаваться для людей, а не для поисковых систем, которые, в свою очередь, должны объективно и непредвзято оценивать качество каждого из сайтов, предоставляя пользователю именно ту информацию, которую он ищет (смотрите главу 1.2).

В пользу этой точки зрения говорит засилье «продающих» сайтов в результатах поиска по самым популярным и коммерчески выгодным запросам (таким, как ремонт, квартира, авто и прочим). Продающие сайты, как правило, не удовлетворяют запросу пользователя, так как перед сайтом стоит задача продать свой товар, а не предоставить пользователю интересующую его информацию. Причиной этому является деятельность по оптимизации, на которую владельцы коммерческих организации вкладывают значительные средства для продвижение своих сайтов по коммерчески интересным, «продающим» запросам.

Прогрессивный взгляд:

Оптимизация не является попыткой обмануть поисковую систему, более того, оптимизация помогает поисковым системам легче находить, сортировать и оценивать web-страницы. Согласно этой точке зрения, деятельность по оптимизации является своеобразным «взаимодействием» между поисковой системы и владельца сайта в ходе которого владелец сайта получает целевую аудиторию на свой сайт, а поисковая система – информацию о сайте для его правильного представления в результатах поиска. Не в пользу этой точки зрения говорит российская действительность, где оптимизатор для поисковой системы скорее враг, чем друг.

3.3. Выбор ключевых слов

Подбор ключевых слов – это первый шаг, с которого начинается построение сайта. На момент подготовки текстов на сайт набор ключевых слов уже должен быть известен. Для определения ключевых слов прежде всего следует воспользоваться сервисами, которые предлагают сами поисковые системы. Для англоязычных сайтов это www.wordtracker.com и inventory.overture.com . Для русскоязычных adstat.rambler.ru/wrds/, direct.yandex.ru и stat.go.mail.ru

При использовании этих сервисов нужно помнить, что их данные могут очень сильно отличаться от реальной картины. При использовании сервиса Yandex Директ следует также помнить, что этот сервис показывает не ожидаемое число запросов, а ожидаемое число показов рекламного объявления по заданной фразе. Поскольку посетители поисковой системы часто просматривают более одной страницы, то реальное число запросов обязательно меньше числа показов рекламы по тому же запросу.

Поисковая система Google не дает информации о частоте запросов.

Высокочастотные и низкочастотные запросы

При оптимизации сайта можно выделить две стратегии – оптимизация под малое число высокопопулярных ключевых слов, либо под большое число малопопулярных. На практике обычно сочетаются обе. Недостаток высокочастотных запросов – как правило, высокий уровень конкуренции по ним. Для молодого сайта не всегда бывает возможно подняться в топ по этим запросам. Для низкочастотных же запросов, часто бывает достаточным упоминание нужного словосочетания на странице, либо минимальной текстовой оптимизации. При определенных условиях низкочастотные запросы могут давать очень неплохой поисковый трафик.

Цель большинства коммерческих сайтов – продать тот или иной товар или услугу, либо каким-то другим способом заработать на своих посетителях. Это нужно учитывать при поисковой оптимизации и при подборе ключевых слов. Нужно стремиться получать целевых посетителей на сайт (то есть готовых к покупке предлагаемого товара или услуги), нежели просто к большому числу посетителей.

Оценка уровня конкуренции поисковых запросов

После того, как набор ключевых слов приблизительно известен, следует определить основное ядро слов, под которые будет проводиться оптимизация.

Низкочастотные запросы по понятным причинам отбрасываются сразу (временно). В предыдущем разделе мы описали пользу от низкочастотных запросов, однако на то они и низкочастотные, что не требуют особой оптимизации. Поэтому в данном разделе мы их не рассматриваем.

По очень популярным фразам уровень конкуренции как правило очень высок, поэтому нужно реально оценить возможности своего сайта. Для оценки уровня конкуренции следует подсчитать ряд показателей для первой десятки сайтов в выдаче поисковика:

· средний PageRank страниц в выдаче;

· средний ТИЦ сайтов, чьи страницы попали в выдачу;

· среднее число внешних ссылок на сайты в выдаче по версии различных поисковых систем;

Дополнительные параметры:

· число страниц в Интернете, содержащих заданный поисковый термин (другими словами число результатов поиска);

· число страниц в Интернете, содержащих точное совпадение заданной фразы (как при поиске в кавычках).

Эти дополнительные параметры помогут косвенно оценить сложность вывода сайта в топ по заданной фразе. Кроме описанных параметров, можно также проверить какое число сайтов из выдачи присутствуют в основных каталогах, таких как каталоги DMOZ, Yahoo и Yandex. Анализ всех указанных выше параметров и сравнение их с параметрами собственного сайта позволят достаточно четко предсказать перспективы вывода вашего сайта в топ по указанной фразе. Оценив уровень конкуренции по всем подобранным фразам, можно выбрать ряд достаточно популярных фраз с приемлемым уровнем конкуренции, на которые и будет сделана основная ставка при раскрутке и оптимизации. [13]

3. 4. «Серые» технологии продвижения в поисковых системах

К «серым» технологиям раскрутки сайтов относятся методы раскрутки сайтов, запрещенные поисковыми машинами для использования, но не выглядящие таковыми при ближайшем рассмотрении (замаскированный спамдексинг).

Наиболее популярны на сегодняшний день следующие «серые» технологии раскрутки сайтов:

· использование ферм ссылок (ресурсы FFA или free for all), на которых, как правило, вместо нормального контента находится только огромное количество ссылок и никакого полезного содержимого;

· использование колец сайтов, когда каждый сайт-участник кольца ссылается на всех остальных участников для повышения индекса цитируемости сайтов;

Некоторые поисковые машины считают спамом использование сервисов по раскрутке, подобных линкатору (lincator.ru);

Спамом считается и покупка ссылок на других сайтах для повышения индекса цитируемости сайта, однако это практически недоказуемо, а посему пока безопасно.

Серые технологии могут дать очень быстрый, по сравнению с белыми, результат, но они работают очень недолго и опасны баном (удаление из выдачи поисковых машин) для отдельных страниц или всего сайта.

Некоторые сайты все же "благополучно" используют эти методы, однако никто не даст гарантий, что уже завтра сайт не попадет в бан , и им не придется начинать все сначала.

Поисковые машины движутся в направлении увеличения сложности своих алгоритмов и все успешнее справляются с выявлением сайтов, использующих спамдексинг.

Белые методы раскрутки сайта работают намного медленнее, по причине необходимости затраты больших усилий на продвижение, но они надежны и дают стабильность и уверенность в завтрашнем дне. [5]

Заключение

Целью этой работы было теоретическое исследование базовых принципов работы поисковых систем, «внешних» и «внутренних факторов», влияющих на позиции сайта в результатах поиска, а так же изучение основных принципов продвижения сайта компании в поисковых системах за счет изменения этих «внешних» и «внутренних» фактов. В данной работе достаточно подробно и детально изучен и описан алгоритм ранжирования результатов поиска, описаны различные факторы, влияющие на позиции сайтов, а так же освещены основные моменты оптимизации сайтов для поисковых систем.

Первоначальная цель и замысел исследовать поисковые системы в Интернете, воспринимая их как виртуальное воплощение реальных (офлайновых) рекламных площадок, дал неожиданные результаты. Оказалось, что продвижение в поисковых системах далеко не во всем соответствует той системе коммуникаций, которую принято использовать для обычной рекламы (СМИ, наружная реклама и проч.), представляя во многом самостоятельную и уникальную форму эффективной коммуникации, которую ещё только предстоит изучать и развивать.

Сегодня объём мировой Сети составляет миллиарды страниц и увеличивается на 1.5 млн. страниц ЕЖЕДНЕВНО. Применение Интернета в развитых странах (США, Западная Европа и т.п.) ориентировано преимущественно на коммерцию (продвижение товаров), в то время как в России Интернет выполняет преимущественно информационную функцию (политика и новости). Это связано как с отличием круга реальных пользователей сетевых сервисов, так и с особенностями менталитета населения различных государств. Хотя, продвижение к использованию Интернет в России в области коммерции также заметно. Трудно представить сейчас какую-либо крупную компанию, не имеющую своего представительства в сети Интернет.

Разумеется, существует множество других способов продвижения компании и её сайт в Интернете, однако, напомним, что в среднем около 80% посетителей приходят или могут прийти на сайт из поисковых систем. [2]

Важно помнить о том, что поисковые алгоритмы засекречены. Никто точно не знает, что именно учитывает поисковый алгоритм, на какие факторы обращает внимание. Каждая поисковая система использует индивидуальную систему фильтрации спама, и у каждой поисковой системы свое собственное видение спама. Еще одна причина, объясняющая различия между поисковыми системами, - широкое использование технологии фильтрации спама. Некоторые поисковые системы вносят изменения в свои алгоритмы специально для включения определенных фильтров.

Можно смело сделать вывод, что попытка рассчитать точные формулы работы алгоритмов поисковых систем не увенчается успехом, это пустая трата времени, которое логичнее и разумнее всего направить на изучение основополагающих принципов функционирования поисковых систем. Алгоритм работы любой поисковой системы является запатентованной технологией и коммерческой тайной компании.

Не смотря ни на что, результатом грамотной оптимизации всегда становится увеличение посещаемости сайта благодаря притоку клиентов поисковых систем. Мы уже выяснили, что главная особенность таких посетителей – наличие у них заинтересованности в содержании вашего сайта еще до его посещения. Если ваш сайт представляет собой Интернет-магазин - значит, это потенциальные покупатели. Если сайт представляет собой форум, значит, эти люди интересуются его темой и готовы принять участие в дискуссиях. Если сайт представляет собой новостной портал, то посетители из поисковиков, найдя интересующие их новости, могут стать частыми гостями вашего сайта. [14]
Список используемой литературы

Книги, монографии и брошюры в том числе:

Книги одного, двух и более авторов

1. Ашманов И. С., Породвижение сайта в поисковых системах. 2007 г.

2. Ашманов И., Иванов А. , Продвижение сайтов поисковых системах, 2009

3. Бокарев Т.А. Способы продвижения компании в сети Интернет Маркетинг и маркетинговые исследования, - 2009. - № 4.

4. Галкин С. Е. Бизнес в Интернет. — М: «Центр», 2008 г.

5. Гурьев Д.А. , Царик С.Г., «Поисковое продвижение шаг за шагом», 2007

6. Евдокимов Николай , «Основы контентной оптимизации» , 2006 г.

7. Зуев М.Б., Маурус П.А., Прокофьев А.Г. , «Продвижение сайтов в поисковых системах. Спасательный круг для малого бизнеса», , 2006

8. Кириллов А. С. , «Поисковые системы изнутри», Журнал "КомпьютерПресс", 2, 2010 г.

9. Колесниченко Д. А. , «Поисковые системы и продвижение сайтов в Интернете» 2007 г.

10. Масленников Р. , «Супер Диджей: краткий курс по раскрутке», 2009 г.

11. Нагайцев В. , «Ключ к продвижению», 2009 г.

12. Севостьянов И. А. , «Поисковая оптимизация. Практическое руководство по продвижению сайта в Интернете», 2010 г.

13. Шэри Тероу , «Видимость в Интернете. Поисковая оптимизация сайтов», 2009

14. Яковлев А., Ткачев В. , «Раскрутка сайтов. Основы, секреты, трюки», 2010

Интернет-источники

15. Сайт и форум http://searchengines.ru/

16. Сайт http://optimization.ru/ (Ашманов И. С.)

17. Сайт http://habrahabr.ru/ (блог «Поисковая оптимизация»)

18. Сайт http://proceo.ru/

19. Справочная и техническая информация с сайтов http://www.yandex.ru/

20. Справочная и техническая информация с сайтов http://www.google.ru/

Статьи в том числе:

Источники из журналов

21. Статья «Оптимизация сайта для поисковых систем», "Компьютерра" №22, Петренко А., от 17 июля 2008 г.

22. Статья «Поиск в Рунете: кто кого», "Компьютерра-онлайн", Письменный А., от 11 февраля 2008 г.

23. Журнал SEO Дайджест http://www.seodigest.ru/

24. Журнал eSeo http://eseo.ru/


Приложение А

1. Рост количества пользователей сети Интернет. И, как следствие увеличение аудитории Поисковых систем.

2. Увеличение общего числа страниц в Интернете и, соответственно, объема информации и сервисов, полезных пользователям.