Мобильная версия CCleaner

Оптимизаторы Системы

В начало
Содержание
Глава 1. Философия современного интернет-продвижения
1.2 Жизнь в Матрице
1.3 Какие сайты поддаются раскрутке.
1.4 Способы монетизации сайта
1.5 Кто будет продвигать сайт - самостоятельно, фрилансер, фирма?
1.6 По поводу гарантий в SEOПоисковые системы против оптимизаторов
История отношений поисковых систем и seo-специалистов напоминает извечную проблему создания брони, защищающей от пушек, и вслед за этим создания новых пушек, пробивающих усовершенствованную броню.

Когда-то давно Интернет был совсем маленьким :-) и не представлял коммерческого интереса. Доступ к сети был только у университетов и использовался он больше в исследовательских и научных целях, а также для быстрого обмена информацией.


Этап 1. Изначально для целей поиска информации был предназначен мета-тег Keywords. Именно там записывались ключевые слова, описывающие собственно информационный материал, и по ним в дальнейшем можно было проводить поиск. Это еще не было полноценным решением, а скорее напоминало поиск по карточкам или по названию книг в библиотеке.

Как вы понимаете, использование этого мета-тега быстро исчерпало себя. Keywords не давал никакой возможности отсортировать материалы в порядке важности, что создавало очевидную проблему в случае, если по заданной фразе находилось несколько десятков документов.

Этап 2. После этого и появился собственно настоящий, полнотекстовый поиск. Поисковики стали оценивать текст материала, а также html-оформление. Фразы, выделенные жирным шрифтом или тегами H заголовков, считались более важными. Поисковые системы начали сортировать результаты по релевантности – т.е. старались высоко ранжировать (показывать первыми в результатах) страницы, максимально соответствующие заданной ключевой фразе.

Оптимизаторы ответили на это появлением целой новой профессии – seo-копирайтинга. Интернет стал заполняться тысячами и тысячами новых статей, написанных правильным языком и вроде бы дающими подробный ответ на тот или иной вопрос. Но по сути большая часть этих текстов не несла никакой реально полезной смысловой информации, а создавалась лишь для получения высоких позиций в выдаче.

Это был период, когда на всех seo-форумах бурно обсуждались вопросы об идеальной процентной плотности ключевых слов, количестве прямых вхождений заданной фразы в текст материала, количестве выделений жирным шрифтом и т.п.

Этап 3. Принципиальный шаг к решению этой проблемы совершила компания Google, введя понятие ссылочной цитируемости. Допустим, имеется две схожих страницы, одинаково полно отвечающих на заданный вопрос. Анализ текста не позволяет выявить, какая из этих страниц лучше – обе идеально соответствуют заданной теме.

В основу нового алгоритма легла идея, что лучшей является та страница, на которую больше ссылаются другие сайты. Это и понятно – если на некоторую информацию есть ссылки с других ресурсов, пользователи и вебмастера рекомендуют ее другим людям – значит эта информация полезна. И напротив, если текст вроде бы хороший, но никто его не рекомендует для прочтения – значит реальной пользы от этого материала нет.

Учитывалось не только количество ссылок, но и важность самих ссылающихся страниц («голос» с сайта CNN явно более весом, чем голос с домашней страницы Васи Пупкина).

Что почитать?
Расказать о статье друзьям

Похожие статьи

Повысить Производительность Ноутбука

Повысить Производительность Ноутбука

MAY 24, 2017

Номер статьи (ID) 300550 Применимо к играм: Следующие советы могут помочь Вам повысить производительность на ноутбуках. Если…

Читать далее
Программы для Разгона Пк

Программы для Разгона Пк

MAY 24, 2017

Программы и утилиты для тонкой настройки операционной системы, процессора, графики, памяти, накопителей всегда были популярны…

Читать далее