Для чего были созданы ссылки
Первоначально в интернете гиперссылки были созданы для целей навигации. И они блестяще выполняли эту задачу. Позже, с развитием поисковых систем, с легкой руки Google , взявшей на вооружение метод ученых, которые использовали для оценки своих трудов не только их истинную ценность, но также отзывы других ученых, ссылки стали использовать как дополнительный фактор оценки ценности сайтов.
Вначале это казалось очень эффективным и популярность Google взлетела к небесам. В мгновение ока он превратился в лидера поисковых систем. Использование ссылочных факторов в определении ценности сайтов быстро достигло планетарного масштаба. И пошло, поехало. Веб мастера быстро сообразили, что теперь для того, чтобы поисковые системы предпочли их сайт сайтам конкурентов, не обязательно заботиться только о реальной ценности материалов, приведенных на сайте.
Вместо этого надо заполучить как можно больше ссылок на свой сайт со стороны других веб мастеров. Многие веб мастера тут же использовали это и, вместо усовершенствования своих творений, стали улучшать позиции своих сайтов с помощью ссылочного ранжирования, т.е., увеличения ссылок на свой сайт.
Оказалось, что влияние алгоритмов ссылочного ранжирования. заложенных в алгоритм оценки релевантности сайта поисковому запросу в поисковой системе Google, а затем и в алгоритмы остальных популярных поисковых систем, беспрерывно возрастает с увеличением количества ссылок и ограничено только количеством сайтов, имеющихся в базах поисковиков. Т.е., влияние ссылочных факторов может достичь и даже значительно превзойти влияние внутренних страничных факторов.
Возникает парадоксальное явление, когда в ответ на запрос пользователя поисковая система на первое место выдает сайты, вообще не содержащие поисковой фразы. Т.е., она конечно есть — присутствует во множестве ссылок на сайт.
История повторяется
Как ранее поисковая оптимизация, ссылочное ранжирование стремительно превратилось в целую индустрию с большими доходами. Множество сайтов стали оказывать услуги по поиску авторов, готовых обменяться ссылками. Качество поиска, в результате всех этих искусственных накруток, падало, что вызывало у пользователей интернета справедливое раздражение и недовольство работой поисковых систем.
Вначале разработчики поисковых систем не задумывались о том, какой масштаб приобретет поисковая оптимизация и разрабатывали алгоритмы оценки сайтов без учета этого фактора, наивно полагая, что веб мастера будут заниматься, главным образом, копирайтингом, наполнением сайтов. Ссылочное ранжирование было применено в надежде нейтрализовать вредное влияние поисковой оптимизации, побудить авторов сайтов заняться своим основным делом — созданием ценного контента.
Как всегда, это действовало некоторое время, пока ряд веб мастеров не вывели свои сайты на первые места в ранжировании за счет накопления большого количества ссылок на свой ресурс, что вынудило всех остальных авторов также заняться ссылочным ранжированием, чтобы не остаться далеко позади.
Смогут ли поисковики отбиться от оптимизаторов?
Похоже на то, что этим раундам поединка между разработчиками поисковых машин и оптимизаторами не будет конца. Поисковые системы ведут постоянное совершенствование и усложнение алгоритмов поиска, но действия оптимизаторов быстро нейтрализуют их нововведения. Считают, что в настоящее время поисковиками применяется уже не менее 80 критериев оценки сайтов, но я считаю, что реально их намного больше.
Понятно, что учесть все эти факторы при проведении оптимизации становится все трудней и не под силу рядовому автору, поэтому в настоящее время побеждают бюджетные сайты, которые в состоянии заплатить за раскрутку профессиональным оптимизаторам. Для начинающих авторов, знающих, в основном, только свое дело, складывается довольно безнадежная, безрадостная картина, даже если информация на его сайте уникальна.
И действительно, если он посмотрит в лог-файлах на то, какой процент посещений приходит с поисковых систем, тос разочарованием обнаружит, что их доля весьма невелика. Все забирает небольшая кучка раскрученных сайтов. Если Вы посмотрите на рейтинги, Вы увидите, что за пределами нескольких первых страниц находится почти вся остальная масса сайтов практически с нулевой посещаемостью.
Такой расклад резко снижает заинтересованность большинства веб мастеров иметь свой сайт. Остается надеяться, что дальнейшее усложнение алгоритмов оценки сайтов превратит задачу оптимизации в непосильную задачу даже для профессиональных оптимизаторов. Тогда никто не станет обращаться к их услугам, авторы займутся содержанием своих сайтов, и они вновь начнут оцениваться не по искусственно созданным факторам, а по их реальной ценности.
Как быть рядовым веб мастерам?
На мой взгляд, начинающему веб мастеру сильно надеяться на поисковое продвижение не приходится. Конечно, он может, со временем, значительно улучшить свои позиции, уделяя много внимания поисковой оптимизации и ссылочному ранжирования, но затратит на это непомерное количество усилий, да и средств, необходимых для поиска и скачивания из интернета хороших статей о раскрутке.
А таких статей крайне мало. Большинство из имеющихся статей предлагают устаревшие рецепты, которые уже давно не действуют. Например, до сих пор каждый автор не преминет описать метатег keywords, хотя влияние его в настоящее время ничтожно, если вообще есть. Не стоит даже голову забивать этим. В наше время остается эффективной регистрация в каталогах, не говоря уже о регистрации в поисковиках — это просто необходимо.
Остается довольно демократичным привлечение посетителей на сайт с помощью досок объявлений. Результативно продвижение сайтов с помощью публикации статей в высоко посещаемых ресурсах и использование рассылок. И конечно, следует постоянно заниматься контентом.
По моему мнению, поисковые системы уже сейчас отличают хороший контент от плохого довольно неплохо, во всяком случае, разработчики ведущих поисковых систем сейчас ведут большую работу по повышению их интеллектуальности, поэтому, будем надеяться, что будущее все же за сайтами с хорошим контентом.