Главное меню:
Автор | Сообщение |
Leksandr0
Сообщения: 188
Город: 0 Профессия: Возраст: 48 |
#1 19.06.2015 19:37 Интернет дает огромные возможности для бизнеса. Даже далекие от высоких технологий люди сегодня предпринимают попытки организовать какой-нибудь проект в глобальной сети, конечно, с прицелом на стабильный доход. Идеи этих проектов - самые разные, но общее у них одно - им требуются посетители, желательно - с деньгами. Посетители не тараканы - сами не заведутся. Зато они могут прийти с поисковых сервисов, “нагуглив” или “наяндексив” искомый сайт по какому-либо запросу. К сожалению, практика показывает, что для более-менее этого сайт должен присутствовать на первой (максимум - второй) странице поисковой выдачи. Далее избалованные интернет-серферы заходят только в исключительных случаях.
Этот текст предназначен, в основном, для будущих и настоящих владельцев интернет-проектов (магазинов, сервисов, корпоративных сайтов), дабы разьяснить основы поискового продвижения и заложить определенную базу для последующего взаимодействия с наемными (или своими) оптимизаторами. Итак, в “топ-10″ хотят все, и это нормально. На этом нормальном желании за несколько лет выросла целая виртуальная промышленность, представители которой пугают несчастных собственников сетевых проектов страшными и непонятными словами типа “релеватность”, “анкоры” или “семантическое ядро”. Чем страшнее и непонятнее слово, тем больше бюджет, естественно. Авторы блогов относятся к SEO достаточно спокойно, считая, что не следует слишком уж активно мешать поисковикам поднимать хорошие сайты наверх. Тем не менее, сидеть сложа руки тоже не правильно. В сущности, чтобы как-то влиять на видимость сайта поисковиками (далее - SEO), обычному человеку (вроде меня) достаточно знать не так уж и много. Конечно, тонкостей и малозаметных (но важных) моментов в продвижении имеется вагон и маленькая тележка. Тем не менее, попытки изучить эти самые тонкости в совершенстве не совсем оправданы как с точки затрат времени, так и с точки зрения конечного эффекта. Проблему усугубляет постоянная изменчивость “поведения” поисковых систем, программисты и аналитики в которых денно и нощно трудятся над улучшением алгоритмов формирования качественного списка сайтов. В результате “гуру SEO” может с упорством применять очень эффективные ранее, но уже устаревшие приемы. Подобная неблагодарная работа требуется, скорее, очень узким “черным” специалистам (”дорвейщикам”), ежедневно пытающимся обмануть поиск и быстренько втиснуть десятки тысяч страниц в топ-10 хотя бы на недельку. Остальным - особо и ни к чему. Получить хорошие позиции по интересующим запросам вполне можно и без излишнего напряжения сил и нервов. Пусть это произойдет не через полгода, а через год, зато в будущем позиции будут более стабильны, а риск попадания под санкции поисковиков за сомнительные SEO-технологии - минимален. Зафиксируем основные, на мой взгляд, моменты, касающиеся жизнедеятельности и Google, и Yandex, и прочих всяких Bing-ов: 1. Поисковики стремятся выдать посетителю список из самых качественных сайтов, соответствующих введенному запросу. 2. Поисковики оценивают “интересность” и “полезность” сайта, обрабатывая какие-то доступные им параметры. . 3. Алгоритмы (и параметры), по которым поисковики оценивают сайты, точно известны только сотрудникам самого поисковика. Немного расшифруем - для полной уверенности в правильном понимании этих трех аксиом. В теории, для успеха нужно просто сделать хороший и полезный пользователям веб-ресурс (см. пункт 1). На практике, каждый сайт (особенно в очень коммерческих пишах) имеет сотни и тысячи конкурентов, которые тоже “очень интересны и полезны” и тоже хотят “в топ”. Поэтому “интересность сайта” в глазах поисковых роботов приходится искусственно завышать, пытаясь залезть выше конкурентов. Этим как раз и занимаются “оптимизаторы”, получая за свою работу денежку. Битва качеством в итоге традиционно превращается в битву количеством потраченных на SEO денег. Было бы грустно, но, к счастью, есть и другие факторы. Которые дают существенные шансы на успех даже малоимущим гражданам. Это следует из третьего пункта, поскольку оптимизаторы могут только догадываться о тех параметрах, которые можно “подкрутить”. Сообществом сеошников накоплено большое количество информации и опыта, проанализированы все опубликованные правила присутствия сайтов в базе поисковиков, доклады представителей поисковых систем, ответы на письма вебмастеров в поддержку и высказывания на форумах и так далее. Но это все равно не дает абсолютно полной картины и не гарантирует 100% результат - независимо от вложенной в продвижение суммы. Поисковики обладают огромной базой сайтов, серьезными вычислительными мощностями и имеют доступ к самой разной информации (например, отсылаемой браузерами пользователей интернета). Поисковые алгоритмы сейчас не просто анализируют содержание конкретного сайта или число ведущих на него ссылок - это осталось в прошлом. Поисковики теперь знают почти все. Они знают, сколько времени провел пользователь на том или ином сайте и что он там искал (и нашел ли). Знают, когда его владелец началпродвигать свой сайт и как много ссылок в сапе он купил. Поисковики могут оценить качество текста любой статьи и понять, что она переведена с другого языка гугле-переводчиком. Конечно, они это знают с определенной степенью точности, но уже достаточна высокой. И в дальнейшем точность распознавания “качества сайтов” будет, несомненно, расти. Это приводит к тому, что просто вложить в SEO денег уже недостаточно, нужно еще и вложить их так, чтобы поисковик не заподозрил конкретный сайт в излишней…, скажем так, хитрости. Бабло, по мнению руководства Google и Yandex, нужно нести непосредственно им (то есть - в контекстную рекламу), а не всяким левым “оптимизаторам”. Если раньше можно было просто закупить тысячу-другую ссылок в ссылочных биржах и с удовольствием наблюдать, как опекаемый сайт лезет вверх по выдаче, то теперь такой фокус слишком часто не проходит. Мало того - можно еще огрести санкций, загнав сайт под фильтр. Нехорошие “дорвейщики” выходят из затруднения “ковровым бомбометанием”, ежедневно заваливая интернет большим количеством сгенерированных разными способами сайтов (по принципу: тысячу убьют, но десяток прорвется). Нормальным сайтовладельцам такая стратегия не подходит - сайт-то один, и именно он должен собирать посетителей, причем, и через год и через три. |