На главную | Отправить SMS | Сделать стартовой | Поставить закладку |
Разделы сайта

 Главная
 Новости
 Регистрация
 Region Free Keys
 Телефония
 Железо
 Software
 Секреты Windows
 Безопасность
 Web-дизайн
 Web-мастерам
 Фото-приколы
 Хостинги
 Раскрутка сайта
 Анекдоты
 Игромания
 Фотогалерея
 Разное
 Знакомства
 Мир техники
 Флейм
 Голосования
 Музыка
 Спорт
 Кино
 Авто
 Зал суда
 Программа TB
 Форум
 Авторам статей
 Реклама на сайте

Рассылка


"Партнерские программы Рунета"

Content.Mail.Ru

Реклама






Раскрутка сайта

| Основы Web-технологий | Введение в Web-дизайн | Первая Web-страница | Графика web-дизайне | Специальные возможности HTML | Каскадные таблицы стилей | Полезные приемы в Web-дизайне | Обслуживание Web-сайта | Программирование на JavaScript и VBScript | Раскрутка сайта | Деньги и интернет | Партнерские программы | Web-софт | Поисковая оптимизация | Хостинг |

Лекарство против Supplimental

Автор: Вацлав Бжезинский
Источник: http://www.klikforum.com/

Рецепт для блоггеров и не только для них.

Вы уже наверное сталкивались с ситуацией, что ваши страницы оказываются не в основной, а во вспомогательной (Supplimental) выдаче Google? И задавались двумя основными вопросами - что именно в этом плохого и как этого избежать. Ответ на первый вопрос достаточно просто. Если какие-либо страницы Вашего вебсайта (блога) находятся в дополнительной выдаче, это означает именно то, что google покажет Ваши страницы лишь опционально и в редких случаях. Например, в случае если у него в основной базе недостаточно страниц релевантных запросу пользователя. Как Вы понимаете, в любой более-менее коммерческой нише, такая вероятность достаточно низка. Таким образом, оказавшись в Supplimental базе, Вы существенно уменьшаете свои шансы на получение действительно хороших позиций по выгодным запросам.Как же этого избежать? Для начала, обратимся к первоисточникам - к Google и к Мэту Кацу, в частности. Во-первых, Мэт успокаивает вебмастеров тем, что нахождение ваших страниц в Supplimental результатах это не наказание, а скорее лишь лишение премии. Т.е. Ваши страницы могут быть совершенно чисты перед правилами Google, но они недостаточно качественны. Что подразумевается под качеством страниц? Google однозначно на это нам указывает: уникальность контента (текстового), большие тексты, наличие качественных входящих ссылок на Ваши вебстраницы (а не только на главную). Помимо этого, Google настоятельно рекомендует использование уникальных заголовков страниц (тэг <title>) и мета-описания (тэг <meta name=”description” content=”Хорошее описание должно быть здесь” />).
Теперь давайте рассмотрим ситуацию на практике. Не секрет, что большинство из Вас использует в своих блогах контент предоставляемый партнерскими программами или собранный из иных источников. Написание собственного уникального контента - занятие трудоемкое и дорогостоящее. Использование не уникального контента приводит к “размыванию” его ценности для Google. А постоянное использование такого контента без обработки лишает вебмастеров существенной доли первичного трафика (с поисковых систем) и нагружает их лишь вторичным типом трафика. Что я имею ввиду? Поясню. Под вторичным трафиком я подразумеваю любых посетителей попавших на ваш вебсайт через посредников. Например с каталогов, блоглистов или даже с блоговых поисковых систем. Постоянные обитатели таких ресурсов, как правило более искушенные и монетизация такого трафика более трудоемкий процесс.
Перейдем к следующей проблеме. Не уникальный текст взятый с RSS-фидов (например партнерских программ), как правило не только не уникален, но и недостаточен по объему. К чему это приводит, в частности на блогах? К тому, что гугл видит Ваши страницы отдельных постов практически похожими друг на друга. Ведь на три-четыре текстовых предложения “контента” приходится огромное число дублирующегося по всем страницам html-кода (такого как рекламные тексты, одинаковые заголовки, навигационные ссылки итп). Результатом этого является “склейка” страниц и/или размещение их в дополнительной выдаче. А скорее всего, Google выберет лишь одну-две такие страницы (которые проиндексирует первыми) и положит их в выдачу. Остальные страницы окажутся под фильтром Google’s Omitted Results Filter.
Еще одной важной проблемой многих блоггеров является увлечение “дизайнерскими темплетами”, подрывающими их ссылочное ранжирование. Мощно загнул, а? :) Переведу на русский. Каждый знает и хочет этого - получить входящие ссылки с правильным анкор-текстом. Кто не знает, расскажу. Одна из основ релевантного ссылочного ранжирования Google заключается в том, что текст, которым снабжена ссылка на Вашу страницу (анкор) как бы переносит значимость этого текста на ваш веб-сайт. Многие читали или слышали об этом, хотя бы тогда, когда читали в новостях о том, что Google по запросу “полный неудачник” показывал веб-сайт короля США Дж. Буша Второго, а по запросу “враг народа” на первом месте оказывался российский Эль Президенте. Хотя на самих этих сайтах, такого текста не было. Ответом на вопрос “почему же так” и служит основа ссылочного ранжирования. Достаточно некоторому количеству веб-страниц сослаться на другую страницу с каким-либо текстом в анкоре, как поисковые системы сочтут его релевантным для этого запроса. Сейчас Google клятвенно обещает, что исправил эту ситуацию и будет учитывать такие ссылки только тогда, когда содержимое сайта, на который ссылка указывает, действительно релевантно этому тексту. К чему я это рассказывал и причем тут “дизайнерские темплеты”? Очень просто. Если Вы хотите получать хорошие и релевантные ссылки со стороны, то почему Вы используете на своем вебсайте (блоге) плохие ссылки для внутренней перелинковки!?

Зачем, объясните мне в навигацию многих блогов внедрен календарь? Зачем? Вы думаете пользователю очень важно о чем же именно вы писали именно 5-ого февраля? Ну может быть и так конечно же. Но поверьте мне, этим сомнительным удобством лучше пожертвовать в пользу двух неоспоримых плюсов:

Плюс первый: вы избавитесь от внутренних ссылок с ничего не говорящими гуглу анкоров (1,2,3… January, Feb, 01-02-2006 итп). Вы же не пытаетесь вывести свой сайт вверх по этим запросам, верно? Также сразу возьмите за правило избавиться от таких гениальных анкор-фраз как Read more, Next, Prev, Next page и им подобных. По той же причине.

Плюс второй: архивные страницы, особенно календарные, очень вредны Вашем сайту. Если кто-то думает, что это отличная идея - наделать на сайте множество почти одинаковых страниц, я огорчу таких людей - Duplicate content фильтра еще никто не отменял. Тем более, что на эти страницы идет больше ваших внутренних ссылок, чем на отдельно взятые посты, а значит именно у них есть больший шанс оказаться в основной выдаче гугла, но… по ключевому запросу 01-Feb-2007, например. Вы же сами гуглу указали “название” этой страницы именно так! Ну и еще один фактор - на архивных страницах, содержится существенно больше текста, чем на страницах отдельных постов. И благодаря перемешенному порядку постов на них, гугл их воспримет даже как более уникальные, по сравнению с идентичными у сотни вебмастеров “отдельными постами взятыми из RSS одной и той же партнерской программы”. А вот к рассмотрению этого плюса мы подойдет через пару абзацев.

А пока, вернемся к рассмотрению теории о Supplimental и практике выхода из нее.

Задумывались ли Вы когда-нибудь о том, как гугл видит Ваш сайт? При разработке каждой страницы или шаблона я смотрю на плакат над своим рабочим столом (их на самом деле два: на первом фраза Маузера “Все некоммерческие инициативы идут в жопу”). На этом плакате написано “Memento Google!” что можно перевести (включая игру слов) “Помни о гугле - он неизбежен как и смерть”. Давайте немного потеоритезируем. Итак, Вы завели новый блог. Зарегистрировали его в каталогах или как-то иначе поставили на него ссылки. Как правило, все эти ссылки указывают на основную страницу блога. Допустим, по этим ссылкам мы нагнали на главную страницу 100 Упырей (Условных Пейдж Ранк единиц). Что происходит дальше? Дальше эти Упыри расползаются по Вашим внутренним страницам и передаются по исходящим ссылкам. Отмечу - вы не теряете этих Упырей с главной страницы! Упыри не утекают от Вас, а лишь “размножаются на исходящие линки”. Другой вопрос в том, что количество уползающих по каждой отдельной ссылке Упырей равняется количеству живущих Упырей на вашей главной странице разделенное на количество исходящих ссылок.

Рассмотрим на примере: На главной странице мы поселили 100 Упырей. С главной страницы на внутренние страницы уходит 10 ссылок и еще 10 на внешние домены. Итого, на десяти Ваших страницах будет уже по 5 упырей (100/20) и по 5 упырей вы отпустите “на волю” и 100 упырей останутся на главной странице. Но! После того, как вы сделаете обновления на главной странице, ссылки перестанут указывать на старые 10 постов и упыри на них начнут хиреть и погибать, зато временно вы поселите еще по пять упырей на других ваших страницах. Этот процесс идет итерациями - Google постоянно перечитывает ваших Упырей на страницах и присваивает им PageRank. Конечно же не все так примитивно, и в распространении упырей действует еще множество (как известных, так и неизвестных) факторов. Но на мой взгляд, так понятнее для первичного понимания. А что же видит Google когда осуществляет поиск по Вашим страницам? Он видит важные страницы, на которые вы ссылаетесь постоянно и где упыри не хиреют, и видит страницы менее важные, а то и временные - это страницы, на которые нет постоянных ссылок и на которых Упыри потихоньку вымирают. Именно такие страницы и имеют в большей степени шансы на попадание в дополнительную выдачу. Конечно же, чем больше ссылок на Ваш сайт, тем обильнее плодятся Упыри на тех страницах куда ведут эти ссылки. И перераспределяются по Вашим же ссылкам на весь сайт.

Теперь взгляните на Ваш сайт. Куда ведут Ваши постоянные ссылки? Где гугл поселит вам больше всего Упырей и какие сочтет страницы более важными? Десять к одному, что на каждой Вашей странице присутствуют линки на главную страницу (надеюсь не с текстом Home, Index или Main?), на архивные страницы (или того хуже - на календарь), и на категории. Ну может быть еще и на карту сайта (опять же надеюсь не с анкором sitemap?). Именно эти страницы имеют наибольшие шансы появиться в основной выдаче гугла и накопить достаточное количество Упырей, чтобы быть видимыми и забраться повыше по кейвордам, на которые они “заточены”. На сами же “отдельно взятые посты” постоянных ссылок у Вас практически нет - что херит даже самые уникальные и большие тексты.

Теперь позволю себе еще раз вернуться к “неправильным анкор-текстам”.

Допустим, входящие ссылки на Вашу главную страницу идут со словами “mortgage”, “loans” и “refinance”. В результате, Ваши Упыри получат имена “Mortage Loans Refinance”. Расползаясь по внутренним ссылкам их имена дополняются до “Mortgage Loans Refinance January 21 2006?, например. Что приводит к “размыванию” основных кейвордов. Опять же прошу простить меня за столь сильную притянутость примера за уши и простоту сравнения.

Осилили эти “многа букф”? :) Тогда переходим к советам и практике.

1. Выбирайте правильный шаблон и плагины для вашего WordPress блогов или просите владельцев фрихостблогов установить сео-оптимизированные шаблоны.

2. Создавая категории не забывайте заполнять поле Description - оно отвечает за появление мета-тега дескрипшн на страницах категорий - уж разово, для категорий все же постарайтесь найти силы и средства написать уникальные и хорошие дески.

3. Воспользуйтесь также плагином, который позволяет писать и уникальные Title для каждой категории и отдельных постов. Не помещайте в них копию самого поста или его первых слов - подберите хотя бы синонимы!

4. Отредактируейте в шаблоне вывод фраз Next, Prev и так далее хотя бы до уровня “More about YOURKEYPHRASE”.

5. На странице отдельных постов, указывайте ссылки на следующий и предыдущий пост с их Тайтлами в анкоре!

6. Старайтесь находить и ставить ссылки извне на внутренние важные страницы (например на категории).

7. Воспользуйтесь каким-либо плагином, который позволяет на страницах отдельных постов показывать ссылки на “релевантные посты на вашем же блоге”.

8. Не забывайте об обязательной установке плагина, создающего sitemap.xml и скормите этот файл Гуглу и Яхе.

9. Минимизируйте количество линков, исходящих с каждой страницы, в соответствии с количеством текстового контента

10. Минимизируйте количество дублирующих блоков текста на каждой странице.

Bonuspack:

1. Если контент предоставляемый Вам очень короткий, старайтесь в один свой пост внести несколько постов из различных источников, сходных по тематике. Чем больше на странице текста, тем больше у гугла зацепок за разные “кейфразы”.

2. В меру сил заменяйте слова на синонимы или даже переставляйте местами предложения, если грамматическая конструкция текста это позволяет (пример: “Тошиба предлагает новый отличный ноутбук оснащенный процессором Intel Duo Core 2. Широкий 17-дюймовый экран ноутбука покрыт специальным антибликовым покрытием. Клавиатура очень удобная и снабжена подсветкой.” - этот текст можно переделать так “Тошиба предлагает новый ЗАМЕЧАТЕЛЬНЫЙ ноутбок оснащенный СОВРЕМЕННЫМ процессором Intel Duo Core 2. Клавиатура очень ПРИЯТНАЯ и ОСНАЩЕНА подсветкой. БОЛЬШОЙ 17-дюймовый МОНИТОР ноутбука покрыт УНИКАЛЬНЫМ антибликовым СЛОЕМ.”)

3. Мыслите трезво - гугл не станет сразу же “жрать” 1000 Ваших страниц и высоко их ранжировать (я говорю о белых методах). Используйте эту 1000 страниц лишь как фундамент Вашей пирамиды - линкуйте их на несколько своих основных страниц, с самым “вкусным, уникальным, прибыльным и релевантным” контентом.

4. Меня часто упрекают в том, что я пренебрежительно отношусь к “трастовым” доменам и размещению блогов на фриблогхостах. Это не так. Фриблогхосты действительно дают множество преимуществ блоггерам за счет своей “авторитетности” в рангах Google. Просто помните - благополучие Вашего блога на фриблогхосте и его монетизация в очень сильной степени зависит от владельцев такого сервиса и от добропорядочности “блоггеров-соседей” по хостингу. И не забывайте о том, что настроить агрегатор (программу, которая будет собирать тексты с Вашего блога и размещать где-то еще) проще на фриблогхост. Почему это не очень хорошо? Поясню. Гугл часто руководствуется принципом “кто первый встал, того и тапки”. А значит место, где он найдет текст раньше и будет считаться его “авторским местом”. И приводит это к тому, что Ваш уникальный контент станет уникальным на другом хосте, а Ваш сочтется дубликатом. Доказать же обратное - весьма сложно. Размещение блога на своем домене - несколько снижает Ваши риски, потому что несколько затруднительно настраивать агрегатор на слишком большое количество источников. Мой выбор - вспомогательные блоги на фрихостах линкуются на основные блоги на своем домене, на которых я выкладываю самый вкусный и уникальный контент.

5. Превратить грабеж Вашего контента в пользу можно и таким способом: Начинайте каждый пост своего блога с абсолютной ссылки на какую-либо страницу Вашего сайта - так Вы получите дополнительные линки с чужих сплогов. Как говориться - с паршивой овцы хоть шерсти клок. Но! Многие агрегаторы и парсеры успешно вырезают такие ссылки. Тогда поставьте еще и просто текстовое упоминание своего блога - мелочь конечно же, но в бизнесе успех складывается именно из тысяч мелочей.

Новости контекстной рекламы

Статистика 25 самых дорогих ключевых слов за 2 квартал 2006:

№ Раздел Доля в общем рекламном бюджете, %
1 Промышленные товары 9,70
2 Ремонт жилья 7,74
3 Авто 7,53
4 Услуги финансовые 6,38
5 Недвижимость 4,94
6 Туристические услуги 4,92
7 Медицина 4,12
8 Бытовая техника 3,28
9 Услуги рекламные 2,93
10 Образование 2,89
11 Мебель 2,88
12 Личные вещи 2,77
13 Услуги в Интернете 2,75
14 Компьютерная и цифровая техника 2,49
15 Услуги юридические 2,33
16 Связь 1,94
17 Праздники 1,54
18 Логистика 1,52
19 Азартные игры 1,47
20 Красота и здоровье 1,47
21 Программное обеспечение 1,36
22 Досуг и отдых 1,08
23 Знакомства 1,04
24 Спорт активный 1,02
25 Развлечения: билеты 1,01

Содержание

Обсудить в форуме...>>>>

 

Каталог

Реклама


Rambler's Top100 Rambler's Top100

© 2002-2012, DIWAXX.RU. Дизайн Freeline Studio. Хостинг http://www.mtw.ru. Вопросы, пожелания, предложения: admin@diwaxx.ru