Supplemental Result – чистилище сайтов
January 30th 2007 @ 9:47 am Google,Статьи

Добро пожаловать в персональный АД от GOOGLE

Вот примерно так можно перевести сообщение, которые выдается при запросе site:www.domen.com рядом с названием страницы.

phentermine online pharmacy

Supplementary_Results.gif

buy provigil online no prescription

Ладно это не так страшно, но все же немного пугает. Supplemental Result был создан для того, что бы бороться с теми страницами которые были проиндексены Googlebot-ом , но не должны присутствовать в индексе поисковика. Это например, различные логин формы, 404 страницы и как бонус страницы с пенальти за использованный дублирующийся контент.

buy xanax online

Плохая новость заключается в том, что очень легко потерять свои кровные сотни и тысячи страниц в этих Supplemental Result. особенно это касается блогов и форумов. Так же этому подвержены страницы которые больше не существуют и имеют редирект на 404 страницу. Страницы на которые перестали существовать ссылки , так же улетают в supplemental.

buy diazepam without prescription

Что конкретно имеется ввиду под Supplemental Result? Это те данные которые распознаны поисковой системой как не имеющие особого значения. Как правило данные страницы не появляются в выдаче, если по запросу есть хоть что нибудь подходящее. Одним словом , данные страницы практически не существуют для поисовой системы.

buy soma no prescription

Как избежать попадания в Supplemental Result? Если вы занимаетесь ведением блогов или у вас есть форум, вам надо быть особенно внимательным. Во первых, избегайте использовать чужой контент (времена импорта RSS каналов закончились). Во вторых, Избегайти большого количества 404 страниц, в идеале у вас вообще не должно быть линков на несуществующие страницы. Если же таких линков/страниц много , то порой проще начать новый блог чем продолжать работу над старым , и вот почему. Бот будет приходить на ваш блог и не найдя страниц которые у него были в индексе в место того, что бы исключить их оттуда просто сбосит их в Supplemental Result, по пути прихватив неплохую часть новых страниц.

valium online no prescription

По этой причине не делайте необратимых изменений со своими страницами. Не используйте чужой контент, и убедитесь что не потерялись линки на ваши внутренние страницы. Едиственное что можно предпринять, если у вас появились признаки улета в Supplemental Result – это сгенерировать новый sitemap и засабмитеть его в Google webmaster central заново + надеятся на лучшее. Matt Cutts говорит о том, что они (Google) постоянно работают над усовершенствованием алгоритма supplemental, путем более частой отправки ботов на данные страницы. Тот же Matt утешает нас, что бы мы не волновались о большом количестве страниц унесенных в supplemental, мол система сама себя урегулирует со временем. Хотелось бы верить.

tramadol online pharmacy

В настоящее время не совсем понятно как большое количество страниц занесенное в Supplemental Results может повлиять на PR самого домена. Последний PR апдейт показал потери PR-а на большом количестве хороших доменов. Было ли это вызвано наличием на них страниц в Supplemental Results ? Не уверен.

tramadol online pharmacy

Надеюсь это статья поможет разобраться о причинах данного явления, а кому то и избежать оного. Удачи!

buy ambien onlinebuy klonopin online without prescription buy valium online no prescription xanax online pharmacy buy ambien no prescription valium online without prescription buy ambien without prescription ambien online pharmacy buy phentermine no prescription -kass
Добавь в закладки: del.icio.us reddit.com technorati.com news2.ru moemesto.ru bobrdobr.ru memori.ru

Похожие посты:

comments are closed
  1. January 30th, 2007 | 13:09 | #1

    Может подискутируем?
    Supplemental Result был создан для того, что бы бороться с теми страницами которые были проиндексены Googlebot-ом , но не должны присутствовать в индексе поисковика. Это например, различные логин формы, 404 страницы и как бонус страницы с пенальти за использованный дублирующийся контент.
    Не очень понятно откуда такое утверждение?
    Реальный пример: белый сайт на 100 страниц. Но есть хорошая система фильтров (выбора) контента, в результате пересечения фильтров – результатов поиска – неисчислимое кол-во. Реально в индексе страниц больше 1000. С появлением Supplemental Result – в выдаче сначала 100 страниц, а остальные в Supplemental – что есть правильно.
    Вопрос в назначении Supplemental в светлом капиталистическом обществе.
    Благо или зло?

  2. January 30th, 2007 | 13:59 | #2

    imho – бред, у меня весь контент не мой – не на одном сайте.
    моя по сути только навигация. и ниче – такого не видел.

  3. kass
    January 31st, 2007 | 02:56 | #3

    2Alex, что я могу сказать ? Счастливчик. У меня сблоги только в путь в супплементал улетают, и не только у меня. Или ты говоришь о русском контенте ?

    2хз Все что делает гугль, это есть в их глазах скорее дорбо для белых сайтов , чем зло. Другое дело что не совсем корректно иногда этот фильтр срабатывает утаскивая туда и уникальный контент.

  4. February 6th, 2007 | 11:48 | #4

    Согласен с х.з. насчет фильтров в том же каталоге таваров или при использовании тагов для структурирования информации. Когда по различным наборам тагов, показываются одни и те же данные.
    Ну, и все-таки не понятен сам принцип определения страниц, на которые вешается “ярлык” “Supplemental Result”.
    А польза какая-то должна быть от всего этого=)

  5. February 6th, 2007 | 13:31 | #5

    или много уникального контента (вернее не уникального изначально, можно просто хорошо перемешанного из оригинального), под много понимается хотя бы килобайт 30 текста на 1 пагу, или нормальный пиар, нормально распределенный по сайту. То бишь не так, как у большинства сайтов, когда на морду миллион ссылок, а на внутренние (паги или разделы нет вообще), а более менее равномерно, и никакой супплементал не страшен.
    Первого или второго условия хватает чтобы не попадать туда. А если условия оба выполняются, так и вообще все здорово.
    Есть конечно определенные тонкости, например мне кажется, что частичное попадание в супплементал грозит тем, у кого слишком уж много однотипных (одношаблонных) страниц в папке или в поддомене/домене, скажем от 500 паг. А может это как раз связано с тем, что например на 50 паг куда проще получить равномерный достаточный пиар, чем на 500. Т.е. на 500 его получается слишком мало, и там где меньше всего, паги уходят в супплементал.
    Все имхо разумеется, основанное на собственном опыте. :)

  6. February 6th, 2007 | 13:32 | #6

    Любопытно, а если, допустим, на сайте уникальный контент, а с него другие ресурсы
    берут статьи, не будут ли “родные” страницы занесены в
    несчастливые Supplemental Result? Или тут уже – что первым было найдено гуглом, то и
    источник? а остальным – пометка о “мусоре”?

  7. kass
    February 6th, 2007 | 14:44 | #7

    DimaX, спасибо за содержательный коммент. Кстати это вариант, У меня есть sblogi которые были замешаны с уникальным контентом, он хорошо держались. Причем хорошо держались не просто если написал 10ток статей и включил импорт RSS (тут и статьи и остальной контент улетают) , а просто если идет импорт и переодически на 10 постов не уникального контента постишь одну уникальную статейку ,с фотками и тд.

  8. kass
    February 6th, 2007 | 14:48 | #8

    Lark судя по тем обсуждениям, что я видел на форумах, такое действительно возможно, если твой сайт донор имеет гораздо меньше веса, чем тот кто заберет контент.

  9. February 6th, 2007 | 15:47 | #9

    Скорее всего, в Supplemental Result улетят страницы форумов и просто сайтов с одинаковыми тайтлами на страницах, большим количеством ссылок в сквозных меню и малым количеством контента.

    Сюда в первую очередь попадают страницы каталогов с единственной ссылкой на сайт и его описанием и, вероятно, многие страницы форумов, например если тема только начата, ответов мало, а бот уже пришел.

  10. February 6th, 2007 | 15:54 | #10

    Очень похоже, что в эти Supplemental Result попадут статьи, содранные с других сайтов, особенно учитывая неспособность Гугла правильно определять сайт-первоисточник статьи. Тут может получиться, что кто сильнее, тот и прав, а Гугл поднимет лапки и будет лепетать, что они типа над этим работают, а этого не случится просто никада… :)

  11. February 6th, 2007 | 17:02 | #11

    В настоящее время RSS сборные сайты в Рунете отлично индексируются, без всякой фильтрации. Я это вижу каждый день. Насчет англ.яз. не уверен. Вряд ли.

    Опять же, если у вас ручное размещение контента, то достаточно небольшого изменения текста (порядок слов, синонимы), и это работает отлично даже в англ.яз. части.

  12. February 6th, 2007 | 17:38 | #12

    Кто у кого взял страницу или текст всегда спорный момент.

  13. February 7th, 2007 | 04:52 | #13

    Позиция google понятна, но я не вижу в этом ничего угрожающего. Приоритетным остается все-равно вопрос поднятия доверия к сайту.

  14. February 7th, 2007 | 05:53 | #14

    Повторюсь, уникальность контента при попадании в супплементал имеет второстепенную роль. Главнее именно “вес” сайта как в целом, так и отдельных страниц (а может и узлов, то бишь разделов). И еще все таки старайтесь не делать слишком много страниц относящимся к 1 узлу (папке/поддомене). Равномерно полейте ссылками эти узлы, сделайте нормальную линковку паг внутри узлов и все будет гуд, даже на 100% пижженом контенте :)

    З.Ы. Блин, прочитав мой коммент многие могут подумать, что все ваще легко :) Это не совсем так, еще хотел бы добавить про форсмажоры, т.е. вроде все сделал как надо, а оно какого то хрена все равно в суплементе :) Дааааа, кстати, титл играет тоже важную роль, забыл сразу сказать, старайтесь не иметь общих фраз в титлах всех паг.
    И все это хорошо работает чтобы НЕ попасть в супплементал. Если вы туда попали, то хз чего делать, я просто забиваю на такие домены :)
    Вот теперь вроде все сказал что хотел :)

  15. February 7th, 2007 | 06:02 | #15

    Спасибо за статью… Добавил в избранное.
    По моему субъективному опыту в Supplemental Result попадали те страницы сайта, которые: да, имели неуникальный контент, редко обновлялись, на них отсутствовали ссылки извне, и которые были в глубине сайта (4-5 уровень, pr=0 у них, pr=5 у главной).
    Соответственно способы выходы из Supplemental Result вытекают из причин…

  16. February 7th, 2007 | 07:04 | #16

    DimaX, любые форсмажоры спасут ссылки.
    резюме, контент, тайтл, ссылки, вес, структура…
    комплекс.
    весь сайт переделать – у меня уже руки анимели.
    у кого до 300 страниц – прошу не беспокоиться.
    у кого от 20к. – и сайт продает (шоп) то как ты забьешь на него?
    волей неволей – пыхтишь.

  17. February 7th, 2007 | 10:46 | #17

    Интересно, а если у меня 50 сайтов англоязычных, на всех одинаковая структура, но разная тематика (самая популярная) и все эти сайты заточены под Гугл, т.е. стоит реклама Адсента, реферальные кнопки и все такое, ключевики в нужном кол-ве, да и вес сайтов не маленький, по 50-70 кило, за страницу (на сайте порядка 300 статей, перелинкован, оптимизирован) но контент состоит из – половина утянутые статьи с других сайтов (ангийских) а вторая половина – RSS по теме сайта.
    Засунет Гугл такие сайты в песочницу или нет? Или все таки пожалеет свою большую рекламную площадку? Кто с таким уже сталкивался?

  18. seo
    February 8th, 2007 | 02:42 | #18

    Хорошими ссылками (с тематическими кейвордами) можно даже сайт с дублирующим контентом из Supplemental Result вытащить, главное, чтобы ссылки шли не только на главную страницу. А вообще конечно же контент надо уникальный, тем более, что если сайт англоязычный, за бугром есть сервисы, которые продают уникальный контент, причем он даже очень хорошего качества получается и стоит не дорого, около 100 долл в мес подписка

  19. February 8th, 2007 | 04:30 | #19

    2 Большой Эн:
    ты считаешь что Гугл руководствуется соображениями типа: “Жалко” и “Это же моя рекламная площадка”? :)

  20. February 9th, 2007 | 10:39 | #20

    А не подскажете, адреса таких сервисов, которые продают контент англоязычный?
    А то я в английском слабоват. Сам не найду.
    Кстати. По теме песочницы: Гугл мои сайты проиндексировал через 3 дня. В результатах выдачи страницы появляются. Причем очень не плохо. Может еще не засунет?

  21. February 14th, 2007 | 03:49 | #21

    Читстилище сайта вот что нужно. Нужно всегда следить за исчезнувшими ссылками. Если внешняя ссылка не работает то следует убирать её с сайта.

  22. February 15th, 2007 | 07:57 | #22

    Кстати на своем блоге Аарон Уолл дает команду, которой можно посмотреть Supplemental Results на сайте

    site:www.yoursite.com *** -view

  23. pingback

    [...] Roman написал очень инетесный комментарий к статье Supplemental Result – чистилище сайтов Кстати на своем блоге Аарон Уолл дает команду, которой можно посмотреть Supplemental Results на сайте [...]

  24. March 27th, 2007 | 09:10 | #24

    Есть у меня две фотогалереи на основе движка 4images Gallery – одна англоязычная, вторую руссифицировал. Англоязычная – 1670 страниц в индексе – не сапплимете всего 10-15. Рускоязычная ситуация получше – примерно 50/50. На движке есть формы, показ случайной фотографии – вот думаю из-за показа этого + что шаблон уже “заезженый” все туда и улетает

  25. wzp
    May 30th, 2007 | 02:03 | #25

    Ничего не сказано про временной фактор. Неужели он совсем не имеет значения?

  26. July 17th, 2007 | 12:12 | #26

    Да, про время ничего не говорится… Хотя неплохая статья.

  27. October 24th, 2007 | 08:58 | #27

    Время как раз немаловажный фактор, надо работать над текстом