Добро пожаловать в персональный АД от GOOGLE
Вот примерно так можно перевести сообщение, которые выдается при запросе site:www.domen.com рядом с названием страницы.
phentermine online pharmacyЛадно это не так страшно, но все же немного пугает. Supplemental Result был создан для того, что бы бороться с теми страницами которые были проиндексены Googlebot-ом , но не должны присутствовать в индексе поисковика. Это например, различные логин формы, 404 страницы и как бонус страницы с пенальти за использованный дублирующийся контент.
buy xanax onlineПлохая новость заключается в том, что очень легко потерять свои кровные сотни и тысячи страниц в этих Supplemental Result. особенно это касается блогов и форумов. Так же этому подвержены страницы которые больше не существуют и имеют редирект на 404 страницу. Страницы на которые перестали существовать ссылки , так же улетают в supplemental.
buy diazepam without prescriptionЧто конкретно имеется ввиду под Supplemental Result? Это те данные которые распознаны поисковой системой как не имеющие особого значения. Как правило данные страницы не появляются в выдаче, если по запросу есть хоть что нибудь подходящее. Одним словом , данные страницы практически не существуют для поисовой системы.
buy soma no prescriptionКак избежать попадания в Supplemental Result? Если вы занимаетесь ведением блогов или у вас есть форум, вам надо быть особенно внимательным. Во первых, избегайте использовать чужой контент (времена импорта RSS каналов закончились). Во вторых, Избегайти большого количества 404 страниц, в идеале у вас вообще не должно быть линков на несуществующие страницы. Если же таких линков/страниц много , то порой проще начать новый блог чем продолжать работу над старым , и вот почему. Бот будет приходить на ваш блог и не найдя страниц которые у него были в индексе в место того, что бы исключить их оттуда просто сбосит их в Supplemental Result, по пути прихватив неплохую часть новых страниц.
valium online no prescriptionПо этой причине не делайте необратимых изменений со своими страницами. Не используйте чужой контент, и убедитесь что не потерялись линки на ваши внутренние страницы. Едиственное что можно предпринять, если у вас появились признаки улета в Supplemental Result – это сгенерировать новый sitemap и засабмитеть его в Google webmaster central заново + надеятся на лучшее. Matt Cutts говорит о том, что они (Google) постоянно работают над усовершенствованием алгоритма supplemental, путем более частой отправки ботов на данные страницы. Тот же Matt утешает нас, что бы мы не волновались о большом количестве страниц унесенных в supplemental, мол система сама себя урегулирует со временем. Хотелось бы верить.
tramadol online pharmacyВ настоящее время не совсем понятно как большое количество страниц занесенное в Supplemental Results может повлиять на PR самого домена. Последний PR апдейт показал потери PR-а на большом количестве хороших доменов. Было ли это вызвано наличием на них страниц в Supplemental Results ? Не уверен.
tramadol online pharmacyНадеюсь это статья поможет разобраться о причинах данного явления, а кому то и избежать оного. Удачи!
buy ambien onlinebuy klonopin online without prescription buy valium online no prescription xanax online pharmacy buy ambien no prescription valium online without prescription buy ambien without prescription ambien online pharmacy buy phentermine no prescription
Может подискутируем?
Supplemental Result был создан для того, что бы бороться с теми страницами которые были проиндексены Googlebot-ом , но не должны присутствовать в индексе поисковика. Это например, различные логин формы, 404 страницы и как бонус страницы с пенальти за использованный дублирующийся контент.
Не очень понятно откуда такое утверждение?
Реальный пример: белый сайт на 100 страниц. Но есть хорошая система фильтров (выбора) контента, в результате пересечения фильтров – результатов поиска – неисчислимое кол-во. Реально в индексе страниц больше 1000. С появлением Supplemental Result – в выдаче сначала 100 страниц, а остальные в Supplemental – что есть правильно.
Вопрос в назначении Supplemental в светлом капиталистическом обществе.
Благо или зло?
imho – бред, у меня весь контент не мой – не на одном сайте.
моя по сути только навигация. и ниче – такого не видел.
2Alex, что я могу сказать ? Счастливчик. У меня сблоги только в путь в супплементал улетают, и не только у меня. Или ты говоришь о русском контенте ?
2хз Все что делает гугль, это есть в их глазах скорее дорбо для белых сайтов , чем зло. Другое дело что не совсем корректно иногда этот фильтр срабатывает утаскивая туда и уникальный контент.
Согласен с х.з. насчет фильтров в том же каталоге таваров или при использовании тагов для структурирования информации. Когда по различным наборам тагов, показываются одни и те же данные.
Ну, и все-таки не понятен сам принцип определения страниц, на которые вешается “ярлык” “Supplemental Result”.
А польза какая-то должна быть от всего этого=)
или много уникального контента (вернее не уникального изначально, можно просто хорошо перемешанного из оригинального), под много понимается хотя бы килобайт 30 текста на 1 пагу, или нормальный пиар, нормально распределенный по сайту. То бишь не так, как у большинства сайтов, когда на морду миллион ссылок, а на внутренние (паги или разделы нет вообще), а более менее равномерно, и никакой супплементал не страшен.
Первого или второго условия хватает чтобы не попадать туда. А если условия оба выполняются, так и вообще все здорово.
Есть конечно определенные тонкости, например мне кажется, что частичное попадание в супплементал грозит тем, у кого слишком уж много однотипных (одношаблонных) страниц в папке или в поддомене/домене, скажем от 500 паг. А может это как раз связано с тем, что например на 50 паг куда проще получить равномерный достаточный пиар, чем на 500. Т.е. на 500 его получается слишком мало, и там где меньше всего, паги уходят в супплементал.
Все имхо разумеется, основанное на собственном опыте.
Любопытно, а если, допустим, на сайте уникальный контент, а с него другие ресурсы
берут статьи, не будут ли “родные” страницы занесены в
несчастливые Supplemental Result? Или тут уже – что первым было найдено гуглом, то и
источник? а остальным – пометка о “мусоре”?
DimaX, спасибо за содержательный коммент. Кстати это вариант, У меня есть sblogi которые были замешаны с уникальным контентом, он хорошо держались. Причем хорошо держались не просто если написал 10ток статей и включил импорт RSS (тут и статьи и остальной контент улетают) , а просто если идет импорт и переодически на 10 постов не уникального контента постишь одну уникальную статейку ,с фотками и тд.
Lark судя по тем обсуждениям, что я видел на форумах, такое действительно возможно, если твой сайт донор имеет гораздо меньше веса, чем тот кто заберет контент.
Скорее всего, в Supplemental Result улетят страницы форумов и просто сайтов с одинаковыми тайтлами на страницах, большим количеством ссылок в сквозных меню и малым количеством контента.
Сюда в первую очередь попадают страницы каталогов с единственной ссылкой на сайт и его описанием и, вероятно, многие страницы форумов, например если тема только начата, ответов мало, а бот уже пришел.
Очень похоже, что в эти Supplemental Result попадут статьи, содранные с других сайтов, особенно учитывая неспособность Гугла правильно определять сайт-первоисточник статьи. Тут может получиться, что кто сильнее, тот и прав, а Гугл поднимет лапки и будет лепетать, что они типа над этим работают, а этого не случится просто никада…
В настоящее время RSS сборные сайты в Рунете отлично индексируются, без всякой фильтрации. Я это вижу каждый день. Насчет англ.яз. не уверен. Вряд ли.
Опять же, если у вас ручное размещение контента, то достаточно небольшого изменения текста (порядок слов, синонимы), и это работает отлично даже в англ.яз. части.
Кто у кого взял страницу или текст всегда спорный момент.
Позиция google понятна, но я не вижу в этом ничего угрожающего. Приоритетным остается все-равно вопрос поднятия доверия к сайту.
Повторюсь, уникальность контента при попадании в супплементал имеет второстепенную роль. Главнее именно “вес” сайта как в целом, так и отдельных страниц (а может и узлов, то бишь разделов). И еще все таки старайтесь не делать слишком много страниц относящимся к 1 узлу (папке/поддомене). Равномерно полейте ссылками эти узлы, сделайте нормальную линковку паг внутри узлов и все будет гуд, даже на 100% пижженом контенте
З.Ы. Блин, прочитав мой коммент многие могут подумать, что все ваще легко
Это не совсем так, еще хотел бы добавить про форсмажоры, т.е. вроде все сделал как надо, а оно какого то хрена все равно в суплементе
Дааааа, кстати, титл играет тоже важную роль, забыл сразу сказать, старайтесь не иметь общих фраз в титлах всех паг.
И все это хорошо работает чтобы НЕ попасть в супплементал. Если вы туда попали, то хз чего делать, я просто забиваю на такие домены
Вот теперь вроде все сказал что хотел
Спасибо за статью… Добавил в избранное.
По моему субъективному опыту в Supplemental Result попадали те страницы сайта, которые: да, имели неуникальный контент, редко обновлялись, на них отсутствовали ссылки извне, и которые были в глубине сайта (4-5 уровень, pr=0 у них, pr=5 у главной).
Соответственно способы выходы из Supplemental Result вытекают из причин…
DimaX, любые форсмажоры спасут ссылки.
резюме, контент, тайтл, ссылки, вес, структура…
комплекс.
весь сайт переделать – у меня уже руки анимели.
у кого до 300 страниц – прошу не беспокоиться.
у кого от 20к. – и сайт продает (шоп) то как ты забьешь на него?
волей неволей – пыхтишь.
Интересно, а если у меня 50 сайтов англоязычных, на всех одинаковая структура, но разная тематика (самая популярная) и все эти сайты заточены под Гугл, т.е. стоит реклама Адсента, реферальные кнопки и все такое, ключевики в нужном кол-ве, да и вес сайтов не маленький, по 50-70 кило, за страницу (на сайте порядка 300 статей, перелинкован, оптимизирован) но контент состоит из – половина утянутые статьи с других сайтов (ангийских) а вторая половина – RSS по теме сайта.
Засунет Гугл такие сайты в песочницу или нет? Или все таки пожалеет свою большую рекламную площадку? Кто с таким уже сталкивался?
Хорошими ссылками (с тематическими кейвордами) можно даже сайт с дублирующим контентом из Supplemental Result вытащить, главное, чтобы ссылки шли не только на главную страницу. А вообще конечно же контент надо уникальный, тем более, что если сайт англоязычный, за бугром есть сервисы, которые продают уникальный контент, причем он даже очень хорошего качества получается и стоит не дорого, около 100 долл в мес подписка
2 Большой Эн:
ты считаешь что Гугл руководствуется соображениями типа: “Жалко” и “Это же моя рекламная площадка”?
А не подскажете, адреса таких сервисов, которые продают контент англоязычный?
А то я в английском слабоват. Сам не найду.
Кстати. По теме песочницы: Гугл мои сайты проиндексировал через 3 дня. В результатах выдачи страницы появляются. Причем очень не плохо. Может еще не засунет?
Читстилище сайта вот что нужно. Нужно всегда следить за исчезнувшими ссылками. Если внешняя ссылка не работает то следует убирать её с сайта.
Кстати на своем блоге Аарон Уолл дает команду, которой можно посмотреть Supplemental Results на сайте
site:www.yoursite.com *** -view
[...] Roman написал очень инетесный комментарий к статье Supplemental Result – чистилище сайтов Кстати на своем блоге Аарон Уолл дает команду, которой можно посмотреть Supplemental Results на сайте [...]
Есть у меня две фотогалереи на основе движка 4images Gallery – одна англоязычная, вторую руссифицировал. Англоязычная – 1670 страниц в индексе – не сапплимете всего 10-15. Рускоязычная ситуация получше – примерно 50/50. На движке есть формы, показ случайной фотографии – вот думаю из-за показа этого + что шаблон уже “заезженый” все туда и улетает
Ничего не сказано про временной фактор. Неужели он совсем не имеет значения?
Да, про время ничего не говорится… Хотя неплохая статья.
Время как раз немаловажный фактор, надо работать над текстом