Случаи склейки сайтов не так редки, ведь объединение нескольких интернет-проектов в один может происходить, как по желанию веб-мастера для достижения определённых результатов в оптимизации, так и по причине срабатывания автоматического алгоритма систем поиска.
В настоящий момент склейка сайтов – это сборка нескольких ресурсов, определяемых ранее как зеркала в один.
Объединение ресурсов по желанию владельца происходит, когда есть необходимость, чтобы в выдаче, собрав в себя зеркала, остался всего один проект. Это положительно сказывается на процессе его дальнейшего продвижения, ведь в этом случае фактически сайт избавляется от дублей (например, главная страница с www и без).
Таким образом, можно защитить блог от санкций, так как большое количество зеркал – это прямая дорога под фильтр поисковых систем. В этом случае склейка сайтов осуществляется с помощью 301-го редиректа, то есть при поддержке перенаправления. Самое простое действие необходимо выполнить для склеивания в поисковой системе Яндекс. Решить эту проблему можно с помощью корневого файла robots.txt, добавив указывающую домен директиву Host в самый конец файла.
Часто склейку сайтов требуется выполнить для такого важного действия, как склейка PR и (или) тИЦ, так как эти показатели перетекают на основной приклеенный ресурс. Такой процесс подъёма показателей относится к чёрным способам оптимизации, так как он может закончиться снятием PR и тИЦ из-за попытки их искусственного повышения.
Сегодня в сети есть достаточно сервисов, на которых можно проверить сайт на склейку, что актуально, когда вы собираетесь покупать домен с высокими показателями и у Вас есть желание, чтобы тИЦ и PR не отвалились в ближайшее время.
Определить склейку можно на сервисах:
http://xseo.in/fakepr.php
http://www.seogadget.ru/mirror
Кроме этого склейка сайтов может произойти автоматически, если поисковая система посчитает, что несколько ресурсов идентичны друг другу и робот определил их, как дубликаты или же на проекте неуникальный контент, скопированный по большей части с одного ресурса. В этом случае системы поиска могут разумно решить, что достаточно первоисточника и не стоит засорять поисковую выдачу дублями.
При необходимости склейку сайтов можно без проблем выполнить самостоятельно. Только в крайнем случае нужно привлекать специалиста со стороны, так как мошенники в сети не редкость и, удачно склеив сайты, потом можно долго очищать страницы от скрытых левых беков, оставленных недобропорядочным мастером.
На всякий случай пересмотрел свой robots.txt, вроде все как положено. За статью спасибки.
Спасибо! Полезная информация. Полностью согласен, что склейкой нужно заниматься со спецами, а то чего нибудь подхватишь.
Если в robots.txt все правильно прописано, то можно спать спокойно? Спасибо!
Вот так, ходим к друг другу в гости и учимся! Спасибо!
Спасибо за полезную информационную статью.
Оказывается склеить сайт не так ужи и сложно. Спасибо за статью.
Благодарю за информацию. Сайты проверила.
Большое спасибо за интересную и содержательную статью!
Даже и не подозревала, что существует такая операция, как склейка сайтов!!! 🙂
Спасибо за сервисы где можно проверить склейку сайтов.
На всякий случай проверил свой сайт на описанном Вами сервисе. Все в норме.
Надо же, я пока этого не понимаю, но думаю, со временем разберусь.
Очень интересно.
Я тоже проверила свой файл robots.txt. В конце стоит все как положено.
Век живи, век учись. Спасибо за информацию.
А я и не знала, что такие вещи возможны!
Это для меня новая информация, в которой еще предстоит разобраться.
Проверила свои блоги на склейку, показано, что склеек нет. Но когда я смотрю рейтинг Яндекса, там показываются совершенно другие ресурсы с тем же началом адреса, как у меня, и вердикт: склеен. Так что сервисы, конечно, хороши, но увы! не показывают полную картину