Не так уж давно генеральный представитель поисковой системы Google Мэтт Каттс в очередной раз сообщил о том, что алгоритмы системы сперва определяют сайты, имеющие наиболее не уникальный контент. Каттс также удостоверил всех, что Google и впредь собирается проводить дефрагментацию от выдачи веб-ресурсов, которые в свою очередь злоупотребляли применением данного контента на своих страницах.
Безусловно, это дело хорошее, и сделанное заявление от руководства одного из самых главных в мире поисковых систем можно только поприветствовать с чистой совестью, однако, как показывает практика, в подобных делах не все есть так просто, как кажется на первый взгляд.
Однако если эта статья мелькает на каком-то другом ресурсе (например на странице другого сайта), то данная статья мало того, что не проиндексируется Google, также может угодить в фильтр, нанеся вред тем самым всему ресурсу в целом. По крайней мере так заявил сам Google.
Само собой, никто из системы Google так и не разъяснил, что конкретно подразумевается под «неуникальным контентом».
Ну, вроде бы яснее не куда, при появлении на каком-либо сайте свежей, ещё малоизвестной поисковым роботам статья, то она является уникальной в своем роде и начинает усиленно индексироваться Google, собственно страница с данной статьёй начинает неплохо ранжироваться на выдаче (конечно при условии, что в тексте соблюдается достаточная плотность ключевых фраз, по которым страница и будет подниматься в ТОП списках).