А пример я не беру, просто хочу сказать, что на 100% уникальный контент при таком количестве информации в сети вещь практически невозможная и судя по местам тех самых сайтов в выдаче не определяющая. Кроме того, откровенно говоря, мне не совсем понятно, чем так плох не уникальный по содержанию контент. В конце концов, не может же кроулер его читать. Ну максимум, сопоставить слова. Или я не прав?
На 100 процентов уникальный контент вполне возможен. И кроулеры очень даже умеют читать. Более того, они сравивают тексты потенциально похожие с какой то там длиной шингла. То есть совпадение двух слов подряд - это практически неизбежно. Если не ошибаюсь - у ботов яндекса шингл 9 или 10.
Если неуник в топе - значит либо непотребные запросы, либо владелец сайта вбухал кучу бабла в ссылочное. А вобще сайты с копипастом со скрипом лезут в индекс и часто оттуда вылезают. Контент же нужен очень многим - прежде всего из за одной хитрой канторы, род которую все начали делать сайты. Эти сайты должны быть в индексе, а для этого их чем то нужно наполнить. Наполняют чем попало - сайт в индекс не лезет, хитрая кантора не берет в свои ряды. Плачут кряхтят, но или пишут сами и бросают
)) или обращаются к людям в теме - платят денег и получают уник.
З.ы. сканы все давно уже неуникальны, любаяя книжка уже где-то вылезла в виде сайта