Личные инструменты
Просмотры

Уникальность

Материал из SEO — Энциклопедия

Перейти к: навигация, поиск

Уникальность – важное качество контента, обозначающее, что данный контент – текст или картинки – публикуется в Интернете впервые, был создан специально для данной веб-страницы. Уникальный контент – результат копирайтинга, то есть создания целевого текстового документа для сайта. Уникальность контента – один из ключевых моментов в продвижении сайтов, так как поисковые машины при индексации определяют, был ли этот текст использован ранее на других веб-ресурсах. Уникальный контент поднимает рейтинг сайта.

Уникальность текста определяется в процентах. Низкий процент уникальности текста может означать некачественную переделку, плохой рерайтинг уже использованных статей. Для того чтобы определить уникальности статьи, нужно обратиться к специальным сервисам проверки уникальности, существующим в Интернете.

Описание

Проверка уникальности текста является неотъемлемой частью процесса индексации поисковыми системами наполнения сайтов. Если при этом обнаруживается, что существенная часть или же все тексты, размещенные на них, скопированы с других ресурсов, в отношении страниц применяется пессимизация. Именно поэтому уникальность текста выступает обязательным условием эффективного продвижения сайтов. Однако такое утверждение скорее относится к западным поисковым системам. До сих пор Яндекс и Рамблер могут выдавать в своих топах площадки с ворованным контентом.

При проверке уникальности текста применяются специальные алгоритмы, учитывающие так называемые законы Зипфа. Будучи профессором-лингвистом, Джордж Кингсли Зипф в 1949 г. обнаружил эмпирические закономерности частоты употребления слов в естественно написанном тексте, из которых было выведено два закона. Первый закон Зипфа гласил, что произведение вероятности присутствия какого-либо слова в тексте на его частоту использования является постоянной константой. Второй – отношение частоты и количества слов, входящих в текст с этой частотой, одинаково.

На основании этих законов поисковые системы разбивают содержание страниц на специальные группы. К первой относятся междометия, союзы, предлоги и другие части предложений, которые не несут смысловую нагрузку и потому не учитываются. Ко второй – ключевые слова, имеющие важное значение для пользователей, ищущих информацию. Третью группу составляют случайные фразы. Такое деление текста называется его канонизацией. После его завершения поисковые системы начинают использовать алгоритм шинглов (от английского shingle – чешуйка).

Его суть заключается в разбиении ключевых фраз на небольшие цепочки, состоящие из определённого количества слов, определяемых длиной шингла. При этом каждое последнее слово в цепочке является первым словом следующего шингла. Таким образом достигается стопроцентная проверка текста.

Для каждого шингла определяется своя контрольная сумма. Так как у двух разных текстов не может быть одинаковых сумм, сравнение шинглов позволяет с высокой точностью определять уникальность текста. Чем больше их совпадений, тем ниже уникальность.

Данная проверка позволяет находить не только полностью скопированные документы, но и частичные дубликаты. Однако алгоритм шинглов также не лишён недостатков – при анализе текста, в котором встречаются популярные цитаты или фразеологизмы, его уникальность окажется низкой. Именно поэтому многие поисковые системы при обнаружении подобного контента классифицируют его в качестве всеобщего достояния и не применяют пессимизацию.

Источники уникальных текстов

Источниками уникального контента выступают авторские статьи либо тексты, выполненные при помощи сторонних специалистов, – копирайтеров или рерайтеров.

Копирайтеры занимаются профессиональной деятельностью по созданию презентационных, рекламных или же обычных информационных текстов. Работа же рерайтеров заключается в создании уникального контента путём изменения информации при помощи синонимизации, перестановки абзацев, перестройки предложений и других способов с сохранением первоначального смысла.

Проверка уникальности

Проверка на уникальность текста может выполняться специальными сервисами, которые, как и поисковые службы, используют алгоритмы шинглов для обнаружения дубликатов. В качестве таких систем могут выступать сервис Miratools и программа Advego Plagiatus.