Допустима несхожість text 'ов
Останнім часом багато вже написав про унікальний контент і текстах:
Загалом, необхідно, щоб текстовий зміст сайтів було максимально унікальним. Але який мінімальний відсоток унікальності тексту допустимо для того, щоб пошукові системи нормально сприйняли такий контент і сайт б просувався в поісковках без проблем?
В ідеалі, напевно, текстовий контент повинен бути на 100% унікальним. Але якщо ви робите рерайт, то іноді лінь доводити до 100% або ж це просто ніяк не виходить зробити.
Не знаю, чи можна тут що-небудь стверджувати. Я, наприклад, думаю, що досить 85-90% унікальності, щоб пошукові системи «не чіплялися». Адже завжди є ймовірність, що навіть стаття, узята повністю «з голови», матиме невелику схожість з вже розміщеними в Інтернет , І пошукові системи це беруть до уваги (ну повинні ж).
Крім того, під час перевірки унікальності контенту різними сервісами і програмами враховуються збіги, виявлені декількома ПС, і при підрахунку% узагальнюється для всіх ПС.
Загалом, як ви думаєте - який повинен бути відсоток унікальності тексту на сторінці для її нормального ранжирування?