Особистий досвід як безкоштовно здобувати унікальний контент - seo форум - оптимізація і просування сайтів

Як безкоштовно здобувати унікальний контент

Всім привіт. Мене звуть Роман і спеціально для конкурсу «Конкурс" Корисна тема ". Приз - 1500 $ (WMZ). 30 призових місць! »Я написав невелику статтю про те, як я безкоштовно отримую унікальний контент за допомогою Web Archive.

Багато досвідчених сеошникі скажуть, що тема давно спалена і не цікава, але мені здається, завжди цікаво прочитати про особистий досвід вебмастера. До того ж тема все також працює.

Пошук мертвих сайтів


Для початку нам потрібно знайти сайти, які вже припинили своє існування. У цьому нам допоможе сайт webdomainservice.net.

  1. Вибираємо вкладку "звільняються домени"
  2. Кінцеву дату вибираємо не раніше ніж 2 місяці до сьогоднішньої. За 2 місяці пошукові системи повинні вже видалити сайти зі своїх індексів.
  3. У віконці Webarchive вказуємо що нас цікавлять сайти з мінімум 30-ма збереженими сторінками в webarchive.
  4. Зазвичай я цей пункт пропускаю, але бувають випадки, коли потрібно знайти тематичний контент, тоді в це поле вписуємо ключове слово. Після цього будуть відібрані сайти, що містять в своєму імені потрібне вам слово.
  5. Закінчивши заповнювати поля тиснемо застосувати.
Сайт видасть вам величезну кількість сайтів відповідають нашим критеріям. Далі ми підготуємо цей список до імпорту.
  1. Прокрутити сторінку вниз і натискаємо на іконку з ключами.
  2. У вікні вибираємо дані, які нас цікавлять. Ім'я сайту і кількість сторінок в вебархіве.
  3. Потім вибираємо формат файлу, що імпортується і натискаємо на іконку файлу (покажчик номер 5)

Після цих маніпуляцій ми отримаємо на свій комп'ютер xls таблицю зі списком сайтів і кількістю збережених сторінок для кожного.

Знайшовши контент на сайті потрібно скопіювати рядок з тексту і пошукати її в Google, якщо дублікатів не виявлено, то копіюємо текст собі на комп'ютер.
Зібравши необхідну кількість текстів, переходимо до наступного етапу.

Перевірка унікальності текстів


Я перепробував безліч сайтів і програм для перевірки унікальності текстів і знайшов найпростіший і ефективний спосіб, це програма AllSubmitter і її модуль «Плагіат».
Викачуємо демонстраційну версію програми з офіційного сайту. (Можливостей демо версії на цілком вистачить). Заходимо в модуль «Плагіат».

Створюємо новий проект.
Вибираємо його зі списку.
У лівому меню натискаємо «Почати пошук».
Налаштовуємо параметри пошуку. Рекомендую поставити затримку не менше 20 і кількість потоків не більше 5.
Вставляємо текст на перевірку.

Після перевірки отримуємо інформацію про кількість дублів сторінки і відсотку входження (тобто кількості однакових фраз в документах). Тексти з входженням більше 30 відсотків я забраковивается.

Ось таким чином можна абсолютно безкоштовно отримувати контент для своїх потреб.

Виходить що зберігають.
Брав тільки унікальні матеріали, сайти існували кілька років тому, так що з індексу були повністю видалені.

Перевірив статті з вашого сайту, дійсно все унікальні, добре шукаються по шматках тексту. Взяв НЧ запит "Audi A1 quattro з повним приводом", в чистому браузері без історії, сторінка вашого сайту на першому місці в Гуглі, в Яндексі на 46.

Я ось думаю, якщо ви вважаєте що отримали санкції за вебархів, чому сторінки в індексі і нормально ранжуються по шматках тексту і запитам?

У мене є англ сайт який потрапив під зоопарк Гугл, так його навіть по шматках тексту знайти неможливо.

Може ще попрацювати над сайтом? Може справа не в контенті? Ось наприклад, ця нескінченна прокрутка на головній. Може посилального мало? Тематика дуже конкурентна.

Схожі статті