@garyk5

Какие ещё есть базы ключевых слов?

Здравствуйте. Раньше при сборе ключевых слов пользовался связкой: Key Collector + UpBase (база) + KeyAssort (кластеризация).

НО база - UpBase - умерла. Создатели похоже закрыли проект и не выходят на связь. Это было декстоп-решение которое позволяло вытягивать отличные НЧ-long-tail запросы, то что не соберешь из всяких вордстатов.

Есть ли какие-то другие аналоги базы? В декстоп решениях, что бы один раз купил и она была твоей, возможно 1 раз в полгода - год обновлять.

Смотрел сервисы вроде Rush Analytics, если честно визуально как-то дороговато выглядит. Сколько у вас уходит в среднем уходит рублей, времени на сбор семантики + кластеризации в онлайн сервисах? (название сервиса, количество запросов/страниц, время, сумма).
  • Вопрос задан
  • 1269 просмотров
Пригласить эксперта
Ответы на вопрос 5
llgruff
@llgruff
Scala
Базы Пастухова
https://pastukhov.com/offer

Базы MOAB
moab.pro
Ответ написан
Комментировать
dimonchik2013
@dimonchik2013
non progredi est regredi
Ответ написан
Комментировать
@purplesky
Если собирать через КК, то расходы только на прокси - от 1000 р.. и антикапча примерно 3-5$ в месяц.
Время сбора зависит от количества проксей, глубины парсинга и т. д. Для 99% проектов для семантики достаточно юзать вордстат, подсказки и LSI. Базы нужны, если страницы уже максимально оптимизированы под существующие запросы и есть нужда немного "добрать" трафика.

Если нужно добрать НЧ, то база Пастухова.

Для своих небольших проектов собираю с вордстата руками без софта, добавляю LSI и подсказки. Трачу 0 рублей. Кластеризую тоже руками ибо так качественнее.
Для больших проектов собираю через КК, кластеризую рашем и добиваю кластеризацию руками. С крупными ядрами по 100-600 тысяч запросов могу возиться по 2 недели.
Ответ написан
Комментировать
Merovei
@Merovei
Зайдём с другого полюса. Spark выложил Готовый список минус-слов для Яндекс.Директа и Goo...
Ответ написан
Комментировать
@RomAnt85
Serpstat хорошо справляется с задачей. Есть прикольный фильтр у него в подборе фраз, в котором можно поставить количество слов в запросе от, до, больше, меньше, в пределе и тд. Так сразу по нужному слову находишь лонгтейлы.

И не прислушивайтесь к Федору )) Точнее сравните сами скорость сбора семантического ядра руками через вордстат, потом все процессы очистки, кластеризации, за которые он ничего не потратит, как ему кажется, в деньгах. И те же самые процессы в том же Serpstat. Вообще шикарно у этого сервиса реализовано API (кстати оч дешевое) и на блоге есть скрипты, как сразу в таблицу парсить всю топ-100 выдачу по заданным параметрам . Итого в отличии от Федора я за пару минут получаю семантику всего топ-100 единожды взяв подписку на тариф, и прогоняю ух даже не знаю в сколько раз больше проектов..раз в 10, чем Федор?)) И как живут еще такие "рукастые" сеошники, не завидую тем заказчикам, которые с ним повелись.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы