Проверяем проиндексированность страниц и ссылок с помощью YCCY
Вторник, 26 Апр 2011 20:15Простая и бесплатная программка http://www.yccy.ru/soft/yccy поможет вам в анализе проиндексированности как страниц сайта, так и бэков на ваш сайт.
Программка крайне проста. И состоит из нескольких модулей, каждый из которых умеет делать различные полезные для ВМ вещи:
- Модуль Indexator (см. скриншот), проверяющий кол-во страниц сайтов, проиндексированность страниц и ссылок на страницах (по тексту ссылок), определяющий ТИЦ, PR, Alexa Rank. Все это он умеет делать пакетно. Нужно только ввести список ссылок, который хотите проверять, выбрать варианты проверки и нажать «Начать проверку». Дальше просто копируем результаты проверки;
- Модуль WhoisPaid массово проверяет параметры whois доменов;
- Модуль Name Generator — помощник в нелегком деле подбора красивого доменного имени. По заданным алгоритмам генерирует вам множество вариантов;
- Модуль PageRankDC проверяет пакетно PR по дата-центрам Google, которые вы ему зададите.
Как видите, вещь в хозяйстве очень полезная. Мне из этого списка пригодился пока что модуль проверки индексированности страниц. Однако, вынужден констатировать, что он слегка не подходит под мои идеалистические нужды. Я долго пытался найти программу, которая бы проверяла на индексацию именно ссылку на странице, причем делая это не по тексту ссылки, как YCCY, а по адресу домена, даже если ссылка вела бы на внутряк. Согласитесь, довольно неудобно составлять список страница+анкор, и куда удобнее задать просто список страниц и домен, ссылка с которым должна находиться на странице. К сожалению, таковой я пока что не нашел, поэтому, если кто знает такой софт, милости прошу надоумить меня в комментах!
P.P.S. В последнее время совсем мало пишу. В основном из-за возросшей рабочей нагрузки: сейчас ежедневно даю себе задания и ежедневно их выполняю. Зато в ходе работы открываю все новые и новые довольно жесткие темы, пробу которых ставлю себе как задание в список. Так что посты будут выходить редко, но метко .
27 Апр 2011 в 0:29
1Вообще вещь, конечно, нужная, но я не стану устанавливать. И так слишком много софта инсталлировано. Лучше бы было, если бы это был бесплатный онлайн сервис. Я пока на данный момент использую для этих целей сеолиб, но там ограничение для фришного использования стоит — не больше 10 урлов за раз
29 Апр 2011 в 15:25
2Прога работает в многопоточном режиме?
Если интересно вот можешь сравнить с моей профессиональной системой для парсинга, там легко можно собрать ссылки проидексированные в любом поисковике по любому запросу, а также отпарсить список URL, включая ссылки на поисковые системы, наподобе как у тебя список список исходных URL.
Прога аналог hrefer, только по функционалу уже давно его обогнала.
Может собирать список всех зарегестрированных доменов зоны RU, SU...
А это порядка 1300 сайтов в минуту.
Вот только думаю добавить сбор трастовых сайтов, но нужно ли это комуто?
Полное описсани есть тут
cybermake.ru/view/view_web_parser.php
Скачать последнюю версию всегда можно по ссылке
cybermake.ru/counter/counter.php?f=20