Спаркувати всі домени регіону за весь час з бази expireddomainsСпарсить все домены региона за всё время с базы expireddomains
Обмеження служби можна переглядати лише перших 50 сторінок на 200 посилань на сторінку (у загальному 10к) і обмеження на експорт даних у звіті на 4 к доменів з поточного фільтра. У сортуванні за датами дані тільки за останній місяць.
Рішення Призначити набір фільтрів, який дозволить побачити понад 90% доменів. Потрібно пройтися за максимальною кількістю фільтрів з вузькою вибіркою, щоб можна було вивантажити всі домени. Початкове рішення - зробити фільтр за всіма можливими комбінаціями 2-х латинських літер в доменному імені і робити таке пошук за рік з 2016 по 2022, вивантажуючи всі посилання з кожної сторінки пагінації (n+1, max51). За попередніми підрахунками, це потребуватиме близько 200 000 дій і потрібно буде перевірити роботу парсера на бан з IP (у випадку проблеми ми поставимо проксі).
Пропонуйте свою початкову зразкову вартість, так як. багато нюансів. Ви можете запропонувати найкращий варіант або логіку роботи фільтра, який ми з радістю розглянемо. Посилання на детальний алгоритм роботи фільтра, документ з максимальними подробицями і скріншотами сервісу, і всі подробиці щодо виконавців у особистих повідомленнях.
Задача
Получить список всех доступных для регистрации дроп доменов определенного региона с сервиса expireddomains.net за всё время (2016 - по н.в.). На данный момент это 390к доменов.
Ограничения
В сервисе можно посмотреть только первые 50 страниц по 200 ссылок на странице (в общем 10к) и накладывается ограничение на экспорт данных в отчете на 4к доменов с текущего фильтра. В сортировке по датам данные только за последний месяц.
Решение
Применить набор фильтров, который позволит увидеть более 90% доменов. Нужно пройтись по максимальному количеству фильтров с узкой выборкой, чтобы можно было выгрузить все домены в ней. Первоначальное решение – сделать фильтр по всем возможным комбинациям 2-х латинских букв в доменном имени и делать такой поиск за каждый год с 2016 по 2022, выгружая все ссылки с каждой страницы пагинации (n+1, max51). По предварительным расчетам на это потребуется около 200 000 действий и нужно будет протестировать работу парсера на бан по IP (в случае проблемы мы предоставим прокси).
Предлагайте свою начальную примерную стоимость, т.к. много нюансов. Возможно вы предложите лучший вариант или логику работы фильтра, который мы с радостью рассмотрим. Ссылки на подробно описанный алгоритм работы фильтра, документ с максимальными подробностями и скриншотами сервиса, и все подробности обсудим с исполнителями в личных сообщениях.
Відгук замовника про співпрацю з Zaman Yusifov
Спаркувати всі домени регіону за весь час з бази expireddomainsПроект припинено за взаємною угодою
-
фрилансер більше не працює на сервісі
-
229 0 1 Добрый день, имею большой опыт в работе с парсингом данных таже с блокирующих сервисов готов взяться за ваше задание и выполнить его, по вашей же схеме, схема может быть немного изменена в зависимости после изучения самого сайта мною. Пишите обсудим начнем работу.
-
ставка прихована фрилансером
-
фрилансер більше не працює на сервісі
-
ставка відкликана