GitHub - usermuser/parser
Написать web-crawler, который скачивает все страницы с определенного домена (к примеру, habr.com), и находит 10 наиболее часто-используемых слов на русском языке, исключая предлоги.
RETRY_CODES = [413, 429, 500, 502, 503, 504] - коды ответов, от сервера при которых делаем повторный запрос
RETRY_COUNT = 4 - количество повторных запросов, если запрос не удачный
RETRY_TIMEOUT = 2 - сколько ждать ответа от сервера
RETRY = True - делать ли повторные запросы
REPEAT_TIMEOUT = 2 - через сколько времени делать повторный запрос