Даже начинать с этого не стоит. Это неправильный подход к решению, учиться нужно на правильных примерах.
К beautifulsoup можно добавить более мощный и гибкий lxml.
Почему все так залипают на grab и scrapy? По мне так тяжелый фреймворк для парсера больше мешает чем помогает (это не относиться к фреймворкам для UI).
Итераторы/генераторы должны быть обязательно ленивыми хотя бы потому, что могут генерировать бесконечные последовательности. И есть еще множество причин, связанных с производительностью, например, зачем генерировать последовательность из миллиона элементов, чтобы потом взять срез из первых десяти.
Можно в заголовке не делать таких сокращений, два слова ничего не стоит написать, но люди проходят мимо "ПП" даже не заглянув поинтересоваться. А вопрос ведь на самом деле очень интересный.
prospero78su: Если на протяжении нескольких последних измерений координаты объекта не меняются (т.е. все производные обращены в ноль) то, исходя из чистой физичи, можно прогнозировать что объект будет продолжать покоиться в тойже точке. В реальности же человек в любой момент может сесть за руль стоящей неподвижно машины, завестись, поехать в любом направлении и физика бессильна в прогнозировании этого.
Фильтр Калмана служит для решения задач, наподобие той что стоит в вопросе. А какую задачу решаете вы?
prospero78su: Можно предсказать куда поедет машина (на несколько секунд вперед), но нельзя предсказать куда поедет водитель (тут нужна уже психология, а не физика).
Damir Makhmutov: То есть вам нужно отдавать статику со своего сервера в случае когда она существует по этому пути и проксировать запрос наружу, когда локально не существует ничего статического с этим именем. Для решения этого существует try_files . Сейчас попробую подправить свой пример.
Максим: Я старался ограничиться минимальными правками в коде автора вопроса. Зачем ему нужна была эта конструкция - вопрос интересный. Может он собирался впоследствии расширять код main, при этом оставляя возможность вызывать parse_courses из других модулей.
Кирилл Плотников: Для создания собственного алгоритма нужно хорошо разбираться в компьютероной лингвистики. Уникализатор предполагает: 1) лингвистический разбор текста 2) выделение конструкций, замена которых возможна; 3) получение некоторых формальных (не текстовых) характеристик, предполагаемых к замене, словосочетаний; 4) поиск в индексе по минимальному расстоянию между значениями соответствующих характеристик (построение этого индекса огромная отдельная тема); 5) если подходящая фраза найдена (расстояние не более заданной константы), то согласование ее с окружающим контекстом и подстановка на место оригинальной.
Кирилл Плотников: Читабельность самих генерируемых текстов у разных поколениях доргенов была разной они эволюционировали вместе с эволюцией алгоритмов поисковиков. Самые первые примитивные образцы могли просто перемешивать слова, говорят Яндекс даже это когда-то индексировал, потом пошли более аккуратные синонимайзеры, заменяющие слова/словосочетания на аналогичные по смыслу. В некоторых поздних разработках был даже какой-то ИИ, тексты стали почти неотличимы от написанных человеком, но вместе с тем сильно понизилась их уникальность относительно исходного текста (поисковики были уже достаточно умны чтобы отлавливать грубые поделки, но еще не достаточно смелы чтобы жестоко карать за малейшее подозрение на плагиат). Потом тема прикрылось окончательно. Но уже после этого, совсем недавно я видел доры на первых строках выдачи русскоязычного Гугла по каким-то низкочастотным запросам. Доры нечеловекочитаемые, сделаны очень грубо, как в старые времена. Видимо, эксплойт на какой-то баг в алгоритме ранжирования, не иначе.
Кирилл Плотников: Много воды утекло...сейчас даже какие-то ссылки нарыть трудно. Ищите по запросу "дорген", самые мощные из них часто со встроенными уникализаторами шли. Но те, что попадали в общий доступ, также шли со встроенными троянами и вирусами, такая защита от копирования по-русски.
Кирилл Плотников: В середине нулевых годов эта тема была актуальна какое-то время. Был огромный ажиотаж среди SEO-шников, схема (теоретически) позволяла получать почти неограниченные объемы поискового трафика при почти нулевых вложениях. Но поисковики быстро поумнели, научились распознавать такие "уникальные" тексты и эта лавочка прикрылась.
Роман Бережнов: Так там есть возможность качать со множества разных зеркал и склеивать в один файл. Можно при помощи FoxyProxy задать разные прокси для разных url, и задать эти url в качестве зеркал для одного файла в DTA.
Пример того, что Firefox со своими бесчисленными расширениям иногда способен на чудеса.
StrangeAttractor: Я сам не читал вторую книгу.
Судя по фрагменту, выложенному на Хабре - habrahabr.ru/company/piter/blog/194390 , действительно слишком примитивно все разжевывается.
Просто, слышал уже от нескольких человек, что по ней учились и в целом остались довольны.