#!/usr/bin/env python3
если для каждого сайта будет свой небольшой скрипт-парсер, то их запускать последовательно или параллельно? Если параллельно, то как это делается?scrapy. Под каждый сайт пишем скрапер. Запускаем по расписанию. Парсинг сайтов можно разнести во времени, чтоб они не забивали ресурсы. Если долбить сайты без расписания - они могут обидется и забанить
как (в общих чертах) реализовать отдачу результатов поиска пользователю по мере того, как сайты будут парситься?никак, такое делать не стоит. Все что на момент запроса пользователя было, то он и должен получить
In [1]: type(input())
1
Out[1]: str
In [2]: input() + input()
1
2
Out[2]: '12'
In [3]: input() + 1
1
---------------------------------------------------------------------------
TypeError Traceback (most recent call last)
<ipython-input-3-f07785c2e381> in <module>()
----> 1 input() + 1
TypeError: Can't convert 'int' object to str implicitly
u'{hours:02} часов'
In [1]: d = {'hours':50}
In [2]: n = '{hours:02} часов'.format(**d)
In [3]: n
Out[3]: '50 \xd1\x87\xd0\xb0\xd1\x81\xd0\xbe\xd0\xb2'
In [4]: n = u'{hours:02} часов'.format(**d)
In [5]: n
Out[5]: u'50 \u0447\u0430\u0441\u043e\u0432'
In [6]: print(n)
50 часов