 
  
   
  
  #!/usr/bin/env python3 
  
   
  
   
  
   
  
  если для каждого сайта будет свой небольшой скрипт-парсер, то их запускать последовательно или параллельно? Если параллельно, то как это делается?scrapy. Под каждый сайт пишем скрапер. Запускаем по расписанию. Парсинг сайтов можно разнести во времени, чтоб они не забивали ресурсы. Если долбить сайты без расписания - они могут обидется и забанить
как (в общих чертах) реализовать отдачу результатов поиска пользователю по мере того, как сайты будут парситься?никак, такое делать не стоит. Все что на момент запроса пользователя было, то он и должен получить
 
  
  In [1]: type(input())
1
Out[1]: str
In [2]: input() + input()
1
2
Out[2]: '12'
In [3]: input() + 1
1
---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)
<ipython-input-3-f07785c2e381> in <module>()
----> 1 input() + 1
TypeError: Can't convert 'int' object to str implicitly 
  
   
  
  u'{hours:02} часов'In [1]: d = {'hours':50}
In [2]: n = '{hours:02} часов'.format(**d)
In [3]: n
Out[3]: '50 \xd1\x87\xd0\xb0\xd1\x81\xd0\xbe\xd0\xb2'
In [4]: n = u'{hours:02} часов'.format(**d)
In [5]: n
Out[5]: u'50 \u0447\u0430\u0441\u043e\u0432'
In [6]: print(n)
50 часов