если для каждого сайта будет свой небольшой скрипт-парсер, то их запускать последовательно или параллельно? Если параллельно, то как это делается?scrapy. Под каждый сайт пишем скрапер. Запускаем по расписанию. Парсинг сайтов можно разнести во времени, чтоб они не забивали ресурсы. Если долбить сайты без расписания - они могут обидется и забанить
как (в общих чертах) реализовать отдачу результатов поиска пользователю по мере того, как сайты будут парситься?никак, такое делать не стоит. Все что на момент запроса пользователя было, то он и должен получить
In [1]: type(input())
1
Out[1]: str
In [2]: input() + input()
1
2
Out[2]: '12'
In [3]: input() + 1
1
---------------------------------------------------------------------------
TypeError Traceback (most recent call last)
<ipython-input-3-f07785c2e381> in <module>()
----> 1 input() + 1
TypeError: Can't convert 'int' object to str implicitly
Правильно ли я всё сделал, или в сущности "предприятия" слишком много атрибутов и нужно разделять? Как вариант сделать доп. сущность "Контакты_предприятий", куда поместить адрес, телефоны, время и дни работы...зависит от запросов, которые будут использоваться
Находится ли моя БД в 3NF (третья нормальная форма) на данный момент, и если нет, то как это сделать?нет
Как нормальные хомо сапиенс реализуют поля вроде "часы_работы" и "время работы"? Нужно делать отдельно время открытия и время закрытия, или можно в 1 поле всё уместить просто строкой?json поле с указанием каждого дня недели и графика работы для него