Дмитрий Башинский, тогда мои соболезнования, но FaaS всегда позиционировался как бесконечно-масштабируемый сервис. При чем в то время когда AWS говорит что у нас 1000 инстансов на запуск в регионе , то у Azure действительно условная бесконечность) Вы выбрали неправильный инструмент для вашей задачи, похоже
Snewer, да. И обрабатываться они будут независимом можете повесить с другой стороны хоть один воркер, хоть тысячу. Получите масштабируемость и в случае увеличения нагрузки максимум - задержки, но не результат. Кончено стоит добавить каунтер к импорту чтобы знать что он завершился
Snewer, если вам охота поставить это на поток и не беспокоиться о нагрузке, то можете создавать "задания". То есть создаёте базу с импорта и (файл и метаинформация). После этого отправляете его на валидацию (в message broker). Если он валиден то создаёте набор заданий на импорт и спокойно из другой очереди из обрабатываете. Не забудьте про исключения и тому подобные вещи. Так же стоит добавить параллельный обработчик, который удаляет(прячет) товары, которые не находятся в выгрузке
becks, да, это забавно, но они не в одно место ломились) дело в том что, как вам уже сказали, у крупных организаций единая база. Делается это в первую очередь ради экономии сил и времени.
Если посмотреть на компании поменьше то оказывается что многие hr-ы все-равно общаются. То есть если вам отказали в одной организации то вам автоматом закрыт путь ещё в несколько только по тому что о вас уже есть ряд ценных данных. Это очень интересный мир.
Есть и обратная сторона. Если вы просто не подошли организации, но являетесь перспективным то об этом тоже с удовольствием разнесут информацию и на вас могут выйти будущие работодатели.
В частности этот мир так устроен из-за компаний, занимающихся подбором персонала и они живут на премиях за приведенных сотрудников
nsmilyk, не спросите - не узнаете. Чем больше компания тем реже они работают с посредниками. Вы же замахнулись на очень крупную рыбу) я не говорю что у вас не получится, но просто проще влоб, просто подготовившись
Ernest Faizullin, здесь нужна нейросеточеа для принятия решений,ИА тупого бота, отвечающего рандомные фразы модно за полчаса нафигачить и дальше его обучать.
Если что то вряд ли вы найдете готовое решение ибо оно состоит из множества частей и инструментов. Это вам не пара скриптиков с маппингом
AlexAll, ну и в догонку, вы используете вместо Data provider массив моделей. Прочитайте, пожалуйста, документацию, а то складывается впечатление что вы не были там еще