Владимир Куц
@fox_12 Автор вопроса, куратор тега Python
Tark: я читаю пакет побайтово, делаю парсинг данных. Далее если сервер отправляет данные - я должен получить следующий пакет. Если нет - то прерваться и продолжить дальнейшее выполнение.
Владимир Куц
@fox_12 Автор вопроса, куратор тега Python
Да - именно в этом проблема. Мне каким-то образом нужно перехватить момент, когда все данные вычитаны. Проблема в том, что после чтения текущего пакета, следующий пакет может придти, а может и нет. PHPс этим справляется, просто ожидая eof. В Питоне я не нашел как это сделать.
Лариса: ну так приведите более полные данные - используемые модели, используемую БД... По первоначальной постановке вопроса "что означает эта ошибка" без каких-либо доп. данных, ничего кроме гугления не посоветуешь.
Владимир Куц
@fox_12 Автор вопроса, куратор тега Python
По этой инструкции соберется либа именно под мою версию питона? Просто я гуглил предварительно - вроде еще нужно сорцы самого питона скачивать, и его перекомпилировать тоже...
someserj: > а на сколько важно быть в первой 10 откликнувшихся на проект
А вы поставьте себя на место клиента. Будете скрупулезно несколько десятков откликов фрилансеров каждый из которых считают себя суперпрофессионалом способным в самые короткое время выполнить именно ваш проект, или тупо отпишите первым откликнувшимся.
Владимир Куц
@fox_12 Автор вопроса, куратор тега Django
managed = False - inspectdb сам расставляет по-умолчанию. Естественно в мета моих моделей такое есть. Остальное полезно, но не повлияет на желание джанго создать таблицу 'django_migrations' там где не надо :)
Владимир Куц
@fox_12 Автор вопроса, куратор тега Django
sim3x: Если None - то берет дефолтовую БД. Если строка - то использует БД из строкового значения. Именно для параметра db_for_write - не уверен, но скажем для allow_migrate - False допустимо.
Владимир Куц
@fox_12 Автор вопроса, куратор тега Django
sim3x: Это не выход и не проблема "на ровном месте". Чтение определенных данных из нескольких таблиц, которые постоянно обновляются на огромной сторонней БД для обработки в своем проекте - довольно часто встречающаяся задача.