Виктор, нужно снимать вращающийся вентилятор (медленный, например большой комнатный) при солнечном свете, замерять по видео скорость оборотов и смотреть длину следа
например 240fps уже вручную не протестировать, рука не успеет
p.s. я снимал на видео двигающийся квадратик по экрану, с 60fps
Carburn, полистал, не нашел на чем они зарабатывают, т.е. значит деньги идут к ним от производителей так? можешь догадаться за что именно?
я ожидал что там будут тесты на чувствительность сенсора, цветопередачи, разрешение, тесты алгоритмов аппроксимации и прочее прочее, а там просто таблица с абстрактной оценкой
во первых пиксел на матрице - монохромен, нужен светофильтр (например Байера) который превращает четыре (или три, по ситуации) соседних пиксела в один либо очень хитрым алгоритмом миксит соседние в один и получается что если берешь raw-ку, то соседние пикселы будут созависимы, т.е. артефакты будут, как ни старайся
во вторых, выдавать железу смартфона сырой поток тупо дорого по ресурсам, гораздо дешевле обработать предварительно его прямо в чипе сенсора, поэтому по честному я даже не уверен увидим ли мы такие железки в ближайшее время?
ну и производителю похоже не выгодно давать доступ к качественному оборудованию потребителю, иначе бы они не заворачивали все возможности оборудования только на официальное приложение (а публичному api давать только минимум)? например доступ к сверхбыстрому сенсору или raw обычно приложениям не доступен а camera api намеренно выдается кастрированным.
Drno, не не я ссылки привел для инструкций, там как раз используется webdav, его можно вообще готовый от какого-нибудь яндекса взять или настроить на штатном windows iis благо инструкцию 100500
о каком экспорте идет речь?
db файл и есть файл базы данных, его никуда не надо копировать (кроме самого android, например как ресурс), sqlite студия позволяет открыть файл базы по указанному пути и работать с ним одновременно с работающей программой (в этом режиме кстати медленнее будет но на запись sqlite и так хуже больших собратьев так что не беда), кстати даже по сети (windows smb или linux nfs) из-за чего это решение становится похожим на полноценную базу данных, работающую в локальной сети
Александр Кошелев, идентификатор в sqlite таблицах может быть хоть свой собственный своего типа, так и встроенный rowid, рекомендую без надобности нового не заводить
sqlite это база данных в одном файле, ее достаточно приложить к самому приложению или скачать после первого запуска и положить на карту памяти (или точнее external в общем по желанию)
Для работы с базой данных достаточно библиотеки, поддержка абсолютно всего везде, опенсорс и прочее прочее.
На компьютере с базой можно работать как штатным консольной утилиток так и одним из миллиона инструментов, попробуй sqlite studio
продолжай, что меняется в where? каждый новый аналитический отчет считает совсем новые цифры и логику или речь идет об упомянутых выше просто подмена условий фильтрации (по страницам или элементам на странице)?
я про то что если аналитика уже есть и она не меняется, ты ее считаешь персонально для каждой партиции - это создание самодельного индекса (хранится как обычные данные в таблицах)
а итоговый отчет строится уже по этим собранным данным, в итоге - данные по партициям считаются по маленькому объему данных - быстро, однократно, а итоговые данные собираются из этих собранных данных тем более быстро и без проблем
LRei, а остальные сложнее и менее удобные
для питона есть qt creator, но помятуя что для qt creator питон не родной, это уже создаст шаг сложностей и неудобства
ок, вот первое попавшееся видео, создание python прложения с gui на основе ironpython, мышевозекательно
сейчас как я понимаю у вас просто набор данных, с индексами и вы этим данным пишете select count() .. where страница, максимум объединив в запросе несколько таблиц, по которым разбиты данные
этот запрос каждый раз будет считать ВСЕ данные, даже если он по индексам гуляет, там логарифм от объема а у вас данных 80м в сутки!?
вот и считайте все то же самое но в пределах суток... затем когда надо, уже по этим итогам считайте по всем данным
По поводу MyISAM, направление интересное, попробуем.
еще индексы на текущей партиции отключай на время записи
Adamos, да какая разница, хоть по страницам, по элементам и т.п.
главное чтобы для каждых суток считался свой итог, его не нужно пересчитывай при появлении новых суток данных
вся идея партицирования агрегации в том что итоговое значение будешь считать агрегируя уже эту агрегацию по всем суткам, данных мизер
Alexandr_Raw, тогда для тебя это приговор, не найдешь драйвера - не сможешь загрузиться
и повторюсь сказаное выше - система не видит не твой диск а не умеет работать с китайским контроллером
ищи драйвера на свой контроллер, смотри как оно называется в win7
система (диск C: с программами) будет на твоем ssd nvme, но загрузочный раздел примерно 256мб будет на sata диске
этим загрузочным диском может получиться решить проблему - 'биос не видит диска и не может загрузиться', но это будет возможно, если миниатюрная версия windows, из которой состоит загрузочный диск, увидит твой контроллер (там драйверов и возможностей сильно больше чем у биоса), когда то производителями даже выпускались дрйвера для этого этапа загрузки (их нужно было загружать в систему с помощью флопи или компакт диска еще до начала устанровки)
чтобы проверить эту возможность, не нужно покупать sata диск, достаточно просто запустить установщик windows с флешки и посмотреть, увидит ли он твой ssd