тогда само собой ничего не надо городить, VirtualBox в мышевозекательном виде все позволяет сделать, сеть хоть NAT хоть сетевой мост (тогда твой роутер им выдаст ip локалки)
настраивай одну машину, затем в свойствах диска выбирай тип 'с множественным подключением' и подключай его в 10 созданных машинах, на каждой машине этот диск будет использоваться с сохранением записей в этих виртуалках (т.е .оригинальный не будет перезаписан)
на всех машинах в сети перестает работать интернет? вот это сюрприз
могу предположить конфигурацию, этот nordvpn/protonvpn/... ставишь их виртуальный адаптер в бридж к сетевой карте (это можно сделать но по умолчанию никто из них так не делает) и dhcp их vpn становится виден во всей сети и машины начинают по окончанию времени жизни полученных адресов получать шлюз этого vpn (точнее туда сюда переключаться) правда речь идет о десятках минут/часах
hint000, тогда уж не так:
value_idx=m_key_idx[key];
m_value[value_idx]=value;
и это нормально будет работать, если ключи заполняют более менее нормально пространство значений от 0 до N (а то если будет 2 ключа 1 и 123123123123 то индексный массив будет занимать гигабайты)
Чтобы решить, какой из майнеров будет делать запись в блокчейн, и это нельзя заранее предугадать или предопределить (случайный процесс).
Результат решения проверяется без затрат ресурсов (т.е. видно что майнер ее действительно решил), при этом благодаря тому что хеш берется от всего блока, чужое решение нельзя использовать для подписи ни другими майнерами (в блоке первая транзакция - наградить майнера) ни для других блоков
Возможность подстраивать сложность позволяет сделать так, что время, затрачиваемое на решение примерно одно и тоже, благодаря этому, чтобы обогнать других майнеров нужны мощности сравнимые с мощностью сети (атака 50%+1), например считать параллельно блоки с набором транзакцией злоумышленника чтобы в нужный момент выпустить их все и отменить легинимные.
подробнее как именно от сложности зависит цель (нули которые надо искать)
Невозможно качая один торент, забирать куски у пиров с другим торрент, даже если там файлы совпадают (например первый файл такой же, а второй отличается, чанки первого файла будут иметь совпадающий хеш)
по крайней мере я о таком не слышал, это значит идентификация торента происходит по его главному хешу а не по его чанкам
плюс разум подсказывает что если бы dht рулила хешами чанков, нагрузку она бы генерировала кратно больше, а пользы - ноль
ты должен сделать демона, который будет при изменениях в базе вычислять, когда будет ближайшая дата события, после исполнения кода на события которые долждны были исполниться к этому моменту, вычисляешь снова следующее
бери всю подстроку с датой line[1:17]:
и не нужно никаких minutes+1, любое изменение этой подстроки = смена минуты (ведь могут быть пропуски минут, например ровно час пропусков, минута та же час другой)
да, правда он немного неудобный, когда речь идет о 'балансе на адресе', команда разработчиков bitcoin core маниакально следят за тем чтобы в проекте не было доступа даже к базе UTXO (текущий список всех адресов блокчейна на которых ненулевой баланс), притом что сам кошелек эту базу собирает (есть внешние скрипты, которые читают эту информацию, но только когда кошелек выключен), зачем почему - мне непонятно.
чтобы собрать текущий баланс на адресе нужно просканировать весь блокчейн (добавив адрес в кошелек он так и сделает, я имею в виду не сгенерровать новый пустой а добавить чужой для мониторинга), никаких индексов для ускорения этого нет, но на сколько я знаю есть неофициальные кошельки где это реализовали
можно вопрос, только серьезно, зачем нужно многоуровневое наследование шаблонов? какие задачи оно решает? я про те задачи которые собственно ставит бизнес, который платит, а не разработчик, который реализует... они экономят деньги? т.е. хотя бы время разработчика?
Ипатьев, про пустую плашку пока генерация контента - я сказал, так рыночек порешал, бизнесу получается удобнее запилить это г. чем найти нормального разработчика
но боюсь проблема глубже, недавно собирал idena-desktop для electron, простая формочка (весь функционал обслуживает бакэнд по http rpc) и простенький редактор картинок (вставить из буфера/файла, подправить размер, наложить еще) - 1309 модулей, там модули на замену всего, даже регулярки штатные чем то не понравились, работа с файлами и прочее прочее. Этакий садомазохизм, создание работы там где она не нужна, нужны недюжие скилы чтобы просто разобраться в проекте
про xss, идиоту же ясно что этим не должен заниматься шаблон от слова совсем, а то как раньше писали нубы говорить мне не интересно
я не топлю за 'современный стильный модный молодежный' чтоб бы ты туда не вкладывал, проблему тормозов создает простая безграмотность разработчиков. Существующие инструменты позволяют создавать проекты буквально не понимая как это устроено внутри, порождая кошмарные нагромождения кода и фреймворков, но так как в мире сейчас решают деньги - стоимость таких решений существенно ниже правильных и эффективных.
На рынке услуг разработчиков появились программисты, которые умеют только 'использовать готовые решения' и 'копировать со stackowerflow', а не программировать в том смысле, который изначально вкладывался в это понятие
p.s. отказ от генерации контента на стороне сервера в мире произошел исключительно по причинам попытки ускорить веб, понизить нагрузку на сервера. Сервер не должен заниматься вопросами отображения информации, только а данные.
например функции я не определяю внутри шаблона, даже не так, нужно правльно организовать структуру кода и его файлов, шаблоны - это программы по генерации контента, и не важно на каком языке они созданы
я уже говорил, использовать php шаблоны для генерации контента html web - идеологически устарели и не рекомендуются, и даже без относительно твоим утверждениями, просто потому что внешний вид должен определяться на клиенте а не на сервере. Сервер - это бизнеаслогика
а синтаксический сахар
какая разница <?=$data->name; ?> у тебя или {$data->name} ?
sergey_privacy, я ответил на вопрос, штатный инструмент архивации файлов 'на лету' есть в btrfs, он же как мне кажется лучший (его степень сжатия выше ntfs при той же нагрузки на процессор или незначительно выше, а если взять среднюю то вообще вне конкуренции).
если боишься проблем, не включай поддержку raid5 (реализуй ее через mdadm) и не меняй размеров файловой системы на лету/не добавляй удаляй устройств (хотя лично у меня процесс удаления с устройства с raid5 из 5 дисков прошел нормально, файлов много, используется годами, но да это не показатель), максимально простой сценарий использования без необычностей.
p.s. да не получится чекбоксик нажать, необходимо в консоли у файловой системы настроить степень сжатия а затем с помощью утилиты ос chattr изменить флаги на файлах и каталогах, затем нужно либо повторно скопировать каждый файл либо запустить дефрагментацию (по факту это то же самое)
Adamos, там где люди рабтают с таблицами в эксель это не решение
анализ данных, составление отчетов, ты хочешь посадить специального программиста который будет это пилить все в вебморде? но тогда зачем остальные сотрудники? ой внезапно они все перетекут в разработчиков этой вебморды,.. поздравляю, ты повысил затраты своего отдела в несколько раз на пустом месте
тогда само собой ничего не надо городить, VirtualBox в мышевозекательном виде все позволяет сделать, сеть хоть NAT хоть сетевой мост (тогда твой роутер им выдаст ip локалки)
настраивай одну машину, затем в свойствах диска выбирай тип 'с множественным подключением' и подключай его в 10 созданных машинах, на каждой машине этот диск будет использоваться с сохранением записей в этих виртуалках (т.е .оригинальный не будет перезаписан)