Предположим, что запускается скрипт на целый день, распарсил огромный обьем информации, пропала электроэнергия, все пропало. Работало бы параллельно 2 ф-ции, то какая-то часть информации сохранилась бы.
Тут - какая-то странная аргументация. Есть проблема. Выключение питания. Значит нужно софт переписать так чтобы он работал не 1 батчем а скажем 100 микро-батчей. И пускай каждый микро-батч фиксируется как фолдер с csv-файлом и с уникальным id этой пачки. Такой подход даст тебе возможность возобновлять работу после аварийного ребута и продолжать те микро-задачи которые еще не закончены.
Переписывание на параллелизм сейчас - тебе еще рано. Сначала надо исчерпать обычные опции оптимизации.
Если мы делали фото зеркалкой - то обычно в Exif теги пишется много служебной информации.
Если фокусное расстояние известно и известен угол поля зрения то наверное можно как-то посчитать.
Но я-бы не стал расчитывать именно на эту информацию во всех фотках.
Если exe-файл не сжат никаким упаковщиком - то можно просто найти в нем внутри ресурсы (текст, иконки и прочее) и слегка изменить их так чтоб сумма давала нужную.
Мне кажется что вопрос глубже. Давайте вспомним что безопасность обеспечивается не паролем а хешом.
Давайте вспомним что как мы получаем хеш. И давайте смоделируем угрозу. Тоесть представим что мы - злоумышленники и мы хотим заполучить доступ. Нужен ли нам вообще пароль? Просто тема топика настолько банальна что мне хочется внести в нее некий новый вопрос. А не обсуждать сочетания unicode символов.
У тебя таблица - 45Гб. И ты хочешь мерять длину в charasters (в символах). Насколько тебе сильно важна точность?
Ну даже если ты к примеру промахнулся на 100Мб. Насколько это важно и критично для твоего отчета?
В качестве аналогии. Если ты собрался лететь с Земли на Марс то тебе безразлично какое расстояние в метрах. Никто такую точность не промеряет. Скорее будут сотни километров. Бешеной собаке... как говорицца и 100 верст - не крюк.
По поводу откатов. Это ручная работа. Чтоб фича работала - нужно написать соотв "откатные" скрипты. Например если был insert в ченджсете - то в откате будет соотв delete.
Тут - какая-то странная аргументация. Есть проблема. Выключение питания. Значит нужно софт переписать так чтобы он работал не 1 батчем а скажем 100 микро-батчей. И пускай каждый микро-батч фиксируется как фолдер с csv-файлом и с уникальным id этой пачки. Такой подход даст тебе возможность возобновлять работу после аварийного ребута и продолжать те микро-задачи которые еще не закончены.
Переписывание на параллелизм сейчас - тебе еще рано. Сначала надо исчерпать обычные опции оптимизации.