Задать вопрос
  • На сколько сложно утроиться джуном на позицию C++ dev?

    mayton2019
    @mayton2019
    Lev, я-бы сказал следующее. Питон не должен быть первым языком. Все таки определенная дисциплина программирования должна быть выдана в качестве первого урока. Это как в музыке. Сначала тебя учат просто как правильно держать музыкальный инструмент. А потом когда ты уже станешь профи - можешь держать его как угодно. Но пока ты гимназист - будь добр. Следуй советам ментора. Поэтому языки строгой типизации должны быть сначала. Это как математика. Волюнтаризм и либеральность пойдут потом.
  • Почему при входе в Docker возникает ошибка?

    mayton2019
    @mayton2019
    Так у меня

    Microsoft Windows [Version 10.0.19045.2604]
    Docker :  4.17.0  99724


    А теперь зайди в Docker Desktop - Troubleshooting и понажимай
    - Clear/Purge
    - Reset to Factory Defaults.

    И еще зайти в консоль windows event viwer в System и посмотри есть ли красные сообщения?
  • Почему при входе в Docker возникает ошибка?

    mayton2019
    @mayton2019
    levanuel29,
    Версия Docker - последняя, недавно скачанная с сайта

    ты очень любезный собеседник. Версия - последняя. Даже и нечего сказать.
    И Windows у тебя без минорной версии. Чтож... Будешь зарплату получать - не смотри
    в последние цифры. Пускай бухгалтер тебе округляет до тысяч.
  • Почему при входе в Docker возникает ошибка?

    mayton2019
    @mayton2019
    История приключений автора не особо интересна потому-что натворил он очень много и нет доказательств что Docker раньше работал. Поэтому я предалагю выкинуть вообще всю историю событий и пойти от фактов. А именно от того что мы имеем сейчас.

    Нужны версии софта Windows и Docker. И не делай скриншоты. Модератор удалит. Копи-пасть текст.

    Если докер выдает ошибку текстом - то копируй сюда текст.
  • Какие есть способы парсить facebook?

    mayton2019
    @mayton2019
    Парсинг - это такая рисковая штука. Нет контракта. Нет гарантий что API не изменится завтра. Действительно лучше вложить свои силы в что-то более понятное.
  • Как собрать несколько программ в один исполняемый stanalone файл?

    mayton2019
    @mayton2019
    Никита Преснов, давай порассуждаем. Вот когда ты устанавливаешь игру. Тебя-же не беспокоит что там 100 000 файлов и ресурсы и музыка и dll и картинки. Верно?

    У тебя просто создается ярлык.

    Так может и у тебя нет проблемы в количестве файлов. А может тебе просто взять инсталлировщик. Собрать инсталляцию и передать это блондинке как игру. Устновил. Ярлык на столе. И пользуйся.

    Я прав?
  • Зависит ли производительность базы данных от количества записей?

    mayton2019
    @mayton2019
    Vitsliputsli, есть старый фокус селективности. Он больше относится к мангитным дискам. Считается что если вы делаете выборку по индексу и выбираете более 3-5% строк - то использование indexscan уже не эффективно. Проще сделать Fulltablescan.

    Как сейчас - не знаю. В эпоху SSD такой параметр как seek time перестал играть роль для индексного поиска.

    И чтоб определить эту границу переключения - нужен был CBO. Для SSD я думаю что были подкручены коэффициенты. Всегда проще сделать так чем менять rules. Потому что CBO это как-бы персептрон и менять его поведение лучше коэффициентами чем логикой алгоритма.
  • Зависит ли производительность базы данных от количества записей?

    mayton2019
    @mayton2019
    Vitsliputsli, я раньше хорошо помнил как работает оптимизатор Oracle. Сейчас после Databricks/catalyst у меня каша в голове. Тем более что этих CBO.... каждая овоще-база делает свой. Вобщем точно не помню. Но в идеале оптимизатор должен работать не на RBO это точно.

    Будет ли оптимизатор рисковать полагаясь на статистику

    это вопрос сложный. Старые рекомендации от оракла образца 2010 года писали что надо
    просто пересобрать статистику. Там процедура была gather_table_stats. Она и так по скедулеру
    работала ежесуточно. И предполагалось что количество строк в крупных БД - стационарно
    или меняется не сильно. Ну если их - миллионы - то загрузка там сто тыщ строк в день
    особо не делает погоды. Были краевае кейсы когда CBO ошибался. Но философия такова
    что для крупных систем если оптимизатор угадывал эффективность плана хотябы в 9 запросах
    из 10 то это уже был успех. Потому что тюнить запросы на ходу DBA не успевали. Особенно
    там где кодо-генерация. Всякие ORM/Hibernate и динамический SQL и билдеры отчетов. Там даже доступа к исходнику не всегда можно получить.
  • 4k монитор GeForce GTX 1050 mobile и i5-8300H скорость работы?

    mayton2019
    @mayton2019
    Да. Это правда для всех игровых технологий. Хочешь поднять fts - уменьшай screen-resolution.
    Мы это знали еще во времена 3dfx, NVidia карт и ускорителей.

    И за 25 лет ничего вобщем не изменилось. Пикселы "имеют значение".

    Насчет Literoom я не знаю. Надо понять какие технологии он использует. И тут проще действовать
    по аналогии. Запускать игру. Смотреть все сенсоры видеокарты. Фиксировать. И потом лайтрум
    и тоже смотреть какие части техно-стека или какие элементы конвейера грузятся или перегреваются.

    И если лайт-рум это облачное приложение и оно использует просто сеть - то тогда разрешение тоже
    объясняет задержки. Больше информации надо передавать.
  • На чем дешево и долго хранить десятки Тб информации сейчас?

    mayton2019
    @mayton2019
    Dmitry Bay, я тоже ошибался. И убивал бекапы случайно. Обычная опечатка. Вообще
    бэкапить не очень сложно. А сложно гарантировать что файловая свалка пригодна к восстановлению.
    А это - еще более сложная задача чем бэкап. Потому-что тренировочные восстановление - ресурсоемкие.

    Есть еще стратегия. Я правда не знаю как она называется. Я ее называю тик-так.
    У вас есть 2 хранилища. И вы бэкапите по четным неделям на первое. И по нечетным неделям
    на второе. При таком подходе если одно хранилище умирает или недоступно - у вас есть второе максиммум
    давности 2 недели.

    Еще у бэкапа есть другая проблема. Он не страхует вас от обычных человеческих ошибок. Вы если
    имеете доступ на удаление можете сами что-то случайно удалить. Рука дрогнет. Вот с этой точки зрения
    кассета стриммера даже как-то надежнее выглядит. Ну там и записывать неудобно. Но и удалить случайно
    тоже не получиться.

    Есть еще идея чтоб форматировать бєкапные диски в BtrFS/ZFS и просто делать снапшоты. Но я
    этот вопрос не исследовал так глубоко чтоб рекомендовать это. Да и в адрес Btrfs пока еще идут
    жалобы. Тут - цена рисков - насколько мы доверяем Oracle/FreeBDS и есть ли шанс восстановить
    если диск поврежден или какая-то неведомая ошибка возникает в использовании. Тут - нет теоретически
    верного ответа. Тут просто время и практика должны быть главным аргументом.
  • Как сконвертировать .mht -> .pdf?

    mayton2019
    @mayton2019
    Кто-же еще perl использует в наше время :)
  • На чем дешево и долго хранить десятки Тб информации сейчас?

    mayton2019
    @mayton2019
    Dmitry Bay, учитывая риски я-бы хранил 50Тб не в одном а в двух местах. Ситуация в мире показала что облакам тоже не стоит сильно доверять.

    И тут уже к автору вопрос, готов ли он раз в 2-3 года обновлять диски в raid массиве. Если данные критичны, то по 2-3 диска минимум необходимо в raid запустить.

    Я-бы не использовал RAID. Это режим доступа реального времени. Слишком шикарно. Для информации которая редко поднимается - можно и просто добавлять контрольные коды восстановления как я предложил выше. А уровень восстановления подобрать экспериментально.
  • Не запускается Kafka в docker-compose, как починить?

    mayton2019
    @mayton2019
    Вот статья которую я читал https://developer.confluent.io/learn/kraft/ но я еще не успел попробовать.

    Вот список proposals где сама идея описывалась https://cwiki.apache.org/confluence/display/kafka/...

    я думаю по ключевому слову KRaft там можно найти главный proposal который является основой для всех других.
  • На чем дешево и долго хранить десятки Тб информации сейчас?

    mayton2019
    @mayton2019
    Есть у меня облачко с хранилищем типа S3. Пользуясь случаем я щас гляну цены на самое жлобское хранение файлов.

    Вобщем там на каждый файл атрибут ставится. Есть такой тип хранения:

    Glacier Deep Archive - Long-lived archive data accessed less than once a year with retrieval of hours - min storage duration 180 days - Per-GB fees apply.

    Какой-то глубокий айсберг. Хм... ну по роду доступа очень похоже на ленточную библиотеку. На это указывает их рекомендация по частоте доступа.

    Цены за гигабайт пока не вижу. Чуть позже поищу прейскурант.
  • Как сделать очередность промисов?

    mayton2019
    @mayton2019
    Автор хочет уничтожить саму идею асинхронности?

    P.S. -Все. Пропал дом! - воскликнул Филипп Филиппович и всплеснул руками.
  • Зависит ли производительность базы данных от количества записей?

    mayton2019
    @mayton2019
    Да. Это справедливо для RBO-оптимизатора. Тоесть если движок следует правилам то он всегда пойдет по индексу если таковой есть. Если работает CBO - то возможен кейс когда проще сделать FTS по маленькой таблице в 1 блок чем сделать 2-3 чтения (1й уровень и второй индекса + чтение табличного блока по ROWID).
  • Зависит ли производительность базы данных от количества записей?

    mayton2019
    @mayton2019
    Vitsliputsli, пожалуй да. Но здесь автор ничего не указывает про таблицу и индексы. Индекс вобщем-то вещь опциональная. Например Oracle не требует создавать индексов. И классическая таблица-лог тоже их не требует в силу отсутсвия НФ выше чем 1. Таблицы staging. Таблицы дата-аналитики. Все это не индексируется обычно.