А где у тебя в коде "Solution"? Там, наверное, требуются конкретные названия классов/методов. И уж, наверняка, там есть справка по типу "как пользоваться и как отправлять решения".
В стандартной библотеке питона уже 10 лет как существует pathlib, а в нем есть mkdir, а у него есть параметр parent. Одна строчка кода решает проблему полностью. И вообще почти все подобные проблемы, для этого модуль и был написан. Хватит жить в прошлом, пора двигаться в будущее.
pologenki, нет у этого БП никакого сертификата. Сертификат - это число 80+, а потом драг металл. Других чисел не бывает, в магазинах можно фильтр настроить по сртификату. Смотрю в ДНС - за 100 рублей дороже идет модель уже с сертфикатом бронза. Я бы лично доплатил за модель с сертификатом либо брал БП выше мощностью. Переплата особенно имеет смысл, если ПК берется на долгое время, любая электроника со временем деградирует.
Блоки питания производятся на основе начинки от небольшого числа заводов. Бренды добавляют свой корпус, вентилятор, провода. Вот как раз обычные БП от DeepCool, Chieftec, Thermaltake делаются на основе одинаковой начинки от CWT. Тут только гуглить конкретные модели, чтобы всю правду узнать. Так что в идеале для требуемой мощности нужен сертификат 80+ бронза, а разные бренды будут примерно одинаковы. Есть сомнения - берёшь БП с большей мощностью про запас на деградацию КПД от времени. Всегда есть альтернатива - раскошеливаешься на SuperFlower 80+ Gold/Platinum и 10 лет никаких проблем не знаешь.
Гуглил и ничего не нашёл? Невероятно. Тогда давай первый шаг без гугления. Берёшь один из самых годных учебников про нейросети на практике. Chollet, Deep Learning with Python. Там последняя глава как раз про генеративные нейронки - и про текст, и про картинки, и про реализацию. Учебник надо читать, а в процессе писать код и много гуглить. Похоже, круг замкнулся, для изучения темы придётся искать информацию в интернете, но всё равно попробуй.
Так берёшь и гуглишь "amd ryzen 5600 ram overclock sweet spot". Получаешь, что это 3600 МГц CL16. Вот такую и надо выбирать в идеале. Если только эти две в наличии, то для игр я бы взял вторую из-за сильно меньших таймингов.
В питоне у функции open есть параметр encoding. По умолчанию он задается операционной системой. Поставь конкретное значение руками. В твоем случае скорее всего UTF-8.
Если производительность упирается в процессор, то необязательно будет загрузка хотя бы одного ядра 100%. Однопоточная задача запросто размазывается по нескольким ядрам, хотя в каждый конкретный момент времени работает только одно. Питонисты с ГИЛом раньше многих с такой особенностью знакомятся. Если интересно, то про это можно начать гуглить примерно так "cpu preemptive scheduling" или "cpu time slicing", там много можно узнать про работу в один поток и в несколько.
На практике берут, например, линукс, тензорфлоу и несколько одинаковых видеокарт нвидиа, а затем распределяют модель по ним. Руками задают, какие слои куда помещать. Конечно, для этого модель должна быть реализована/сконверитрована в тензорфлоу/керас. И надо еще код руками писать, скачать все готовое из интернетов вряд ли получится. У кого-то работает, у кого-то нет, зависит от версии тф и конкретных багов в ней.
Судя по характеристикам, пк в вопросе - это ноутбук. В этом случае лучше качать драйвера с сайта производителя, если винда сама не смогла найти подходящие. Чаще всего они будут устаревшие, зато работающие. Ноутбуки - это всегда особенности и временами головная боль.
Стоит начать с гугления по теме "apple cultivar classification" и поиска готовых/полуготовых решений. Если таких не найдется, то шансы на результат падают примерно до нуля.
Можно начать с обычной аналитики без DS. К математике нужно добавить только SQL и Python на нормальном уровне, чтобы на собесе не теряться. В идеале еще логрегрессия, бустинг и метрики эффективности. В банковской/финансовой сфере за это сразу нормально платят. На старте 150 не гарантировано, а 100 абсолютно реально.
Дима Zero, эта тема называется data augmentation (обычно речь именно про изображения) и присутствует во всех нормальных учебниках и туториалах про машинное обучение и нейронки для работы с картинками.
150 изображений для обучения нейронки? Маловато будет. Вот и результат никакой. Классический для изучения нейронок набор данных MNIST содержит 60к картинок. На практике данных нужно как можно больше - миллионы и миллиарды, сколько бюджет и ресурсы позволяют, к тому же их дополнительно искажают по-всякому на каждой эпохе случайным образом.
Так гугли "nlp neural network" или "natural language processing", добавляя что-нибудь вроде guide, titorial, beginner. Будет тебе миллион наводок и про токенизацию, и про обучение нейронок с учителем, и про все остальное. Тема необъятная, большинство материалов на английском.
А фильтры от пыли там есть? Должны быть. Тогда я бы добивал все 6 оставшихся вентиляторов на вдув, чтобы поток воздуха внутрь через фильтры был больше, чем поток наружу. Получится, что через все прочие дырки воздух будет идти наружу и не будет лишняя пыль лезть внутрь. К этому бы еще добавить размещение системника не на полу, а повыше.
Известная особенность кераса. Раньше он был самостоятельной библиотекой, теперь часть тензорфлоу. И теперь использует так называемую ленивую загрузку вместо обычного импорта всего и сразу. Легко гуглится целая куча полукостыльных решений этой проблемы - "no autocomplete for keras in vscode".
Обычно данные на входе просто есть. Сразу все или со временем, это ж поток. Они по очереди принимаются и обрабатываются. Либо сразу всё принимается, а потом по очереди обрабатывается. Конечно, входные данные должны соответсвовать формату либо приниматься как строка. В данном случае непонятно, чего в итоге нужно-то. Вероятно, поможет просто cin.ignore(1024, '\n') после чтения z. Или всё-таки сначала всё прочитать через getline в строку или отдлельные значения в vector.