Так берёшь и гуглишь "amd ryzen 5600 ram overclock sweet spot". Получаешь, что это 3600 МГц CL16. Вот такую и надо выбирать в идеале. Если только эти две в наличии, то для игр я бы взял вторую из-за сильно меньших таймингов.
В питоне у функции open есть параметр encoding. По умолчанию он задается операционной системой. Поставь конкретное значение руками. В твоем случае скорее всего UTF-8.
Если производительность упирается в процессор, то необязательно будет загрузка хотя бы одного ядра 100%. Однопоточная задача запросто размазывается по нескольким ядрам, хотя в каждый конкретный момент времени работает только одно. Питонисты с ГИЛом раньше многих с такой особенностью знакомятся. Если интересно, то про это можно начать гуглить примерно так "cpu preemptive scheduling" или "cpu time slicing", там много можно узнать про работу в один поток и в несколько.
На практике берут, например, линукс, тензорфлоу и несколько одинаковых видеокарт нвидиа, а затем распределяют модель по ним. Руками задают, какие слои куда помещать. Конечно, для этого модель должна быть реализована/сконверитрована в тензорфлоу/керас. И надо еще код руками писать, скачать все готовое из интернетов вряд ли получится. У кого-то работает, у кого-то нет, зависит от версии тф и конкретных багов в ней.
Судя по характеристикам, пк в вопросе - это ноутбук. В этом случае лучше качать драйвера с сайта производителя, если винда сама не смогла найти подходящие. Чаще всего они будут устаревшие, зато работающие. Ноутбуки - это всегда особенности и временами головная боль.
Стоит начать с гугления по теме "apple cultivar classification" и поиска готовых/полуготовых решений. Если таких не найдется, то шансы на результат падают примерно до нуля.
Можно начать с обычной аналитики без DS. К математике нужно добавить только SQL и Python на нормальном уровне, чтобы на собесе не теряться. В идеале еще логрегрессия, бустинг и метрики эффективности. В банковской/финансовой сфере за это сразу нормально платят. На старте 150 не гарантировано, а 100 абсолютно реально.
Дима Zero, эта тема называется data augmentation (обычно речь именно про изображения) и присутствует во всех нормальных учебниках и туториалах про машинное обучение и нейронки для работы с картинками.
150 изображений для обучения нейронки? Маловато будет. Вот и результат никакой. Классический для изучения нейронок набор данных MNIST содержит 60к картинок. На практике данных нужно как можно больше - миллионы и миллиарды, сколько бюджет и ресурсы позволяют, к тому же их дополнительно искажают по-всякому на каждой эпохе случайным образом.
Так гугли "nlp neural network" или "natural language processing", добавляя что-нибудь вроде guide, titorial, beginner. Будет тебе миллион наводок и про токенизацию, и про обучение нейронок с учителем, и про все остальное. Тема необъятная, большинство материалов на английском.
А фильтры от пыли там есть? Должны быть. Тогда я бы добивал все 6 оставшихся вентиляторов на вдув, чтобы поток воздуха внутрь через фильтры был больше, чем поток наружу. Получится, что через все прочие дырки воздух будет идти наружу и не будет лишняя пыль лезть внутрь. К этому бы еще добавить размещение системника не на полу, а повыше.
Известная особенность кераса. Раньше он был самостоятельной библиотекой, теперь часть тензорфлоу. И теперь использует так называемую ленивую загрузку вместо обычного импорта всего и сразу. Легко гуглится целая куча полукостыльных решений этой проблемы - "no autocomplete for keras in vscode".
Обычно данные на входе просто есть. Сразу все или со временем, это ж поток. Они по очереди принимаются и обрабатываются. Либо сразу всё принимается, а потом по очереди обрабатывается. Конечно, входные данные должны соответсвовать формату либо приниматься как строка. В данном случае непонятно, чего в итоге нужно-то. Вероятно, поможет просто cin.ignore(1024, '\n') после чтения z. Или всё-таки сначала всё прочитать через getline в строку или отдлельные значения в vector.
Если на диске данные у тебя лежат в подгтовленном виде, т.е., например, полность готовые запикленные тензоры для кераса, то скорость работы запросто упрется в производительность диска или скорость передачи данных между диском/процом/памятью. Правда, это ситуация редкая и вообще никак не связана с прикладной задачей, определяется просто способом работы с данными.
br0_oJ, если много-много классов можно разделить на независимые группы, то, конечно, можно обучать одну нейронку на каждой группе классов, а потом несколько нейронок просто заворачивать в единую обертку, это стандартный функционал того же тензорфлоу. Только придется написать логику соединения ответов нескольких нейронок (в простейшем случае - конкатенация).
br0_oJ, безосновательное заявление. Сколько бы ни было классов, все равно нужно все данные для обучения прогнать через архитектуру нейросети несколько раз (эпох). А количество классов задает размер буквально пары полносвязных слоев на выходе, т.е. ничто по сравнению с многослойными свертками того же резнета. Может, вопрос скорее в соответствии между задачей и возможностями? На безвидеокартье и процессор видеокарта.
Откуда такое разделение, сначала 10, потом еще 20? Данных для обучения нет? Они не размечены? В любом случае проще будет еще раз обучить всю нейронку заново. Именно так оно и делается.
Веса нейронки и, правда, никуда не подгружаются, они просто загружены в память и используются. А вот уже сами данные (обучение, тест, применение) постоянно преобразуются и перемещаются между диском, оперативкой, видеокартой и, конечно, процом, который все эти данные и гоняет туда-сюда-обратно.