KiGamji, про место на диске C
можно включить сжатие ntfs, даст прирост примерно +20% от занятого мелочь но когда совсем его мало, поможет
нагрузка на процессор при записи на диск слегка увеличится, незаметно но все же.
Aison, видео в фоне это такой же атавизм как мигающие звездочки по всему сайту из 2000-ых, не только выглядит дико но еще и вредительство как для постетителей так и для владельца сайта (гугл понижает в выдаче из-за медленной загрузки)
John Smith, я то знаю как это называется на самом деле, я говорю как люди их называют часто
это из той же оперы как системный блок называть 'процессор'
KiGamji, он наверное имел в виду символические ссылки Saboteur, линками пользователи windows называют файлы .lnk, ярлыки на рабочем столе, тут они не помогут
Lander, Никита конечно прав, но если сравнивать 128бит и 256бит то вероятность получить коллизию на 256битном хеше уже в 2^128 бит меньше, и 10к-кратное взятие хеша конечно увеличивает вероятность коллизии но на какие то жалкие 4096 раз, это всего 2^12 что явно меньше 2^128
поэтому аргумент про коллизии не имеет смысла.
p.s. для гостайны ты не имеешь права выбирать ничего кроме указанного законом, и качество и вероятности там никаким боком не учитывается, скажут хешируй 1байт xor, значит будешь хешировать им и только с сертифицированной программе
вооот, т.е. тебе не считать нейронные сети а подготавливать данные?
если что некоторые вещи тоже можно на видеокарте считать, но да процессор общего назначения удобнее
чем быстрее оперативная память тем лучше, при работе с большим количеством данных кэши процессора и все его фичи уже так хорошо не работают, и главным становится пропускная способность оперативной памяти
все равно лучше современные процессоры чем старый xeon
Aison, если у тебя такое маленькое видео, то зачем тебе youtube в качестве хостинга?
я могу ошибаться, но разве у мобильных пользователей автопроигрывание видео не отключено? единственный способ это обойти - рендерить видео на канвасе самостоятельно
Я знаю про видеокарту. Она у меня есть, вопрос только по процессорам.
про это нужно сообщать сразу
машинное обучение в основном проходит на видеокарте, соответственно процессор почти совсем не будет задействован, так какая разница?
прорывного, а точнее заметного, за последние 10 лет в процессорах к сожалению не произошло. вот я сел за машину 2013 года, и ее процессор в задачах даже синтетических тестах раза в 3-5 медленней машин которые я описал выше (я про однопотоковые), если задача ускоряется линейно от количества ядер то да, будет прирост еще в 2-3 раза но таких задач даже в озвученной тобой НЕТ (на процессоре никто не будет считать если есть видеокарта), т.е. он будет простаивать в основе своей.
кажется это какие то проблемы с драйверами nvidia, помогает переход на проприетарные
p.s. мне иногда кажется что в последние лет 5 в linux проекты засланы какие то вредители, да почти во все повсеместно используемые для пользователей а не devops, делают все специально плохо глючно или неудобно, причем абсолютно нелогично и бессмысленно с точки зрения логики но вполне нормально с точки зрения нанесения максимального вреда экосистеме и репутации.
в тему выбора файловой системы
мне кажется для задачи хранения огромных файлов, читаемых кусками большого размера (мегабайт там за раз запрашивается?) нужно просто увеличить размер сектора до размера разового запроса
По поводу свободного пространства , мне кажется идеально было бы что то типа xfs или еще лучше ext2 (ext3/4 без журнала), удалилв зарезервированное место для root, у тебя же там тупо однократная запись и потом только чтения?
это win7 и win8 msdn образов было не много, а с windows10 уже не так, идешь качать 21h1 а через месяц там уже другой лежит, а где взять историю хешей которые там выкладывались? чтобы гарантии были какие то?
psiklop, ну да, эта утилита сканирует и возвращает список сбойных секторов, подсовываешь его mke2fs и создаешь файловую систему в которой размечены бэдблоки как недоступные.
в btrfs нельзя заблокировать расположение файла на конкретное место
хз, со своей ламерской колокольни я вижу так - ограничения дают процессор, чипсет и прошитые в биосе параметры (маркетинг что б. его)
процессор и чипсет - ограничение тупо в реальной ширине адресной шины (сколько бит отведено под адрес)
может dma контроллер что то не может, может конфигурация блоков памяти (какие адресные интервалы на какой модуль памяти доступны, их может тупо нехватать)
я помню давным давно еще с ddr2 (или раньше) была ситуация, когда память вставленная не туда (т.е. нельзя оставлять пустым слоты) или не с тем в паре просто не была доступна... та еще лотероея
скорость работы с памятью, и просто каждое ядро будет МЕДЛЕННЫМ (считай 1к попугаев против современны десктопных в 3к)
оно просто устарело, морально
есть еще мультипроцессорные системы (можно такие найти, дешевый проц ~6-10т.р. но дорогая материнка от 20т.р.) там работа с памятью распаралелена, плюс каналов больше, но это всего кратное ускорение максимум, когда как видеокарты дают ускорение - на порядок
как объединил сетевые интерфейсы?
на windows link aggregation штатно работает только на windows server или у тебя есть драйвер от производителя сетевой карты с 3 портами?