Бегуну — да, а на соревнованиях по скалолазанью подсчет идет именно таким способом — фиксинг результата хлопком по «топу».
Но в любом случае от схемы не откажусь, может и получится адаптировать под свои нужды. Завязать все расчеты на комп было бы конечно здорово.
Меня интересует не факт установки и настройки какого-либо поисковика, а внутренние схемы работы. Общие принципы общеизвестны, но «дьявол кроется в деталях» — вот в этих деталях и хотелось бы разобраться. НА данном этапе это скорее академический интерес, чем практический.
Ця тема була створена автоматично для обговорення кейса «Розгорнення домашнього файл-серверу»
Посмотреть кейс→
«Посмотреть кейс» — отправляет на красивую пустую страницу с предложением авторизоваться.
Такие многоходовки часто пустышки. Да и как-то странно выглядит тема про разгон файлсервера на сайте о домашних финансах.
ДОстучаться в винде пытаюсь с помощью ее поиска других компов в сети. По имени и по IP — глухо. Или я в точке доступа перестарался с настройками, или в XP Home сетевой функционал урезан
Компилятор писали люди, которые знают эти «тонны». Соответственно, если предположить, что asm-программист тоже может знать их и соответственно оптимизировать свой код. И тогда вопрос — у кого лучше получится. Ведь оптимизатор компилятора работает по заложенным в него шаблонам, а человек может сделать и более эффективное решение, впрочем как и менее — все зависит от человека.
в любом случае, такая арифметика может быть отправной точкой для торга для одной из сторон, но никак не ценой, по которой в итоге объект будет продан (если будет). Результат может быть как выше, так и ниже (причем значительно).
Никаких характеристик. Просто приводится как элемент примера работы с хэшами.
По-моему определяющим является длина получаемого хэша. Ведь как ни мудри, а если на выходе 32 бита — ими ты и ограничен. И что касается тестов — на одной последовательности лучший результат у одного, на другой — у другого. Хэширование строк — процесс в некотором роде вероятностный.
Недавно товарищ по моей просьбе опубликовал мой пост. У меня не хватило кармы. В конце сделал ссылку на автора. То-ли пост оказался настолько слабым, то-ли кто-то вспомнил соответствующее правило Хабра, но карму товарищщу попортили прилично. Так человека подвел, что в следующий раз вряд ли решусь кого просить о подобной помощи.
Одна из возможных причин — экономия места на диске. Место под файл выделяется блоками. Последний блок, где «хвостик» файла — часто полупустой. Много мелких файлов — много таких полупустых блоков. Жаба душит столько места терять :)
Если у вас есть файловое хранилище с кучей мелких файлов — проведите эксперимент — подсчитайте их общую «массу» и сравните с показаниями системы о занимаемом месте на диске. Чем мельче файлы, тем больше разница. Мелкие аватарки в этом плане — самые прожры.
всетаки операцию удаления сбрасывать со счетов не следует. Поэтому необходимо добавить периодический компресс sqlite-файлов. Чтобы тупо по всем не бегать и не делать лишнюю работу — нужны счетчики удаляемых файлов и освобождаемого места. Или что-то подобное. В общем детали пошли :)
Хотя вариант интересный. Сейчас думаю над распределенным хранилищем файлов — рисую разные варианты.
Точнее сказать «судя по отсутствию внешнего интерфейса» :)
Если добавить возможность ftp-клиенту просматривать список тэгов и переходить по ним, а еще лучше — и поиск — такое решение может быть достаточно вкусным.