В результате я использовал суффиксный массив + LCP (наибольший общий префикс) — реализацию взял от сюда sites.google.com/site/indy256/algo/suffix_array — переписал на C#. Там лишь одна неприятность: LCP показывает все подстроки уже найденной строки, т.е. если найдена дублирующаяся строка в 100 символов, он покажет все в 99, 98, 97… символов подстроки этой найденной строки. Но это можно легко исключить отсортировать LCP и прежде чем добавлять в массив проверить входит ли новая как подстрока в уже отобранные ранее. В итоге довольно быстро. Спасибо всем комментирующим.
не проблема именно в конвертации, к примеру нашел Help & Manual, но он не правильно декодировал русские буквы в содержании (а по тексту нормально). Вот ищу, чтобы без багов
SQL Server дает разницу где-то в 10 раз (по загрузки CPU). Пример выше показывает разницу не в более чем 10% для Mongo. Вот только я не пойму — действительно ли это только дело в объеме пересылаемых данных?
Спасибо за четкий ответ, я уже понял. Хотя представлял себе немного по другому. (что на центральном репозитории сидит как раз сборщик релизов — но видимо это не так)
Ну это понятно. Но все же есть такая разница "(Работаю через TortoiseGit, центральный репозиторий создаю командой Git Create repository here .., локальный путем клонирования центрального Git clone)" Так вот верно ли, что репозиторий созданный командой (в TortoiseGit) Git Create repository here… — будет bare-репозитарий?
После ряда советов. Хочу переформулировать вопрос. Действительно мне не нужно чтобы в центральный репозиторий копировались исходники каждый раз. Но вот допустим я контролирую выпуск продукта и сижу только на центральном репозитории и смотрю как работают программисты. И в один прекрасный день заказчик говорит — давай продукт. Как мне его собрать.
Действительно ли правильно делать git clone. Мне казалось — это создание локального репозитория, а для сборки продукта есть что-то другое? Или нет?