Не понял ваш вывод. Разделять по максимуму — не оптимальный вариант.
Корзины после распределения шаров выбираются наугад. Далее, вытягивается наугад ОДИН шар. Формально, это будет так:
Как я написал выше, это была «простая» задача из теории вероятностей: как можно разложить 100 черных и 100 белых шаров по двум корзинам, чтобы вероятность вытащить черный была максимальна. Хотел получить строгое формальное решение (плюс немного обобщил), но уперся в оптимизацию. Честно говоря, многое из матана позабывал, поэтому и задал вопрос.
Думал есть какое-нибудь красивое и простое аналитическое решение, вроде как метод коэффициентов лагранжа для линейных функций. Но и этого вполне хватит, спасибо за помощь.
сдается мне, это не математика 9-го класса. По крайней мере, здесь есть ограничения, которые нужно учитывать. И максимум будет как раз на границе. Я было через коеффициенты лагранжа пошел, но что-то запутался… забыл матан :)
2 vics001,
Согласен, не совсем корректно поставил условия. Тут можно смело положить, что n > 0 (строго больше нуля) чтобы отрезать ассимптотическое приближение. В исходной задачи N=M=100, так что я здесь немного обобщил.
Раз пошла такая пьянка — это была «простая» задача из теории вероятностей: как можно разложить 100 черных и 100 белых шаров по двум корзинам, чтобы вероятность вытащить черный была максимальна. Хотел получить строгое формальное решение, но уперся в оптимизацию. Честно говоря, многое из матана позабывал, поэтому и задал вопрос.
Спасибо, но тут два момента.
1 — N,M — некие константы. Мы решаем относительно них.
2 — неясно, почему вы оптимизируете два элемента в сумме по-отдельности; мы имеем право это делать?
Спасибо. Правда, я не очень понимаю почему вы подошли со стороны sql. Но может в этом есть свой резон. За ссылку на Vowpal Wabbit, мне его рекомендовали недавно.
Я, кстати, обычно работаю с sklearn (scikit-learn, python библиотека).
Она то вставила, вот только потом мозги назад возвращать долго. После нее хочется натягивать ООП на все что движется и не движется :). На практике это вредно.
На счет команды согласен. Но «свои» и рядом, это роскошь :). Думаю попробую на несложном контесте, а дальше как пойдет.
На счет семантики — плохо это знаю. Я больше на стороне статистики, так проще. Честно пытался продраться через homepages.inf.ed.ac.uk/jbos/comsem/, но так и не понял как из текста индуцировать что то формальное, вроде логики первого порядка. Для небольших текстов и грамматик проходит, но дальше игрушечных примеров дело не доходит. Так что статистика и ML выглядят более продуктивными.
Гут, спасибо за ответ. Задам еще пару вопросов:
— есть ли смысл искать тиммейтов там же? если ли простой способ найти готовую команду чтоб включиться?
— на счет алгоритмов. я спросил т.к. по статистике прошлых контестов народ любит decision tries и разнообразные комбинации классификаторов. Т.е. похоже подоходы влоб не работают. Интересно, это общая тенденция или опять же зависит от задачи.
Вообще, я по работе занимаюсь классификацией текстов. Интересно было бы попробовать пару подходов.
На кубиках можно много чего показать. Подбрасываем бесконечное число раз — вот вам и счетное бесконечное множество множество. Вообще, основания теории вероятностей это и есть множества и их измеримость. И на кубиках и монетках это отлично демонстрируется.
Корзины после распределения шаров выбираются наугад. Далее, вытягивается наугад ОДИН шар. Формально, это будет так:
P(шар=черный) = P(шар=черный|корзина=1) P(корзина=1) + P(шар=черный|корзина=2) P(корзина=2)
Если обозначить n, m — количество черных и белых шаров в первой корзине соответственно, и учитывая P(корзина=1) = P(корзина=2) = 0.5, получаем:
P(шар=черный) = [ n/(n+m) + (100-n)/(200 — n — m) ] * 0.5
При n=0, m=100 (т.е. максимально разносим — все белые — в первую корзину, все черные — во вторую), получаем:
[0/(0+100) + (100-0)/(200-0-100)]* 0.5 = 0.5
При n=1, m=0 (т.е. в первую корзину кладем один черный шар, остальные 99 черных и 100 белых во вторую), получаем
[1/(1+0) + (100-1)/(200-1-0)]* 0.5 = 0.748
Т.е. дает большую вероятность, что и следует из аналитического решения (вы же сами это и предположили :) ).