m+n потому что я подразумевал, что мы учтем тот факт, что массивы отсортированы и заимплементим свою функцию нахождения пересечений. А у вас получается, что мы ищем пересечения A с B, B c С, C с D и т.д. Но на м нужно найти пересечения и A c C, а если найти пересечения каждый с каждым, то как раз получается мой первый вариант только с быстрым intersectom (m+n). В целом этот кусочек часть алгоритма априори.
Метод intersect работает как (m+n), где m и n длина массивов. Длина массивов около 30 элементов, всего их несколько десятков тысяч. А я немного не понял, почему в моем случае (k(k-1)/2) умножается на (n/k)? Откуда n/k берется?
Спасибо, классная ссылка. Я имел ввиду пакеты типа weka, R, rapidMiner, где можно провести какой=то анализ и отобразить его. В принципе анализ второстепенная задача, главное, чтобы хорошо отображалось. Необязательно для браузеров, можно и просто компоненты\библиотеки (желательно под .NET)
Их много(еще бы, ведь используется диапазон) и они могут меняться(в этом мире все может поменяться), но это не значит, что они будут меняться каждый день, они могут поменяться лишь гипотетически. support.google.com/webmasters/bin/answer.py?hl=en&answer=80553 вот как предлагает гугл верифицировать своего бота — сделать днс лукап. Так что все будет прекрасно работать.
Какие ваши доказательства? Диапазон ип роботов легко гуглится в сети, я думаю они через прокси не заходят, правильно? Вероятность зайти под обычным пользователем тоже не нулевая или вероятность зайти ассесора, поэтому я и написал у двух доменах.
Можно ли делать ставку на сезонные товары и резкий взлет спроса. Например появились покемоны или букаганы, соответственно резко возрос на них спрос, а предложение какой-то время не будет его удовлетворять. Необязательно именно покемоны, может быть более узкий продукт, к примеру плавающие в воздухе рыбки. Или же прошла какая то передача посвященная целебным травам, аналогично, на несколько дней вырастит количество запросов в поисковике и этим можно воспользоваться.
Вопрос немного по-другому звучит. Понятное дело что в успехе играет роль множество факторов. Меня же интересует насколько важен именно выбор продукта. Например, влияет ли узость ниши на размер маржи? Если у меня посредственный сайт, то где выше шансы получить клиента? В конкурентной нише за счет случайных продаж или в узкой нише, за счет отсутствия альтернативы? Каковы основные причины появления ниш? по идеи рынок должен быстро уравновешивать спрос и предложения, но в мире постоянно происходят какий-то события(взрыв на фокусиме) и рынок теряет баланс(резкий рост спроса на дозиметры) и т.д.
бренд и коммьюнити это хорошо. Я имел ввиду продать здесь и сейчас и понятное дело для этого подходит не только контекст. За tns спасибо, но хотелось бы более приземленных исследований.
Вся цепочка очень быстро раскручивается. Что-то у кого-то просить нужно только в самом крайнем случае. Даже если выходить в инет с машины, месторасположение злоумышленника локализуется с некоторой погрешностью, а дальше уже дело техники. У всех провайдеров стоит СОРМ, спецслужбы могут как угодно перенаправлять\прослушивать трафик у них все под колпаком. Другое дело, что надо очень сильно насолить чтобы за тебя взялось ФСБ, а не просто полиция из управления К.
У SVG условно хорошо с кроссбраузерностью. Проблемы только в ие, а в ие можно использовать ovl(или как там его). Есть библиотека rafaeljs(и не только), позволяющая работать с svg кроссбраузерно.
В английских оригиналах статей про «смерть Silverlight» говорилось о том, что XAML (язык разметки, который используют WPF & Silverlight) хотят сделать нативным и предоставить разработчикам что-то единое. У них есть идея, чтобы на С++ можно было использовать фишки для интерфейсов, которые есть сейчас лишь у dotNet.
HTML 5 станет лишь альтернативой в силу моды, но не более.
Ссылочки на оригинальные статьи остались? А то звучит весьма странно.