Посредник не всегда способен заранее оценить качество работы исполнителя, чем успешно и пользуются начинающие, соглашаясь на работу и набирая в процессе опыт.
#, я добавил о RemoteFX исключительно для сравнения применимости ванильного RDP. Переходить на HyperV я никого не подбиваю, только отвечаю на исходный вопрос. RDP будет тормозить в интенсивных графических приложениях, и это нормально.
Профилирование запросов на сравнительно небольшом приложении в общем случае займёт от часа до суток, а не полмесяца. Результат анализа поможет исключить иные причины и даст установить, что именно нужно сделать для устранения проблемы, чтобы избежать риска покупки ресурсов, но сохранения тормозов.
"Лаги" могут возникать по многим причинам. CPU и RAM находятся в них не на первых местах.
--
одно дело крутить миллионы записей на мелком VPS со слабым CPU и 1Gb RAM
У меня есть проекты, где в MySQL крутятся десятки миллионов строк на VPS в 512MB RAM. Приложение осуществляет выборку за миллисекунды, не упираясь в CPU/RAM.
> по мере набора запроса поисковик подсказывает (угадывает), чтобы это могло быть.
получив эту информацию, т.е. она уже попала в периметр
> Вот я к примеру ввожу "а" - он мне сразу предлагает "авито", "аэрофлот", "альфа банк". Значит ли это, что я всем этим уже интересуюсь?
это не противоречит тому, что при выпадении сознательных слов они могут участвовать в аналитике по мере уточнения ввода
> Так что никто в здравом уме не будет сохранять неполные запросы и анализировать их потом
это ваше личное мнение, поэтому я и говорю, что на этом можно только спекулировать, но ответ на изначальный вопрос - технически, это можно делать
> Или вы думаете, кто-то наберет "я террорист", потом сотрет, а потом станет искать котиков? И ради такого сценария парсить недозапросы миллионов пользователей? Да ну, сказки.
между введённой фразой и введённой фразой с нажатым вводом, технически, нет разницы; дальше всё зависит от политики поисковика
dollar, кашу можно фильтровать на предмет осмысленных слов и использовать её в таргетинге, делать это не дорого. Любой запрос в поисковик по определению каша, но это не предопределяет, что зарабатывающий на аналитике поисковик не будет пробовать использовать в т.ч. и эту информацию. С паранойей это не связано, вопрос был о том, может ли их видеть поисковая система.
mehacovu, изначально вы задали вопрос "видит ли". Технически - видит, иначе подсказки не смогут появиться.
Сотрудничают ли с органами - мы не знаем, можем лишь спекулировать. Если сотрудничают, то в каком режиме, мониторят ли недовведённые запросы и на какие маркеры реагируют - мы не знаем, можем лишь спекулировать. Были ли прецеденты в США по приходящим в дома оперативникам после запросов в гугле - да, такие случаи нагугливаются.
Технически, этому нет препятствий. Делают это или нет, это предмет спекуляций, до тех пор, пока вы не начинаете работать в конкретном поисковике и отвечать за этот функционал, видя, что это действительно происходит/не происходит.
mehacovu, зависит от поисковика, но технически нет гарантий, что они не записываются и что по ним не ведётся статистика. Может быть, наоборот, поисковик заметил среди предварительно вводимых запросов ценные данные, и стал таргетировать свою рекламу в т.ч. по ним. Технически это возможно, как есть на практике - можно только спекулировать, или искать сотрудника поисковика, кто будет готов нарушить NDA.
Иван, примеры использования Pillars: разные параметры для mysql для разных групп серверов, разные логины/пароли для служебных учёток у разных серверов.
Можно рассматривать стэйты - как шаблоны, а данные в пилларах - как переменные, заполняемые в шаблоне.
Например, стэйт "nginx" может быть один и тот же для всех серверов, но через пиллары можно задавать на разные сервера разные параметры, которые стэйт будет учитывать при развёртке nginx'а, например разные настройки хостов на разных группах серверов.