Влад Григорьев, я пару раз встречал ситуации, когда интерфейс веб-сайта работал от нажатия на кнопки, и эмулировать в браузере их нормально не получается... но не думаю что это случай топиккастера.
omikron24, в зависимости от вида 'взаимоотношений' с провайдером, если вы подключаете подсеть и провайдер вам это позволит, то да поставьте свитч (да бывают управляемые но обычно это тупая железка), обычно провайдеры клиентов подключают через роутер, скорее всего безальтернативно.
Начинайте изучать что это за ссылки, вполне возможно что это документы в базе данных, сохраненные обычным пользовательским аккаунтом который вы забыли отключить или езще каким способом созданные злоумышленником, удалите эти документы, закройте дыру через которую они были созданы и т.п.
т.е. вам нужно написать приложение для android, которое бы при включении телефона (но не чаще чем раз с некоторым периодом времени) лезло на сервер например захардкоженый прямо в коде, или например при наличии wifi с определенным названием или еще по какому условию, на ваше усмотрение) загружало бы список имен и версий приложений и сравнивало бы их установленную версию и при различиях, запускало бы их установку. Сюда же неплохо добавить список приложений на удаление, и в довесок, дайте возможность сохранять и удалять файлы, загруженные с вашего сервера (почти наверняка понадобится в будущем).
Noizefan, я на эти вопросы тут минимум пару лет назад уже отвечал так ;) мои первые приложения были на c# используя WebBrowser и подавна, больше десяти лет назад (нужно было делать скрин гуглмапс в абсурдно высоком разрешении, тысячи пикселов, специальнро машину с 8 гигами оперативы покупали, и ставили 64битную винду, тогда еще не дешево это было).
либо вы идиот? для задач нейронки и обработки данных НЕ ВАЖНО какая машина, важно их совокупная мощность на рубль, т.е. вместо использования одного камаза МОЖНО использовать десятки легковых автомобилей.
stratosmi, почитайте внимательно всю беседу, она очень напоминает беседу меня с тролем, который игнорирует приводимые доводы и контекст, выбирает одно утверждение и начинает спорить по нему одному.
лично для вас повторю выжимку
1. задача - попробовать нейронные сети, обработку данных и прочее
т.е. априори не предполагается что будет какой то денежный выхлоп! вы понимаете что это моментально ставит вопрос о затратах как - максимально оптимизировать по параметру меньше тратить больше получать!
2. облачные технологии ПО ОПРЕДЕЛЕНИЮ и исходя из реализации не могут ничего дать дешевле, потому что главная задача облака (с кратковременной тарификацией) выдать бОльшие ресурсы за мЕньшее время, и только в тех случаях когда за этот комфорт готов заплатить бОльше!
3. в обсуждении я описал план, по которому пойдет типичный экспериментатор исходя из своего опыта - сначала попробовать на имеющихся слабых мощностях, чтобы оценить, сколько времени и ресурсов требует исследуемая задача и уже потом брать калькулятор и считать, готов ли оплатить облачные вычисления или лучше приобрести железо в личное пользование.
4. Мое утверждение что облачные цены и в частности селектел на столько высоки, что для описываемых задач что затраты за считанные месяцы становятся сравнимы со стоимостью покупки железа себе, само собой с оглядкой на задачу, чтобы не переплачивать за ненужные ecc, бренды, сервера и прочее.
Например эти задачи могут быть запущены на слабых машинах но при условии увеличении их количества (т.е. задача хороши линейно масштабируется), есть действительно очень редкие исключения, когда требуется много оперативной памяти, но даже в этом случае ecc не критична, а значит можно обойтись невероятно дешевым десктопным железом.
5. утверждение - последние годы стоимость CPU для указанной задачи очень сильно упала, и предложил пример конфигурации, сравнимой мощности с селектел по цене дву-трех месяцев аренды.... нужно быть очень странным человеком, чтобы платить в таких условиях аренду, тем более что десктопное железо с незначительной амортизацией можно продать позже.
Мало того, особые маньяки могут используя майнинг (кстати только gpu) оплачивать свои затраты на электроэнергию (незначительные суммы но кому то это покажется неплохим бонусом), в среднем достаточно примерно треть времени майнить и две трети заниматься своими вычислениями (для цен на электроэнергию в россии, к сожалению для некоторых стран европы так не получится).
6. выбор видеокарт в личное использование так же определяется не их крутостью, ибо это не игры, а банальной производительностью на каждый затраченный рубль, в этом случае я показал, что приобретение gtx 1060 (или даже 1050 но их количество в этом случае создает затруднения по сбору всей конфигурации) соответствующего количества перед gtx 1080 оправдано по чисто финансовым причинам и дает почти двухкратную экономию денег.
Напоминаю про цены - самое дешевое предложение селектела с 4gtx 1080 - 54т.р. в месяц, при этом порядка 54т.р. будут стоить три gtx 1060 + ~15т.р. на материнка+проц+память+блокпитания. И это решение будет всего В ДВА РАЗА медленней, при условии оптимизации по затрачиваемой оперативной памяти (все можно сделать тяп ляп и твое решение будет жрать десятки гигабайт оперативки, а можно сделать все правильно и не вылезать за пару гигабайт, и те только потому что они нужны чтобы работало gpgpu).
Нужно быть очень странным человеком, чтобы выкидывать на 'попробовать' деньги в облако, ведь по окончании времени аренды у вас не останется ни денег ни железа.. только воспоминания и немного опыта.
Не верю что ни один рассматриваемые вами принтеров не имеет настройки автогенерации имени pdf файла.
Например в windows, foxit reader pdf printer (устанавливается с фриварным foxit reader) имеет в настройках соответствующий пункт - папку для сохранения и способ генерации следующего имени файла если такой же уже есть, т.е. тиахя печать без запросов к пользователю.
vadim_tur, разрешение практически не определяет качество, только его верхнюю границу, например можно закодировать видео в 4k но выглядеть оно будет как 400p (например ютуб пережимает так что теряется качество примерно на один уровень перехода между стандартами, т.е. 4к выглядит как 2к, а 2к как 1080 и т.п.)
Самый главный параметр качества - это битрейт, и все современные кодеки позволяют его указывать в параметрах (смотрите как это можнро сделать в ffmpeg для выбранного вами кодека).
Что такое 'сшить в одно целое'? приложить справа/слева/снизу/сверху и получить увеличенное? найти совпадения и соединить по ним как это делают приложения для построения панорам?
для попробовать, для обучения, может взять реально очень мотивированный человек или с достатком сильно выше среднего
И еще, я изучал вопрос о покупке железа для deep learning, к сожалению в большинстве случаев софт заточен на решения от nvidia (но ничто не мешает вам самим писать на opencl, это сложнее но выхлоп реально выше при использовании gpu от amd). Так вот лично для себя имеет смысл покупать не топовые решения а на шаг или два ниже, т.е. gtx 1070 или 1060 (или даже 1050 если у вас слабо нагружена оперативная память и умеете собирать нестандартные конфиги)... в зависимости от стоимости в доступных магазинах.
как не крути, разница в производительности даже в идеальном случае (умножить частоту на количество вычислительных блоков - это вырожденный случай когда вычислений много а использования памяти нулевые) не превышает кратного (т.е. примерно как цена меняется). Но гугление показало что разница в производительности соседних карт именно для deep learning не превышает 30%, вот и считайте, какое железо надо покупать.
p.s. в этом году гугл выкатил свои TPU, которые под задачи deep learning и использования их библиотеки tenzor flow на пару порядков превосходят GPU правда по ценам только чуть чуть дешевле спотового амазона, вот бы купить их железки.
о чем идет речь?