CodingStub, чтобы это работало, нужно чтобы перестроилась его большая часть, это то и сложно сделать
есть огромное количество веб-сайтов, владельцы которых буквально настроил и забыл, максимум поддерживает жизнь, и так будет годами - десятилетиями.
На пике технологий ... обычно следуют только трендам поисковой оптимизации, и то не все а кому нужно конкурировать за товар/клиентов. Таких не то чтобы не много - не они определяют основную массу.
Гугл к примеру не может в одночасье изменить свои алгоритмы, только маленькими шажками, по немногу, иначе вместо оптимизации 'выльет из ушата ребенка'.
Василий Банников, сначала нужно уничтожить интернет в принципе как децентрализованную структуру, это невероятно сложно, в мире не так уж много компаний (стран) в принципе на такое способные, и даже они не стремятся к этому (китай например).
Отсутствие единообразия в веб-прилоожениях - прямое следствие децентрализации.
Василий Банников, когда я последний раз проверял, был именно 11 эксплорер с trident движком
то что из пуска исчез ярлык не значит что компоненты вырезали из системы, на нем и хелп работает и много чего еще.
А с чего вы взяли что форма на сайте отправит именно email? может сообщение уйдет на whatsup/skype/telegram или вообще никуда не уйдет а сотрудник который будет это читать увидит это в своем аккаунте на сайте.
Не понимаю зачем нужен gitlab? Это же просто открытый аналог github, т.е. задачи выполняет те же - хранение, многопользовательское обслуживание, gui для некоторых операций мержинга кода и т.п.)
Вот у вас есть некоторое количество git репозитариев, в которых есть ваш код и код зависимостей, вы их собираетесь использовать чтобы итоговый проект собирался штатными инструментами автоматически, так?
Чтобы синхронизировать девелоперскую версию этих git на машине без интернета достаточно воспользоваться переносным носителем и парой скриптов, запускающих git fetch --all и последующей локальной пересборкой проекта.
не уменьшается под размер окна, а просто сжимается, в следствие чего искажается сетка
именно по этой причине это и происходит
физический размер в пикселах у канваса сам не будет меняться и это правильно, его придется ресайзить самостоятельно
Отличный ответ
Дополню, есть вариант не хранить пароли локально на машине, а вводить их скриптом, который делает запрос с удаленной машины (например ssh подключение и в stdin вводит), соответственно задача защиты паролей от взломщика будет сводиться к проверке, точно ли мы вводим пароль в наше приложение или в фейковую заглушку хакера.
Fenrir89, за кучу лет драйверпаки мне с точки зрения драйверов проблем доставляли от силы пару раз и то это из-за того что производитель подменял идентификаторы устройств.
да, последняя версия drpsu это рассадник мусорных приложений, что вам стоит нажать расширенный режим и отключить лишнее?
ragnar_ok, если поле в индексе, count будет выполняться адекватное время
если запросов на count будет значительно больше запросов на добавление/изменение (сильно значительно) то возможно эффективнее вместо постоянных подсчетов count делать это тригером на изменения в специальную таблицу/поле, тогда достаточно будет это поле читать
Там же человеческим языком написано - extracted file corrupted - т.е. извлекаемй файл поврежден (т.е. поврежден архив), переустанавливай.
Если переустановка не поможет - протестируй память на глюки, именно такое поведение показывает на машинах со сбойной ram (установщик выдает рандомные ошибки о повреждении архива).
Xtone, блаженны глухие и слепые, живется вам хорошо, до первой ямы.
Еще раз, авторизация гугл - едина для 100500 сервиса, от фотобанка и ютуба до облачного офиса и vps-ок. Это огромный пласт сервисов, их там тысячи, и блокировка по какой-либо причине в одном месте приведет к блокировке доступа ко всем остальным.
Вы как разработчик закините в ресурсы приложения файлик из интернета, авторские права на которые заявит какая-нибудь мазня-инкорпорейтед, робот это отловит, кинет вам бесполезную в плане информацию отписку и забанит приложение, вы еще раз выкладываете, не поняв почему, - снова... под третий раз (а вы можете еще более глупые действия начать делать, типа регать новые аккаунты) - вас забанят веером полностью аккаунт, со всеми вашими фоточками, ютубчиками, сайтами на хостинге, и внешними авторизациями в сторонних сервисах. И потом неделями будете с робо-сапортом общаться.
Это реальные случаи а не выдумка.
А в теории заговора я не верю. Мне фиолетово что они там нейросетями фотки сканируют. Это всего лишь алгоритм
я разве говорил про использование ваших фото?
Я говорю про то что с их помощью, и не только, нас привязывают к сервису, с разных сторон нашей цифровой жизни, которая с каждым годом становится все более важной в нашей жизни.
Это сейчас ты обсуждаешь куда уйти, какие альтернативы.... потом этой альтернативы объективно не будет, сами строим себе тюрьму. Советую почитать публикации на том же хабре, как страдают люди у которых алгоритм ошибочно или несправидливо или за малейшую оплошность... наказывает баном, саппорт порет пургу а у вас там вся жизнь и работа встряла.
есть огромное количество веб-сайтов, владельцы которых буквально настроил и забыл, максимум поддерживает жизнь, и так будет годами - десятилетиями.
На пике технологий ... обычно следуют только трендам поисковой оптимизации, и то не все а кому нужно конкурировать за товар/клиентов. Таких не то чтобы не много - не они определяют основную массу.
Гугл к примеру не может в одночасье изменить свои алгоритмы, только маленькими шажками, по немногу, иначе вместо оптимизации 'выльет из ушата ребенка'.