CodingStub, нет
Речь не столько о деньгах, сколько о принципиальной в этом возможности.
Если гугл изменит алгоритм таким образом, чтобы ранжировать в топ сайты следующих новым веяниям унифицированного интернета, то он моментально превратится в гугл для магазинов. А за информацией народ пойдет к его конкурентам.
Напоминаю, именно тотальное использование большинством людей сервисами поисковика, позволяет гуглу быть таким хорошим, за счет сбора приватной информации... стоит только упустить момент, обратно выкарабкиваться будет ой как сложно.
CodingStub, чтобы это работало, нужно чтобы перестроилась его большая часть, это то и сложно сделать
есть огромное количество веб-сайтов, владельцы которых буквально настроил и забыл, максимум поддерживает жизнь, и так будет годами - десятилетиями.
На пике технологий ... обычно следуют только трендам поисковой оптимизации, и то не все а кому нужно конкурировать за товар/клиентов. Таких не то чтобы не много - не они определяют основную массу.
Гугл к примеру не может в одночасье изменить свои алгоритмы, только маленькими шажками, по немногу, иначе вместо оптимизации 'выльет из ушата ребенка'.
Василий Банников, сначала нужно уничтожить интернет в принципе как децентрализованную структуру, это невероятно сложно, в мире не так уж много компаний (стран) в принципе на такое способные, и даже они не стремятся к этому (китай например).
Отсутствие единообразия в веб-прилоожениях - прямое следствие децентрализации.
Василий Банников, когда я последний раз проверял, был именно 11 эксплорер с trident движком
то что из пуска исчез ярлык не значит что компоненты вырезали из системы, на нем и хелп работает и много чего еще.
А с чего вы взяли что форма на сайте отправит именно email? может сообщение уйдет на whatsup/skype/telegram или вообще никуда не уйдет а сотрудник который будет это читать увидит это в своем аккаунте на сайте.
Не понимаю зачем нужен gitlab? Это же просто открытый аналог github, т.е. задачи выполняет те же - хранение, многопользовательское обслуживание, gui для некоторых операций мержинга кода и т.п.)
Вот у вас есть некоторое количество git репозитариев, в которых есть ваш код и код зависимостей, вы их собираетесь использовать чтобы итоговый проект собирался штатными инструментами автоматически, так?
Чтобы синхронизировать девелоперскую версию этих git на машине без интернета достаточно воспользоваться переносным носителем и парой скриптов, запускающих git fetch --all и последующей локальной пересборкой проекта.
не уменьшается под размер окна, а просто сжимается, в следствие чего искажается сетка
именно по этой причине это и происходит
физический размер в пикселах у канваса сам не будет меняться и это правильно, его придется ресайзить самостоятельно
Отличный ответ
Дополню, есть вариант не хранить пароли локально на машине, а вводить их скриптом, который делает запрос с удаленной машины (например ssh подключение и в stdin вводит), соответственно задача защиты паролей от взломщика будет сводиться к проверке, точно ли мы вводим пароль в наше приложение или в фейковую заглушку хакера.
Fenrir89, за кучу лет драйверпаки мне с точки зрения драйверов проблем доставляли от силы пару раз и то это из-за того что производитель подменял идентификаторы устройств.
да, последняя версия drpsu это рассадник мусорных приложений, что вам стоит нажать расширенный режим и отключить лишнее?
ragnar_ok, если поле в индексе, count будет выполняться адекватное время
если запросов на count будет значительно больше запросов на добавление/изменение (сильно значительно) то возможно эффективнее вместо постоянных подсчетов count делать это тригером на изменения в специальную таблицу/поле, тогда достаточно будет это поле читать
Там же человеческим языком написано - extracted file corrupted - т.е. извлекаемй файл поврежден (т.е. поврежден архив), переустанавливай.
Если переустановка не поможет - протестируй память на глюки, именно такое поведение показывает на машинах со сбойной ram (установщик выдает рандомные ошибки о повреждении архива).
Xtone, блаженны глухие и слепые, живется вам хорошо, до первой ямы.
Еще раз, авторизация гугл - едина для 100500 сервиса, от фотобанка и ютуба до облачного офиса и vps-ок. Это огромный пласт сервисов, их там тысячи, и блокировка по какой-либо причине в одном месте приведет к блокировке доступа ко всем остальным.
Вы как разработчик закините в ресурсы приложения файлик из интернета, авторские права на которые заявит какая-нибудь мазня-инкорпорейтед, робот это отловит, кинет вам бесполезную в плане информацию отписку и забанит приложение, вы еще раз выкладываете, не поняв почему, - снова... под третий раз (а вы можете еще более глупые действия начать делать, типа регать новые аккаунты) - вас забанят веером полностью аккаунт, со всеми вашими фоточками, ютубчиками, сайтами на хостинге, и внешними авторизациями в сторонних сервисах. И потом неделями будете с робо-сапортом общаться.
Это реальные случаи а не выдумка.
Речь не столько о деньгах, сколько о принципиальной в этом возможности.
Если гугл изменит алгоритм таким образом, чтобы ранжировать в топ сайты следующих новым веяниям унифицированного интернета, то он моментально превратится в гугл для магазинов. А за информацией народ пойдет к его конкурентам.
Напоминаю, именно тотальное использование большинством людей сервисами поисковика, позволяет гуглу быть таким хорошим, за счет сбора приватной информации... стоит только упустить момент, обратно выкарабкиваться будет ой как сложно.