Задать вопрос
  • Удаление кэшированного пароля Windows - как?

    @Akina Автор вопроса
    Это НЕ работает. Выдаёт сообщение типа "Не найдено записей для удаления" или около того.
    Написано
  • Как сделать поиск определенного значение в строке отобранной SELECT * FROM?

    @Akina
    Turist1971,
    Можно поподробнее ?

    ну ссылку ж на fiddle дал - куда подробнее? Предполагалось, что вы внимательно изучите весь код и поймёте, как он работает.

    мне нужно еще отобрать

    В тексте запроса есть комментарий, куда помещать такие условия.
    Написано
  • Как сделать поиск определенного значение в строке отобранной SELECT * FROM?

    @Akina
    который возвращает мне 1 строку с последней датой записи

    Это неверно. Если имеется несколько записей с одинаковым и в то же время максимальным временем - выведутся все.

    Вообще разумнее использовать
    SELECT * 
    FROM archiv 
    ORDER BY datatime DESC 
    FETCH FIRST 1 ROW /* ONLY | WITH TIES */;


    Мне необходимо в этой строке найти столбец в котором есть определенное значение к примеру 10.

    Это точное и полное значение, которое нужно найти? Или это может быть и подстрока? И вообще - оно числовое или строковое? А искать надо во внутреннем представлении или в отображаемом значении?
    И что надо найти - имя столбца, точное значение в нём, или просто проверить на есть/нет?

    Столбцы разных типов

    Значит, выполните явное приведение типа для каждого столбца к нужному типу.
    Написано
  • К внутреннему серверу можно подключиться только из вне. Почему?

    @Akina
    Если хост находится в локальной сети, то у него 100% есть IP адрес из этой сети.

    Вы можете понимать термин "находится в локальной сети" не так, как это делает автор. Он может говорить о физическом местоположении. А коммутаторам глубоко пофиг, от имени какого IP (если он не блокируется по каким-либо правилам) передавать пакеты.
    Написано
  • К внутреннему серверу можно подключиться только из вне. Почему?

    @Akina
    ruggert, пожалуйста, пишите более подробные ответы. Вы знаете и видите, что у вас собрано, а мы нет. И не используйте слэнг - только строгие технические термины. А то ваши ответы на мои вопросы мне лично вообще ни о чём не сказали, только добавили вопросов.
    В каком сервере две сетевые - в хост-машине или в виртуальной машине? Что за гипервизор (или у вас вообще докер)? Как именно выполнена привязка? Что вы имеете в виду под термином "провайдер домена" - вообще-то такого термина не существует. Кто обслуживает и поддерживает зону cmzap.ru?

    Телнет не пробовал. Браузер номер ошибки не пишет, просто не удалось подключиться.

    То есть браузер говорит - IP я определил, запрос послал, но либо ответ не получил, либо не смог его интерпретировать как корректный ответ на мой запрос.
    В этих условиях использование телнета - необходимость. Пробуйте подключиться и смотрите ответы. Не ошибитесь с протоколом и портом.

    На самом сервере поднят mailcow - почтарь.

    Если это почтовый сервер - каким тут вообще боком браузер?
    Написано
  • К внутреннему серверу можно подключиться только из вне. Почему?

    @Akina
    есть сервер размещенный на виртуалке в локальной сети. У него прописан только внешний белый IP, локальные адреса не прописаны.

    То есть белый адрес - непосредственно у виртуалки, и она подключена к сети через мостовое соединение, так?

    В какой-то момент из локальной сети перестаёт открываться domain.company.ru, по IP тоже не открывается. ... Все пинги проходят.

    Правильно ли выполняется разрешение имени в адрес? Правильно ли идёт трассировка на сервер?

    из локальной сети перестаёт открываться domain.company.ru, по IP тоже не открывается.

    С каким ответом? А если телнетом - что получаете?

    НО. Из интернета (любой сети кроме сети предприятия) же всё отлично.

    Смотрите логи - сервера, файрвола, веб-сервера...
    Написано
  • Как вести историю работы с записями во всех таблицах для всех пользователей?

    @Akina
    historydev,
    Если мы вставляем обновления в туже таблицу где хранятся оригиналы, каждая запись будет иметь свой id и получается нужно 2 идентификатора, один записи, другой пользователя. И все связи нужно крепить на id пользователя.

    Извините, но вы переходите к обсуждению того самого коня в вакууме. Изменение предметной области, причём изменение чуть ли не критичное, очевидно приведёт к полному пересмотру всей схемы. И уж точно к пересмотру того, что именно в таблице будет идентифицирующим признаком (как первичным, так и групповым). А вы пытаетесь всё то же сделать какими-то минорными изменениями.
    Написано
  • Как вести историю работы с записями во всех таблицах для всех пользователей?

    @Akina
    historydev, вопрос совершенно непонятен. Идентификатор записи в рабочей таблице явно не будет являться идентификатором записи в таблице логов. Хотя скорее всего будет его компонентом.
    Написано
  • Как вести историю работы с записями во всех таблицах для всех пользователей?

    @Akina
    historydev, как раз с точки производительности первый вариант ничем не проигрывает второму, если использовать партиционирование по полю актуальности. Правда, можно отловить проблем с других сторон, так что такие вещи нужно хорошо планировать.

    А экономия места - при том, что дисковое пространство сейчас достаточно дешёвое,- почти бессмысленна. Можно вынести лог на отдельный диск, который, в отличие от дисков с данными, может быть и небыстрым. Ну и ничто не мешает периодически архивировать логи, благо жмутся они весьма неслабо.
    Написано
  • Почему SQL-запрос на MacOS (M2) исполняется медленнее, чем на shared-хостинге?

    @Akina
    lexchz, было бы неплохо увидеть структуру исходных таблиц и статистику данных в разрезе связывания. Потому как оптимизироваться точно есть куда. Например, pc2.product_id используется в критерии связывания для INNER JOIN, то есть в финальном наборе это гарантирует NOT NULL, что просто криком кричит о замене COUNT(pc2.product_id) на COUNT(*).
    Написано
  • Как вести историю работы с записями во всех таблицах для всех пользователей?

    @Akina
    На уровне БД есть два стандартных решения.
    Первое - это использование "мягкой" технологии, когда любое изменение выполняется путём создания новой записи с актуальным состоянием, а предыдущая помечается как неактуальная либо используется системный штамп времени.
    Второе - это создание для каждой таблицы пакета триггеров, который пишет все изменения в журнал.
    Оба способа обеспечивают полное журналирование ценой расхода дискового пространства. Первый удобнее при откатах, второй при формировании экшен-логов.
    Как это реализуется и отображается во фронте - не скажу, ибо не использую.
    Написано
  • Как получить данные и обновить записи в таблицах-источниках?

    @Akina
    Дмитрий, ну тогда будет один комплексный запрос с несколькими CTE. Нормальное вменяемое решение. Я не зря ну очень заострил внимание на том, что речь строго о показанном шаблоне.
    И по скорости почти наверняка выиграешь солидно.
    Написано
  • Как получить данные и обновить записи в таблицах-источниках?

    @Akina
    Тут больше даже вопрос о том, чем это плохо

    С чего бы плохо-то? Тут разве что читабельность может пострадать, особенно если запрос получится объёмный да многосоставный. Но если хорошо документировать и комментировать запрос да использовать вменяемые алиасы, так и вовсе тут ничего плохого.
    Написано
  • Как сделать полный перенос листа из одной таблицы в другую?

    @Akina
    Делаете копию файла, удаляете из неё остальные листы. Форматирование при этом не пострадает.
    Написано
  • Блокируют ли vless между российскими серверами?

    @Akina
    К тому же трафик между двумя территориально российскими узлами запросто может идти сквозь заграницу.
    Написано
  • Какие методы синхронизации SQL Express и MSSQL Server порекомендуете?

    @Akina
    Ну так пусть сами точки шлют отгрузки и забирают протоколы. А на стороне сервера - шедулер + скрипт.
    Написано
  • Почему после импорта базы из .sql файлов таблицу с 13Гб раздуло до 55Гб?

    @Akina
    Ипатьев,
    For InnoDB, DATA_LENGTH is the approximate amount of space allocated for the clustered index, in bytes. Specifically, it is the clustered index size, in pages, multiplied by the InnoDB page size.

    Ну не то чтобы совсем ерунда, но плюс-минус лапоть. Для обновления используем ANALYZE TABLE? при отсутствии конкурентов есть шанс получить точные данные.
    Написано
  • Почему после импорта базы из .sql файлов таблицу с 13Гб раздуло до 55Гб?

    @Akina
    После восстановления из бэкапа прогоните OPTIMIZE LOCAL TABLE, и только потом смотрите на размер файла таблицы.
    Написано