Akina, Сейчас производится парсинг данных.Данных много. Могут появляться новые секции.
Соответственно у меня идет десятки тысяч вставок в час. Если делать доп-проверки есть ли нужная запись в справочнике это сильно снизит производительность. Как можно в моем случае нормализовать структуру?
Обычно запросы сводятся к выбору файлов для обработки по условию:
WHERE date>= '2018' AND data <= '2020' and status = NULL LIMIT 1000
Поиск по имени файла не производится. file_name не уникален
ID НЕ уникальный.
В процессе обработки у данных статус меняется т..е. понемногу status будет из NULL превращаться в succcess. Но возможны случаи когда он будет выставлен в pending или failed
Melkij, запросы просто просто на выборку file_name по разным условиям. Иногда нужно делать COUNT(*).
Даты пишутся более менее последовательно по возрастанию. Про распределение данных не совсем понял.
Александр, я оказалось реально не так понял идею PoE. А есть ли технологии которые позволяют все же снизить использование розеток? По витой паре же какой-то напряжение подается.
Александр, В точку! Разве что 4K не смотрю, ютуб просто на кухне нужен
Простой роутер не угодил тем что я его уже 5 лет хочу поменять т.к. он часто сеть теряет и хочу взять такой чтобы меньше на один кабель было, а то и так одни провода кругом.
Александр, А можете дать ссылку на инжектор который нужно купить и который подойдет. Я реально от компьютерных сетей далек. Оборудование мое -- витая пара которая в Dlink старый втыкается за 2000р
galaxy, я удалил-добавил заново индексы на этот раз btree вместо hash, и разбил запрос на части, как вы и предлагали. В итоге он отработал успешно суммарно за 2 часа. Я понять не могу. Почему тот то больше суток висел?
Соответственно у меня идет десятки тысяч вставок в час. Если делать доп-проверки есть ли нужная запись в справочнике это сильно снизит производительность. Как можно в моем случае нормализовать структуру?