@Makcimka

Какие самые используемые варианты записи в Postgresql большого массива данных?

Есть схема
module.exports = function (sequelize) {
	return sequelize.define("test", {

		id_item: {
			primaryKey: true,
			unique: true,
			type: Sequelize.STRING,
			allowNull: false
		},
		data: {
			type: Sequelize.STRING,
			allowNull: false
		},
                url: {
			type: Sequelize.STRING,
			allowNull: false
		},
                publishedAt: {
			type: Sequelize.STRING,
			allowNull: false
		},


а вот что надо сохранить
const response = [
{
id_item: "123",
data: "jhlkj",
url: "http:localhost1",
publishedAt: "01. 02. 1996"
},
id_item: "124",
data: "sfdrfg",
url: "http:localhost2",
publishedAt: "04. 05. 1991"
},
{...200 000 items}
]
  • Вопрос задан
  • 91 просмотр
Пригласить эксперта
Ответы на вопрос 1
2ord
@2ord
1. Необходимо создать таблицу с нужными колонками (int, date/datetime, varchar, JSONB и т.д.).
2. Добавить необходимые индексы для поиска по полям.
3. Записывать по 1000 записей за один запрос. И так в цикле, 200 раз (или сколько нужно).

Добавлено
Можно распараллелить записи для большей скорости.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы