Огромное количество данных для загрузки требуется при загрузке файла: лучшее решение?

1

Я нашел решение по моей проблеме, но мои знания ограничивают меня другими решениями;

Контекст: мы загрузим файл Perfmon в веб-приложение и сохраним все значения в базе данных. файл имеет эту структуру csv:


time, counter1, counter2, counter3(process1), ...

0:00, x, y, z,...

0:30, ...

(x, y и z - значения)

В качестве примера, Perfmon на 3 месяца будет генерировать более или менее 2M данных.

Мое решение: при загрузке файла какая-то логика будет читать и преобразовывать файл со следующей структурой:


time, counter, process, value

0:00, counter1,, x

0:00, counter2,, y

0:00, counter3,process1,z

0:30, ...

Сохраняя этот файл, моя база данных может затем сделать объемную вставку, зная путь.

Я не могу думать о другом решении, которое не требовало бы тонны транзакций или было бы более оптимизировано. Хотя это решение может иметь некоторые ограничения, поскольку сервер базы данных должен иметь правильное разрешение на сервере хранения.

Откройте, чтобы услышать ваши мысли, Привет!

Теги:
sql-server
entity

1 ответ

0

Я узнал о sqlbulkcopy, попробовал его и фактически улучшил время работы x3

Ещё вопросы

Сообщество Overcoder
Наверх
Меню