Как разбить большой текстовый файл на более мелкие файлы с одинаковым количеством строк?

405

У меня есть большой (по количеству строк) текстовый файл, который я хотел бы разделить на более мелкие файлы, а также по количеству строк. Поэтому, если мой файл имеет около 2M строк, я бы хотел разбить его на 10 файлов, содержащих строки 200k, или 100 файлов, содержащих 20k строк (плюс один файл с остатком, равномерно делимый, не имеет значения).

Я мог бы сделать это довольно легко в Python, но мне интересно, есть ли какой-нибудь способ ниндзя сделать это с помощью bash и unix utils (в отличие от строк с ручным циклом и подсчетами/разбиением).

  • 1
    Из любопытства, после того, как они «расколоты», как их «объединить»? Что-то вроде "кошка часть2 >> часть1"? Или есть еще одна утилита ниндзя? возражаете обновить свой вопрос?
  • 6
    Собрать все вместе, cat part* > original
Показать ещё 4 комментария
Теги:
file

10 ответов

699
Лучший ответ

Вы смотрели на команду split?

$ split --help
Usage: split [OPTION] [INPUT [PREFIX]]
Output fixed-size pieces of INPUT to PREFIXaa, PREFIXab, ...; default
size is 1000 lines, and default PREFIX is 'x'.  With no INPUT, or when INPUT
is -, read standard input.

Mandatory arguments to long options are mandatory for short options too.
  -a, --suffix-length=N   use suffixes of length N (default 2)
  -b, --bytes=SIZE        put SIZE bytes per output file
  -C, --line-bytes=SIZE   put at most SIZE bytes of lines per output file
  -d, --numeric-suffixes  use numeric suffixes instead of alphabetic
  -l, --lines=NUMBER      put NUMBER lines per output file
      --verbose           print a diagnostic to standard error just
                            before each output file is opened
      --help     display this help and exit
      --version  output version information and exit

Вы могли бы сделать что-то вроде этого:

split -l 200000 filename

который создаст файлы по 200000 строк с именем xaa xab xac...

Другой вариант, разделенный по размеру выходного файла (по-прежнему разбивается на разрывы строк):

 split -C 20m --numeric-suffixes input_filename output_prefix

создает файлы, такие как output_prefix01 output_prefix02 output_prefix03... максимальный размер каждого из которых составляет 20 мегабайт.

  • 13
    Вы также можете разделить файл по размеру: split -b 200m filename (m для мегабайт, k для килобайт или без суффикса для байтов)
  • 123
    разделить по размеру и убедиться, что файлы разбиты на разрывы строк: split -C 200m имя файла
Показать ещё 10 комментариев
70

Как насчет команды split?

split -l 200000 mybigfile.txt
32

Да, есть команда split. Он разделит файл на строки или байты.

$ split --help
Usage: split [OPTION]... [INPUT [PREFIX]]
Output fixed-size pieces of INPUT to PREFIXaa, PREFIXab, ...; default
size is 1000 lines, and default PREFIX is 'x'.  With no INPUT, or when INPUT
is -, read standard input.

Mandatory arguments to long options are mandatory for short options too.
  -a, --suffix-length=N   use suffixes of length N (default 2)
  -b, --bytes=SIZE        put SIZE bytes per output file
  -C, --line-bytes=SIZE   put at most SIZE bytes of lines per output file
  -d, --numeric-suffixes  use numeric suffixes instead of alphabetic
  -l, --lines=NUMBER      put NUMBER lines per output file
      --verbose           print a diagnostic just before each
                            output file is opened
      --help     display this help and exit
      --version  output version information and exit

SIZE may have a multiplier suffix:
b 512, kB 1000, K 1024, MB 1000*1000, M 1024*1024,
GB 1000*1000*1000, G 1024*1024*1024, and so on for T, P, E, Z, Y.
  • 0
    Пробовал georgec @ ATGIS25 ~ $ split -l 100000 /cygdrive/P/2012/Job_044_DM_Radio_Propogation/Working/FinalPropogation/TRC_Longlands/trc_longlands.txt, но в каталоге нет разделенных файлов - где вывод?
  • 1
    Это должно быть в том же каталоге. Например, если я хочу разделить на 1 000 000 строк на файл, сделайте следующее: split -l 1000000 train_file train_file. и в том же каталоге я получу train_file.aa с первым миллионом, затем trail_file.ab со следующим миллионом и т. д.
Показать ещё 1 комментарий
13

использовать split

Разбивает файл на части фиксированного размера, создает выходные файлы, содержащие последовательные разделы INPUT (стандартный ввод, если ничего не задано или INPUT равен '-')

Syntax split [options] [INPUT [PREFIX]]

http://ss64.com/bash/split.html

12

Использование:

sed -n '1,100p' filename > output.txt

Здесь 1 и 100 - номера строк, которые вы будете записывать в output.txt.

  • 2
    Мне нравится этот ответ. Коротко и сладко. Спасибо
  • 0
    При этом получаются только первые 100 строк, вам нужно зациклить его, чтобы последовательно разбить файл на следующие 101..200 и т. Д. Или просто используйте split как все верхние ответы здесь уже говорят.
8

разбить файл "file.txt" на 10000 строк файлов:

split -l 10000 file.txt
8

вы также можете использовать awk

awk -vc=1 'NR%200000==0{++c}{print $0 > c".txt"}' largefile
  • 0
    Неплохо, но не так далеко от того, что я бы сделал в Python.
  • 3
    awk -v lines=200000 -v fmt="%d.txt" '{print>sprintf(fmt,1+int((NR-1)/lines))}'
5

В случае, если вы просто хотите разделить на x количество строк в каждом файле, данные ответы о split в порядке. Но мне интересно, чтобы никто не обращал внимания на требования:

  • "не считая их" → используя wc + cut
  • "имея остаток в дополнительном файле" → по умолчанию делает split

Я не могу сделать это без "wc + cut", но я использую это:

split -l  $(expr 'wc $filename | cut -d ' ' -f3' / $chunks) $filename

Это может быть легко добавлено к вашим функциям bashrc, так что вы можете просто вызвать его, передавая имя файла и куски:

 split -l  $(expr 'wc $1 | cut -d ' ' -f3' / $2) $1

Если вам нужно только x кусков без остатка в дополнительном файле, просто измените формулу, чтобы суммировать ее (куски - 1) в каждом файле. Я использую этот подход, потому что обычно я просто хочу х число файлов, а не х строк на файл:

split -l  $(expr 'wc $1 | cut -d ' ' -f3' / $2 + 'expr $2 - 1') $1

Вы можете добавить это в скрипт и назвать его "ниндзя-путь", потому что, если ничто не соответствует вашим потребностям, вы можете создать его :-)

4

split (из GNU coreutils, начиная с версии 8.8 от 2010-12-22) включает в себя следующий параметр:

-n, --number=CHUNKS     generate CHUNKS output files; see explanation below

CHUNKS may be:
  N       split into N files based on size of input
  K/N     output Kth of N to stdout
  l/N     split into N files without splitting lines/records
  l/K/N   output Kth of N to stdout without splitting lines/records
  r/N     like 'l' but use round robin distribution
  r/K/N   likewise but only output Kth of N to stdout

Таким образом, split -n 4 input output. сгенерирует четыре файла (output.a{a,b,c,d}) с одинаковым количеством байтов, но в середине строки могут быть разбиты.

Если мы хотим сохранить полные строки (т.е. разделить на строки), то это должно сработать:

split -n l/4 input output.

Соответствующий ответ: https://stackoverflow.com/questions/19031144/how-to-split-one-text-file-into-multiple-txt-files

0

HDFS getmerge небольшой файл и вылил в размер свойства.

Этот метод вызовет разрыв строки

split -b 125m compact.file -d -a 3 compact_prefix

Я пытаюсь объединить и разделить на 128 МБ каждый файл.

# split into 128m ,judge sizeunit is M or G ,please test before use.

begainsize='hdfs dfs -du -s -h /externaldata/$table_name/$date/ | awk '{ print $1}' '
sizeunit='hdfs dfs -du -s -h /externaldata/$table_name/$date/ | awk '{ print $2}' '
if [ $sizeunit = "G" ];then
    res=$(printf "%.f" 'echo "scale=5;$begainsize*8 "|bc')
else
    res=$(printf "%.f" 'echo "scale=5;$begainsize/128 "|bc')  # celling ref http://blog.csdn.net/naiveloafer/article/details/8783518
fi
echo $res
# split into $res files with number suffix.  ref  http://blog.csdn.net/microzone/article/details/52839598
compact_file_name=$compact_file"_"
echo "compact_file_name :"$compact_file_name
split -n l/$res $basedir/$compact_file -d -a 3 $basedir/${compact_file_name}

Ещё вопросы

Сообщество Overcoder
Наверх
Меню