it-swarm-ru.tech

Лучший способ удалить байты из начала файла?

Сегодня мне пришлось удалить первые 1131 байт из смешанного текстового/двоичного файла размером 800 МБ, отфильтрованного дампа Subversion, который я взламываю для нового репозитория. Какой лучший способ сделать это?

Для начала я попробовал

dd bs=1 skip=1131 if=filtered.dump of=trimmed.dump

но после пропуска это копирует остаток файла по байтам, то есть очень медленно. В итоге я решил, что мне нужно 405 байт, чтобы округлить до трех блоков из 512, которые я мог пропустить

dd if=/dev/zero of=405zeros bs=1 count=405
cat 405zeros filtered.dump | dd bs=512 skip=3 of=trimmed.dump

который завершился довольно быстро, но, должно быть, был более простой/лучший способ? Есть ли другой инструмент, о котором я забыл? Спасибо!

64
Rup

Вы можете переключать bs и пропускать опции:

dd bs=1131 skip=1 if=filtered.dump of=trimmed.dump

Таким образом, операция может выиграть от большего блока.

В противном случае вы можете попробовать использовать tail (хотя использовать его с двоичными файлами небезопасно):

tail -c +1132 filtered.dump >trimmed.dump

Наконец, вы можете использовать 3 экземпляра dd, чтобы написать что-то вроде этого:

dd if=filtered.dump bs=512k | { dd bs=1131 count=1 of=/dev/null; dd bs=512k of=trimmed.dump; }

где первый дд выводит свой стандартный вывод Filter.dump; второй просто читает 1131 байт и выбрасывает их; затем последний читает из своего стандартного ввода оставшиеся байты фильтрованного файла Filter.dump и записывает их в trimmed.dump.

67
marco

Не уверен, когда skip_bytes был добавлен, но чтобы пропустить первые 11 байтов, у вас есть:

# echo {123456789}-abcdefgh- | 
                              dd bs=4096 skip=11 iflag=skip_bytes
-abcdefgh-
0+1 records in
0+1 records out
11 bytes (11 B) copied, 6.963e-05 s, 158 kB/s

Куда iflag=skip_bytes говорит dd интерпретировать значение параметра skip как байты вместо блоков, что делает его простым.

Вы можете использовать вложенную оболочку и два вызова dd, например:

$ ( dd bs=1131 count=1 of=dev_null && dd bs=4K of=out.mp3 ) < 100827_MR029_LobbyControl.mp3
1+0 records in
1+0 records out
1131 bytes (1.1 kB) copied, 7.9691e-05 s, 14.2 MB/s
22433+1 records in
22433+1 records out
91886130 bytes (92 MB) copied, 0.329823 s, 279 MB/s
$ ls -l *
-rw------- 1 max users 91887261 2011-02-03 22:59 100827_MR029_LobbyControl.mp3
-rw-r--r-- 1 max users     1131 2011-02-03 23:04 dev_null
-rw-r--r-- 1 max users 91886130 2011-02-03 23:04 out.mp3
$ cat dev_null out.mp3 > orig
$ cmp 100827_MR029_LobbyControl.mp3 orig
15
maxschlepzig

Если файловая система и ядро ​​Linux поддерживают ее, вы можете попробовать fallocate , если хотите внести изменения на месте: в лучшем случае нет данных IO на всех:

$ fallocate <magic> -o 0 -l 1131 inplace.dump

где <magic> зависит от файловой системы, версии Linux и типа файла ( FALLOC_FL_COLLAPSE_RANGE или FALLOC_FL_PUNCH_HOLE | FALLOC_FL_KEEP_SIZE может использоваться внутри ).

7
jfs

Вы должны использовать _count=0_ - это просто lseek() всякий раз, когда это возможно.

Нравится:

_{  dd bs=1131 skip=1 count=0; cat; } <filtered.dump >trimmed.dump
_

dd будет lseek() дескриптор входного файла со смещением 1131 байт, а затем cat просто скопирует все, что осталось для вывода.

3
mikeserv

Еще один способ удалить начальные байты из файла (вообще не используя dd) - это использовать xxd и ​​sed или tail соответственно.

bytes=$((1131*2))

xxd -p -c 256 filtered.dump | tr -d '\n' | sed "s/^.\{0,${bytes}\}//" | xxd -r -p > trimmed.dump

bytes=$((bytes + 1)) 
xxd -p -c 256 filtered.dump | tr -d '\n' | tail -c +${bytes} | xxd -r -p > trimmed.dump
2
wop

@maxschlepzig просит онлайн лайнера. Вот один в Perl. Требуется 2 аргумента: от байта и длины. Входной файл должен быть задан как '<', а вывод будет на stdout:

Perl -e 'sysseek(STDIN,shift,0) || die; $left = shift;
     while($read = sysread(STDIN,$buf, ($left > 32768 ? 32768 : $left))){
        $left -= $read; syswrite(STDOUT,$buf);
     }' 12345678901 19876543212 < bigfile > outfile

Если длина больше, чем файл, остальная часть файла будет скопирована.

На моей системе это обеспечивает 3,5 ГБ/с.

2
Ole Tange