объединить несколько файлов на основе первого столбца и решить проблемы с памятью

объединить несколько файлов на основе первого столбца и решить проблемы с памятью

У меня есть несколько файлов fastq с разделителями табуляции. Я хочу сопоставить вторую строку каждого чтения и сложить значения рядом с ней, если она совпадает. Например:


file1.fq
>1
ATGCCGTT      file1:1
+
HHHHKKKK

file2.fq
>2
ATGCCGTT       file2:3
+
JJKHHTTT

>3
ATTCCAAC        file2:1
+
=#GJLMNB

Мне нужен такой результат:


output.txt

ATGCCGTT      file1:1    file2:3     count:4
ATTCCAAC      file2:1          count:1

Код, который я написал, следующий:



#!/usr/bin/env perl
use strict;
use warnings;
no warnings qw( numeric );
my %seen;


$/ = "";
while () {
    chomp;
    my ($key, $value) = split ('\t', $_);

    my @lines = split /\n/, $key;
    my $key1 = $lines[1];

    $seen{$key1} //= [ $key ];
    push (@{$seen{$key1}}, $value);

}

foreach my $key1 ( sort keys %seen ) {
my $tot = 0;
my $file_count = @ARGV;
for my $val ( @{$seen{$key1}} ) {
        $tot += ( split /:/, $val )[0];
    }   

if ( @{ $seen{$key1} } >= $file_count) {


        print join( "\t", @{$seen{$key1}});
        print "\tcount:". $tot."\n\n";
    }
}

Этот код хорошо работает для небольших файлов, но когда я хочу сравнить большие файлы, он занимает всю память, в результате чего скрипт работает без результатов. Я хочу изменить скрипт так, чтобы он не занимал память. Я не хочу использовать никакие модули. Я думаю, что если я буду загружать в память только один файл за раз, это сэкономит память, но не получится. Пожалуйста, помогите изменить мой скрипт.

решение1

Вы пробовали awk? Не уверен, что он будет лучше справляться с большими файлами, perlно, возможно, стоит попробовать:

Внутри вашего скрипта awk:

BEGIN {
    RS=">[0-9]+"
}

FNR==1{next}

NR==FNR {
    a[$1]++
    next
}


$1 in a {
    b[$1]++
    next
}

{
    c[$1]++
}

END {
    for (key in a) {
        if (b[key] == "") {
            printf key"\tfile1:"a[key]"\t\tcount:"a[key]"\n"
        } else {
            printf key"\tfile1:"a[key]"\tfile2:"b[key]"\tcount:"a[key]+b[key]"\n"
        }
    }
    for (key in c) {
        printf key"\t\tfile2:"c[key]"\tcount:"c[key]"\n"
    }
}

Чтобы запустить его:

$ awk -f myscript.awk file1 file2 > output.txt

Протестировано с:

файл1

>1
ATGCCGTT      file1:1
+
HHHHKKKK

>2
ATTCCAACg        file2:1
+
=#GJLMNB

файл2

>2
ATGCCGTT       file2:3
+
JJKHHTTT

>3
ATTCCAAC        file2:1
+
=#GJLMNB

Вывод в терминале:

ATTCCAACg   file1:1         count:1
ATGCCGTT    file1:1 file2:1 count:2
ATTCCAAC            file2:1 count:1

решение2

Добавьте эти мистические заклинания в свою программу

use DB_File;
my %seen; 
unlink '/tmp/translation.db';
sleep 2; 
tie ( %seen, 'DB_File', '/tmp/translation.db' )
    or die "Can't open /tmp/translation.db\n";

и ваш хэш больше не будет находиться в памяти, а в базе данных на диске. Вы можете оставить остальную часть кода такой, какая она есть. Да, я использовал модуль DB_File, но нет никаких причин не делать этого. Он идет с каждымперлустановка «из коробки», так что вам не придется ничего устанавливать или что-то еще.

Я использую этот подход постоянно, если мои хэши становятся действительно огромными и обнаруживаю, что после прохождения некоей неясно определенной точки высоты все значительно ускоряется.

Связанный контент