Encontre linhas consecutivas com strings específicas e modifique o arquivo com base na tabela

Encontre linhas consecutivas com strings específicas e modifique o arquivo com base na tabela

Estou com um problema de manipulação de texto que não consegui resolver. Digamos que eu tenha um arquivo de texto como o mostrado abaixo (text.txt). Haverá casos em que uma linha com /locus_tagé seguida por uma linha com /genee outros em que não é. Quero encontrar todas as linhas que /locus_tagnão são seguidas por /genee, em seguida, usar uma tabela (table.txt) como a abaixo para corresponder a /locus_taga /genee adicioná-la /geneao meu arquivo de texto após seu arquivo /locus_tag.

Qualquer idéia de como fazer isso seria ótima.

/locus_tag="LOCUS_23770"
/note="ABC"
/locus_tag="LOCUS_23780"
/note="DEF"
/locus_tag="LOCUS_23980"
/note="GHI"
/locus_tag="LOCUS_24780"
/gene="BT_4758"
/note="ONP"
/locus_tag="LOCUS_25780"
/gene="BT_4768"
/note="WZX"

Mesa

/locus_tag       /gene
LOCUS_00010      BT_4578
LOCUS_00020      BT_4577
LOCUS_00030      BT_2429

Responder1

Usando seus arquivos vinculados, isso funciona

awk 'BEGIN{FS="[ =]+"; OFS="="}
     BEGINFILE{fno++}
     fno==1{locus["\""$1"\""]="\""$2"\""; }
     fno>1{if (old ~ /LOCUS/ && $0 !~ /gene/) print "/gene", locus[old]; old=$3; print}
    ' table file1

Antes

                     /locus_tag="LOCUS_00030"
                     /note="WP_011108293.1 hypothetical protein (Bacteroides

Depois

                     /locus_tag="LOCUS_00030"
/gene="BT_2429"
                     /note="WP_011108293.1 hypothetical protein (Bacteroides

Como você não está familiarizado com awkum passo a passo

awk 'BEGIN{FS="[ =]+"; OFS="="}
# set up the input field separator as any group of spaces and/or =
# and set the output field separator as =

     BEGINFILE{fno++}
     # Whenever you open a file, increment the file counter fno

     fno==1{locus["\""$1"\""]="\""$2"\""; }
     # if this is the first file (i.e. table) load the array `locus[]`
     # but wrap the fields in "..." so that they are exactly like the data file entries

     fno>1{if (old ~ /LOCUS/ && $0 !~ /gene/) print "/gene", locus[old]; old=$3; print}
     # if this is a data file
     # if the current value of old (i.e. the previous line) is a LOCUS
     # and && this line ($0) isn't a gene
     # add a gene by indexing into the locus array based upon the value of old
     # because old contains the last LOCUS we found
     # in all cases
     #    set old to the 3rd field on the current line,
     #       which on any LOCUS line is the string "LOCUS_?????" and
     #    print the current line
     # See note below re $2 vs $3 and FS

    ' table file1
    # your input files, table must be first, you can have more data files if you want

Ou sem o multichar FS, mantenha old=$2porque ele não quebra no espaço em branco antes do texto no seu arquivo de dados, o que o multichar faz.

A seguir define o separador de campos dependendo de qual arquivo você está lendo FS=(fno==1)?" ":"=". Espaço para a tabela e =para os dados

awk 'BEGIN{OFS="="}
     BEGINFILE{fno++;FS=(fno==1)?" ":"="}
     fno==1{locus["\""$1"\""]="\""$2"\""; }
     fno>1{if (old ~ /LOCUS/ && $0 !~ /gene/) print "/gene", locus[old]; old=$2; print}
    ' table file1

Desde que o arquivo da tabela não seja tão grande a ponto de consumir memória.

E faça um teste para inserir uma mensagem nos genes ausentes, se for adequada para mais do que apenas os genes vazios./gene=

fno>1{if (old ~ /LOCUS/ && $0 !~ /gene/) print "/gene", (old in locus)?locus[old]:"\"GENE_MISSING_AT_LOCUS\""; old=$3; print}

Altere a referência do campo para oldcorresponder à versão que FSvocê está usando

                     /locus_tag="LOCUS_00020"
/gene="GENE_MISSING_AT_LOCUS"
                     /note="WP_008765457.1 hypothetical protein (Bacteroides

Editar

Olhando para o arquivo de amostra ao qual você vinculou, há simplesmente um problema na diferença de formatação entre o exemplo acima e seus dados reais que interferiram nos números dos campos. old=$2só precisava ser alterado para old=$3. Corrigido acima.

informação relacionada