Script Bash abortando o loop

Script Bash abortando o loop

Eu tenho o seguinte script:

#!/bin/bash -e
set -e
DATA_DIR=/home/admin/backup_avl_historico/data
DB_HOST=myHost
DB_USER=myPass

#extract table list
logger 'Extracting Table List'
psql -h $DB_HOST -U $DB_USER -c "select table_name from information_schema.tables where table_name like 'avl_historico_%';" -t -o $DATA_DIR/tables.list
array=($(wc -l $DATA_DIR/tables.list))
logger ''$array
total_tables=${array[0]}
logger 'Total tables: '$total_tables

#Get max date
max_date=$(psql -h $DB_HOST -U $DB_USER -t -c "select now() - interval '12 months'")
logger 'Max date: '$max_date

array=($max_date)
date=${array[0]}
logger 'Only date: '$date

#Dump each table
while read table_name
do
logger 'looping...'
        if [ ! -z "$table_name" ]; then
                logger 'Processing table '$table_name
                output=${table_name}_pre_${date}.csv
                psql -h $DB_HOST -U $DB_USER -t -F , -c "COPY (select * from reports.$table_name where fecha < '$max_date') TO STDOUT WITH CSV" -o ${DATA_DIR}/$output
                if [ -f ${DATA_DIR}/$output ];then
                        if test -s ${DATA_DIR}/$output
                        then
                                logger 'Deleting records'
                                psql -h $DB_HOST -U $DB_USER -c "delete from reports.$table_name where fecha < '$max_date'"
                                logger 'Gzipping '$output
                                pigz  ${DATA_DIR}/$output
                                logger 'Moving to S3'
                                aws s3 mv ${DATA_DIR}/$output.gz s3://my-bucket/avl_historico/
                                logger 'Vacuuming table'
                                psql -h $DB_HOST -U $DB_USER -c "vacuum full analyze reports.$table_name"
                        else
                                rm ${DATA_DIR}/$output
                        fi
                fi
        fi
done < $DATA_DIR/tables.list

O problema que estou tendo é que quando o PostgreSQL sai de uma instrução com o seguinte erro:

ERROR:  canceling statement due to lock timeout

Todo o script é abortado e não continua na próxima iteração do doloop.

Qualquer ideia sobre como evitar essa condição de saída seria apreciada, então o script poderia simplesmente pular uma iteração, mas continuar com o resto

Responder1

Se você deseja que seu script execute todos os comandos, desconsiderando qualquer falha, remova os dois -esinalizadores. Por outro lado, se você ainda deseja encerrar o script em caso de erro, mas deseja capturar um específico (PostgreSQL no seu caso) deixe apenas um dos -eflags, não importa qual deles, mas uma preferência pessoal é no script, não no shebang, e a maneira de detectar o erro é adicionar um ||(OU lógico) ao final do comando saindo com diferente de 0. O que isso ||faz é se o código de saída do comando anterior não for 0, executar o seguinte um:

psql -h $DB_HOST -U $DB_USER -c "delete from reports.$table_name where fecha < '$max_date'" || true

O exemplo acima irá capturar silenciosamente psqlcódigos de saída diferentes de 0 e continuar, você pode substituir o truecomando por qualquer coisa que desejar (registrar o erro, esperar algum tempo, etc...) apenas certifique-se de que ele saia com 0 ou você terminará no mesmo situação. O truecomando não faz absolutamente nada, apenas sai com código 0.

informação relacionada