
Tengo un host que contiene un archivo /tmp/hostlist
que requiere nombre de usuario y contraseña para iniciar sesión y estoy usando el comando expect para iniciar sesión en hosts y ejecutar el comando y aparece como se muestra a continuación en mi script bash.
)
VAR=$(expect -c "$script")
echo "$VAR" >/tmp/outexp
-----------------
Puedo manejar la ejecución paralela.
while IFS= read -r i
do
( export server_name=`echo $i`;echo "connecting to $i";expect -c
wait
¿Hay alguna manera de limitar el no? de hosts a la vez? Por ejemplo, supongamos que tengo 1000 hosts en un archivo... y quiero ejecutar en un conjunto de 100 hosts a la vez para completar 1000 hosts...
Respuesta1
Con GNU Parallel harías algo como:
[compute $script]
export script
run_one() {
i="$1"
export server_name=`echo $i`
echo "connecting to $i"
expect -c "$script"
echo "Job completed on $i"
echo "-----------------------------------"
}
export -f run_one
cat "$file" | parallel -j100 run_one '2>&1' >"$log2"
O:
[compute $script]
export script
cat "$file" |
parallel -j100 --tag 'i={} expect -c "$script" 2>&1' >"$log2"
Respuesta2
Puede comprobar cuántos trabajos se están ejecutando y esperar hasta que finalicen.
Aquí hay un guión de muestra:
#!/bin/bash
i=0
while [[ $i -lt 50 ]]; do
n=$(jobs | grep Running | wc -l)
if [[ $n -ge 10 ]]; then
echo "waiting for jobs to finish ($n running)"
sleep 1
else
echo start next $i
bash -c "sleep $(( $RANDOM % 3 )); echo $i finished" &
let i+=1
fi
done
wait
Lo usarías así para limitarlo a 100 hosts en paralelo:
while IFS= read -r i
do
n=$(jobs | grep Running | wc -l)
if [[ $n -ge 100 ]]; then
echo "waiting for jobs to finish ($n running)"
sleep 1
else
( export server_name=`echo $i`;echo "connecting to $i";expect -c "$script";echo "Job completed on $i";echo "-----------------------------------" ) >> "${log}_${i}" 2>&1 &
fi
done < "$file"
Respuesta3
Normalmente uso un enfoque algo diferente que no depende de que usted lleve un registro de la cantidad de subprocesos que genera y cada vez que la cola es inferior a su máximo, se llena.
max_jobs=100 # set queue size
while IFS= read -r i; do
num_jobs=$(pgrep -c -P$$)
if [[ $num_jobs -ge $max_jobs ]]; then
wait -n $(pgrep -P$$) # Wait until a any subprocess terminates
else
<calling_awesome_script_here> &
fi
done < "$file"