Cómo limitar los trabajos paralelos

Cómo limitar los trabajos paralelos

Tengo un host que contiene un archivo /tmp/hostlistque requiere nombre de usuario y contraseña para iniciar sesión y estoy usando el comando expect para iniciar sesión en hosts y ejecutar el comando y aparece como se muestra a continuación en mi script bash.

)

VAR=$(expect -c "$script")

echo "$VAR" >/tmp/outexp
-----------------

Puedo manejar la ejecución paralela.

while IFS= read -r i
do
        ( export server_name=`echo $i`;echo "connecting to $i";expect -c 
wait

¿Hay alguna manera de limitar el no? de hosts a la vez? Por ejemplo, supongamos que tengo 1000 hosts en un archivo... y quiero ejecutar en un conjunto de 100 hosts a la vez para completar 1000 hosts...

Respuesta1

Con GNU Parallel harías algo como:

[compute $script]
export script
run_one() {
  i="$1"
  export server_name=`echo $i`
  echo "connecting to $i"
  expect -c "$script"
  echo "Job completed on $i"
  echo "-----------------------------------"
}
export -f run_one

cat "$file" | parallel -j100 run_one '2>&1' >"$log2"

O:

[compute $script]
export script

cat "$file" |
  parallel -j100 --tag 'i={} expect -c "$script" 2>&1' >"$log2"

Respuesta2

Puede comprobar cuántos trabajos se están ejecutando y esperar hasta que finalicen.

Aquí hay un guión de muestra:

#!/bin/bash

i=0
while [[ $i -lt 50 ]]; do

    n=$(jobs | grep Running | wc -l)
    if [[ $n -ge 10 ]]; then
        echo "waiting for jobs to finish ($n running)"
        sleep 1
    else
        echo start next $i
        bash -c "sleep $(( $RANDOM % 3 )); echo $i finished" &
        let i+=1
    fi
done
wait

Lo usarías así para limitarlo a 100 hosts en paralelo:

while IFS= read -r i
do
    n=$(jobs | grep Running | wc -l)
    if [[ $n -ge 100 ]]; then
        echo "waiting for jobs to finish ($n running)"
        sleep 1
    else
        ( export server_name=`echo $i`;echo "connecting to $i";expect -c "$script";echo "Job completed on $i";echo "-----------------------------------" ) >> "${log}_${i}" 2>&1 &
    fi
done < "$file"

Respuesta3

Normalmente uso un enfoque algo diferente que no depende de que usted lleve un registro de la cantidad de subprocesos que genera y cada vez que la cola es inferior a su máximo, se llena.

max_jobs=100 # set queue size
while IFS= read -r i; do
  num_jobs=$(pgrep -c -P$$)
  if [[ $num_jobs -ge $max_jobs ]]; then
    wait -n $(pgrep -P$$) # Wait until a any subprocess terminates
  else
    <calling_awesome_script_here> &
  fi
done < "$file"

información relacionada