Eu tenho linhas em um log semelhante a:
2015/11/02-07:55:39.735 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.11:61618) is not a trusted source.
2015/11/02-07:55:40.515 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.11:51836) is not a trusted source.
2015/11/02-07:55:39.735 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.10:61615) is not a trusted source.
2015/11/02-07:55:40.515 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.10:51876) is not a trusted source.
2015/11/02-07:55:39.735 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.10:61614) is not a trusted source.
2015/11/02-07:55:39.735 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.15:61614) is not a trusted source.
2015/11/02-07:55:39.735 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.15:61618) is not a trusted source.
2015/11/02-07:55:39.735 INFO failed with ERR_AUTHORIZATION_REQUIRED. (10.10.10.15:61613) is not a trusted source.
Então, tentei o seguinte comando para obter a contagem de cada IP uniq, classificado:
grep ERR_AUTHORIZATION_REQUIRED file.log | awk '{print $6}' | cut -s -d ':' -f1 | tr -d '(' | sort | uniq -c
A saída que recebo é semelhante à seguinte:
3 10.10.10.10
2 10.10.10.11
3 10.10.10.15
Então é como se o IP estivesse sendo classificado antes de aplicar o uniq -c
(o que faz sentido dado o comando), mas se eu trocar os comandos uniq
e sort
, cada IP será impresso com uma contagem de 1
.
Responder1
Na uniq
página de manual:
DESCRIPTION
Discard all but one of successive identical lines from INPUT (or standard input), writing to OUTPUT (or standard output).
Aqui a palavra crítica é “sucessiva”. Ele não procura duplicatas em nenhum ponto do fluxo, apenas aquelas que se seguem imediatamente. A classificação força todas as duplicatas a ficarem próximas umas das outras, para que possam ser removidas (e contadas).