웹사이트 데이터에 직접 tail을 사용합니까, 아니면 다른 유틸리티가 필요합니까?

웹사이트 데이터에 직접 tail을 사용합니까, 아니면 다른 유틸리티가 필요합니까?

RRD 데이터베이스를 채우기 위해 웹 사이트의 마지막 데이터 줄에서 단일 데이터 필드를 추출할 계획입니다. 저는 리눅스를 사용하고 있습니다.

웹사이트는 다음과 같습니다:http://www.ogimet.com/cgi-bin/getsynop?begin=201309250000&block=03895(공항 기상 데이터입니다).

질문: 제가 할 수 있는 일이 있나요 tail?곧장tail웹사이트에서 데이터의 마지막 줄을 읽어야 합니까? 아니면 다른 유틸리티를 사용하여 데이터를 읽은 다음 마지막 줄을 가져오는 데 사용해야 합니까 ? awk해당 라인에서 데이터의 n번째 필드를 분리하는 가장 좋은 유틸리티는 무엇입니까 ? (저는 Perl에 익숙하지 않습니다.)

감사해요. 나이젤.

답변1

curl네트워크 데이터를 표시하는 의 stderr 출력을 비활성화하고 다음으로 파이프하려고 합니다 tail.

$ url="http://www.ogimet.com/cgi-bin/getsynop?begin=201309250000&block=03895"
$ curl "$url" 2>/dev/null | tail -n 1
03895,2013,11,28,15,00,AAXX 28154 03895 41450 82702 10090 20076 40342 56014 70252 885// 333 86613=

원하는 경우 를 생략할 수 있습니다 2>/dev/null. 에서는 중요하지 않지만 tail보기에는 더 좋습니다.

답변2

아니요, tail은 네트워크에서 읽지 않지만 wget, cur 또는 snarf는 읽습니다. 각 프로그램은 원격 파일을 다운로드하여 저장하거나 표준 출력으로 다운로드하여 인쇄할 수 있습니다. 그런 다음 tail과 awk(알면 괜찮을 것임)가 작동합니다.

관련 정보