ウェブサイトのデータに対して tail を直接使用しますか、それとも別のユーティリティが必要ですか?

ウェブサイトのデータに対して tail を直接使用しますか、それとも別のユーティリティが必要ですか?

ウェブサイトの最後のデータ行から単一のデータ フィールドを抽出し、RRD データベースに入力する予定です。Linux を実行しています。

ウェブサイトは次のとおりです:http://www.ogimet.com/cgi-bin/getsynop?begin=201309250000&block=03895 翻訳元(空港の気象データです)。

質問: 使用できますtail直接ウェブサイトからデータの最終行を読み取るか、別のユーティリティを使用してデータを読み取り、tail最後の行を取得するために を使用する必要がありますか?awkその行から n 番目のデータ フィールドを分離するのに最適なユーティリティはありますか? (私は Perl に精通していません)。

ありがとう。ナイジェル。

答え1

curlネットワーク データを表示する の stderr 出力を無効にして、 にパイプしますtail

$ url="http://www.ogimet.com/cgi-bin/getsynop?begin=201309250000&block=03895"
$ curl "$url" 2>/dev/null | tail -n 1
03895,2013,11,28,15,00,AAXX 28154 03895 41450 82702 10090 20076 40342 56014 70252 885// 333 86613=

2>/dev/null必要に応じて を省略できます。 にとっては問題ありませんtailが、 の方が見栄えがよくなります。

答え2

いいえ、tail はネットワークから読み取りませんが、wget、curl、または snarf は読み取ります。これらの各プログラムは、リモート ファイルをダウンロードして保存したり、ダウンロードして標準出力に印刷したりできます。次に、tail と awk (これで十分であることがわかっている場合) が役立ちます。

関連情報