直接在網站資料上使用 tail,還是需要其他實用程式?

直接在網站資料上使用 tail,還是需要其他實用程式?

我計劃從網站上的最後一行資料中提取單一資料欄位以填充 RRD 資料庫。我正在運行Linux。

該網站是:http://www.ogimet.com/cgi-bin/getsynop?begin=201309250000&block=03895(這是機場氣象資料)。

問題: 我可以tail使用直接地從網站讀取最後一行數據,或者我是否需要使用另一個實用程式讀取數據,然後用於tail獲取最後一行?awk從該行中分離出第 n 個資料欄位的最佳實用程式是? (我不熟悉 Perl)。

謝謝。奈傑爾.

答案1

您想要停用curl顯示網路資料的 stderr 輸出,然後只需透過管道傳輸到tail

$ url="http://www.ogimet.com/cgi-bin/getsynop?begin=201309250000&block=03895"
$ curl "$url" 2>/dev/null | tail -n 1
03895,2013,11,28,15,00,AAXX 28154 03895 41450 82702 10090 20076 40342 56014 70252 885// 333 86613=

如果您願意,可以省略2>/dev/null,這並不重要tail,但看起來更好。

答案2

不,tail 不會從網路讀取,但 wget、curl 或 snarf 會。這些程式中的每一個都可以下載並保存遠端檔案或下載並列印到標準輸出。然後 tail 和 awk (如果你知道它就可以了)開始發揮作用。

相關內容