76 簡單命令組合抓取本主機IP

2021-10-07 05:02:53 字數 2240 閱讀 6688

首先介紹乙個並不常用的命令:nl

nl命令最基本的用法:為你將要檢視的檔案或者標準輸出新增行號

但務必注意的是:nl若不新增其他引數忽略空行,不對其做行號遞增排序顯示;

此外,nl 與cat -n 作用類同

例如:

[root@c7-3 ~]

# cat /data/f1 ab

[root@c7-3 ~]

# nl /data/f1

1 a2 b

[root@c7-3 ~]

# cat -n /data/f1

1 a2

3 b[root@c7-3 ~]

# nl -b a /data/f1

1 a2

3 b

計算/etc/passwd 中第10行與第20行 uid之和

nl /etc/passwd|

egrep

"^ +10|20"

|awk -f: ''

|sed -nr '1~2n;s/\n/+/p'

|bc

nl命令僅做介紹到這;

對於內容或者行號很多的檔案來說,使用nl 與sed 組合可以快速將我們想要的某行或某幾行定位出來;

例如:

在我的passwd 檔案中有個ftp使用者

我並不知道該使用者資訊在第幾行,而我又想將該使用者資訊取出單獨輸出至終端

[root@c7-3 ~]

# cat /etc/passwd

root:x:0:0:root:/root:/bin/bash

....

....

....

.....

games:x:12:100:games:/usr/games:/sbin/nologin

ftp:x:14:50:ftp user:/var/ftp:/sbin/nologin

....

....

....

....

.....

[root@c7-3 ~]

# nl /etc/passwd

1 root:x:0:0:root:/root:/bin/bash

....

....

....

....

....

11 games:x:12:100:games:/usr/games:/sbin/nologin

12 ftp:x:14:50:ftp user:/var/ftp:/sbin/nologin

....

....

....

....

....

....

..[root@c7-3 ~]

# nl /etc/passwd|sed -n '12p'

12 ftp:x:14:50:ftp user:/var/ftp:/sbin/nologin

很快我們就將該使用者資訊找到並單獨列印

熟練使用各種基礎命令掌握多種方法能夠使我們的工作有更多其他選擇

最後例舉幾個`centos / ubuntu`

通用 `取出主機ip`

的命令作為結束吧

ip a|

sed -n '9p'

|awk -f"/| "

''ip a|nl|

grep

"\b9\b"

|tr -s " "

|cut -d" " -f 4|

tr'/'

'\n'

|head -1

ip a|

egrep

"([0-9])\.([0-9])"

|awk -f" |/"

''[root@c7-3 ~]

# ip a|sed -n '9p'|awk -f"/| " ''

10.20.0.13

[root@c7-3 ~]

# ip a|nl|grep "\b9\b"|tr -s " "|cut -d" " -f 4|tr '/' '\n'|head -1

10.20.0.13

[root@c7-3 ~]

# ip a|egrep "([0-9])\.([0-9])"|awk -f" |/" ''

10.20.0.13

簡單的抓取

由於專案需求,需要採集一些 的內容。在j a領域中,已經存在很多良好的框架用於該應用,如httpclient,webharvest還有更多強大的框架。但由於本身專案比較單純,且為了良好的自我控制,就決定直接用jdk中的httpurlconnection類來抓取網頁內容。並不是說那些框架不好,而只是不...

Linux 命令(76) kill 命令

kill 命令用於終止程序或向程序傳送指定訊號。kill 命令可以傳送指定的訊號到相應的程序或程序組。不指定訊號預設傳送 sigterm 15 來終止指定程序。如果想強制終止程序,可以顯示指定 sigkill 9 訊號,因為該訊號無法被程序捕獲。本文介紹的是符合 posix 標準的 kill 功能,...

Python 簡單網路抓取

我們先簡單的說一下如何抓取乙個網頁的源 其實我們只需要呼叫python中的requests庫中的get方法就可以了。然後解析的話我們可以通過beautifulsoup庫來進行解析。requests比較適合做中小型的網路爬蟲開發,如果是要進行大型的網路爬蟲開發那一般使用的就是scrapy框架了。req...