python done Python資料型別

2021-10-11 09:43:57 字數 1863 閱讀 4011

python中常用的資料型別:

python中常用的資料型別有以下幾種

1.number 數字型別

2.序列 --包括:字串、元組、列表

3.字典

4.集合

python中常用的資料型別的相關操作

1.數字型別包括:int、float、long、複數等

數字型別屬於不可更改的資料型別,即在每次賦值時均會重新再記憶體總開闢出一塊記憶體空間;可以通過id()函式來得到對應的記憶體空間位置來確定。

2.序列:序列均可使用索引和切片的功能,但字串和元組的值也是不可更改的,而列表中的值可以進行更改;

str='tyuuu'

2.1字串的常用方法:

2.1.1 str[index] ---索引,例如:str[0] 它是從0開始進行正向排序的,也可從-1開始進行逆向排序,即str[4]=str[-1];

2.2.2 常見的索引說明

str[:] 表示所有的;

str[0:] 表示從0開始之後的所有;

str[0:3] 表示從0開始直到2,不包含3;

str[:3] 表示從0開始直到2,不包含3;

str[0:3:2] 表示從0開始直到2,不包含3,且每次步數為2;

str[::2] 表示從0開始直到結束的所有,步數為2;

2.3.3

+:兩個字串可通過『+'相連線;

*n:n次相加

len()求字串長度的函式,系統函式

max():字串中的最大值,通過asc碼進行轉換後進行比較;

min():字串中的最小值,通過asc碼進行轉換後進行比較;

2.3.4.字串的修改

因為字串是不可更改型別,故不能使用索引的方式,但可使用repleace函式來進行修改替換。此時它新建乙個物件(新開闢乙個記憶體空間),它的原物件並沒有改變

2.2元組,與字串方法類似,索引、切片、相加、長度、最大值、最小值等;

tup=(2,6,'yu',8,'iopl')

2.3列表

list=[2,5,'ty',7',[6,7],'yui']

2.3.1列表的常用方法:

2.3.1.1列表與元組和字串的乙個重要區別就是,列表可以通過索引進行賦值,例如,list[3]='ppp';列表可以進行相加,相當於增加索引;

2.3.1.2以下是列表自帶的方法

list.insert(index,'ty')---在列表的指定的位置插入乙個指定的值,前者為索引的位置,後者為對應的值;

list.extend()--------在列表的末尾插入乙個值,可以進行列表的擴充套件;

list.sort()-------對列表按大小進行正向排序;

list.remove('value')-----移除列表中的指定的值,value為列表中已存在的值,否則會報錯;也可通過系統函式del()來 刪除列表中的某個值,例如,del(list(index)),該函式是通過索引來進行刪除的

list.resort()-----對列表按照大小進行逆向排序;

2.4 字典:字典是一種鍵值對的資料型別,結構如下:

dict=----dict

它是無序的,因此不能使用索引,但它有類似索引的功能,可使用dict[name]來查詢元素;它其中的key是不可變的,他的value是可以任意改變的,因此key不能使用列表或字典;

2.4.1字典常用的方法有:

dict.pop('name') #返回並刪除該鍵值

dict.clear() #刪除字典的所有元素,字典還在,只是此時是乙個空字典字典,字典自帶的方法

del(dict) #刪除字典,即字典不再存在,系統公有的函式

dict.get(7,'value') #取key=7的字典的值,若key=7的鍵值不存在,則返回自定義的value內容;

mysql tinlong MySQL資料型別詳解

引言 mysql中定義資料欄位的型別對你資料庫的優化是非常重要的。mysql支援多種型別,大致可以分為三類 數值 日期 時間和字串 字元 型別,如下腦圖所示 數值型別 型別大小範圍 有符號 範圍 無符號 用途 tinyint 1 位元組 128,127 0,255 小整數值 smallint 2 位...

資料讀取類

今天在聽講座的時候找到了乙個比較好的類,趕緊記下來 呼叫這個類也非常簡單,第一步是設定連線字串 connectionstrings clear add name pubsdata connectionstring data source sqlexpress attachdbfilename dat...

資料採集類

爬蟲,又稱蜘蛛,是從別的 抓取資源的一種方法,c net使用爬蟲的方法如下 protected string getpagehtml string url catch return pageinfo 按上述方法就可以在程式中獲取某url的頁面原始檔。但是有些 遮蔽了爬蟲,那就需要模擬瀏覽器獲取的方法...