12 5日學習記錄

2022-05-09 03:30:08 字數 3113 閱讀 6490

1.np.repeat 

import numpy as

npa=np.array(([1,2],[3,4

]))print(np.repeat(a,2))

#結果:[1

1223

344]

當axis=none時,會展平為乙個行向量。

如果指定軸:

print(np.repeat(a,2,axis=0

))#結果[[1

2] [1

2] [3

4] [3

4]]

2.de工作。

如果是指定了兩種細胞型別,那麼就從兩種cell型別中取樣n_samples,當然是越多越好,經過vae模型獲取到了px_scales(經過校正)表達的百分比,之後用它計算貝貝葉斯因子,是通過判斷兩個矩陣的大小,並且求均值,log(res/1-res)。

如果是1 vs all,那麼就輪流求,取樣當前1的細胞型別的細胞,並將其他cell作為另一類,然後計算基因的貝葉斯因子。

4.去批分為兩種,一種是同乙個資料集中不同批次,另一種是多個資料集下的不同批次,比想象的複雜一點。

5.logger.debug 

在除錯時會出現此資訊。

6.nearestneighbors 

#還是查文件好,接著就能看實現原始碼。

7.這個計算熵的可是真難理解:

score +=np.mean(

[entropy(

batches[#returns a tuple of arrays (row,col) containing the indices

kmatrix[indices].nonzero()[

1][#找到權重不為0的

kmatrix[indices].nonzero()[

0] ==i]]

)for i in range(n_samples_per_pool)#100

] )

終於明白了,舉了個例子:

import numpy as

npkm=np.array([[0,0,1],[1,0,0],[0,1,0

]])indices=[0,2

]print(km[indices].nonzero()[

1][km[indices].nonzero()[0]==0

])#輸出[2

]>>>km[indices].nonzero()

(array([

0, 1], dtype=int64), array([2, 1], dtype=int64))

>>> km[indices].nonzero()[0]==0

array([ true, false])

>>> km[indices].nonzero()[1

]array([

2, 1], dtype=int64)

當fre趨向於0或者1時,即差不多都屬於同一批次的時候,熵就趨向於0。

import tensorflow as

tf

classes = 3

labels = tf.constant([0,1,2

]) # 輸入的元素值最小為0,最大為2

output =tf.one_hot(labels,classes)

sess =tf.session()

with tf.session()

assess:

sess.run(tf.global_variables_initializer())

output =sess.run(output)

print(

"output of one-hot is :

",output)

# ('

output of one-hot is : ',

# array([[

1., 0., 0

.],# [

0., 1., 0

.],# [

0., 0., 1.]], dtype=float32))

並且手動嘗試了一下:

import tensorflow as

tfa=tf.one_hot([0,0,0,1,1,1],2

)with tf.session()

assess:

print(sess.run(a))

#輸出[[

1. 0

.] [

1. 0

.] [

1. 0

.] [

0. 1

.] [

0. 1

.] [

0. 1.]]

11.tf.random_normal 

b= tf.random_normal([10

])with tf.session()

assess:

print(sess.run(b))

#輸出[-0.7680359

0.9331585

0.14169899

0.75573707 -1.3931639 -0.7400114

0.58605003

1.8533127 -0.17746244 -1.0043402 ]

用於從服從指定正太分布的數值中取出指定個數的值。沒有指定引數的話,就是標準正態分佈。

12.沒有啟用函式的網路層?dense(h, self.n_input, activation=none)

待看)相當於f(x)=x。

14.搜尋了zinb的實現**,未果,沒有找到有類似的,

搜尋 case_zero case_non_zero,找到了擬合zinb分布的乙個講解,看起來太複雜了。

就是說,計算zinb似然的時候就是這麼算的:

那麼一般的似然值是如何計算的?似然值如何計算。

一般來說,給定引數θ以及服從的分布和原資料,就可以計算似然值,當前引數的似然值。但是現在我感覺好抽象,有沒有個例子。

4 8日學習記錄

今天主要講了檔案上傳 國際化三個內容 檔案上傳 springmvc同樣使用了apache的檔案上傳元件。所以需要引入以下包 apache commons fileupload.jar apache commons io.jar 在myspring servlet.xml中配置 class org.s...

1 25學習總結

最近的學習進度有些慢,也偷了幾天懶,到月底得每天加大學習量了。今天主要是練習了前幾天學習的html標籤,熟悉了常用標籤的功能。接著就開始了css的學習,了解了四種css匯入方式。最後是結合一套css漸變色模板做了練習 doctype html html lang zh cn head meta ch...

2月4日學習記錄 2 7日

1.pytorch入門學習 這個官方教程還挺好的。可以作為乙個手冊來查詢。包括建立物件,物件與numpy的互相轉換,物件的 操作,物件轉移到gpu上。第二個dataloader的教程學到了可以使用dataloader載入資料,自動完成分batch,shuffle,等工作,首先對每個資料集可以繼承da...