Metric Learning的乙個疑惑

2022-03-27 10:18:01 字數 835 閱讀 8887

我看的是liu yang的survey: distance metric learning: a comprehensive survey.

裡面總結道,eric xing等把metric learning formulate成這樣乙個凸優化問題:

\begin

\min\limits_^} & \sum\limits_,) \in \mathcal} - } \right\|_a^2}\\

\text \quad & a\succeq 0, \sum\limits_} _a^2\ge 1

\end

然後,解這個優化問題的困難主要是$a\succeq 0$這個半正定條件造成的,所以,為了簡化計算,考慮將$a$在樣本的特徵空間中進行分解。

用同類約束集$\mathcal$和異類約束集$\mathcal$中的所有樣本集合:

\begin

\mathcal=(x_1, \cdots, x_n)

\end

然後對樣本特徵的pairwise correlation:

\begin \label m=\frac\sum_^x_i x_i^t \end

進行特徵分解,得到前$k$個最大的特徵值對應的特徵向量$\_^$組合來逼近$a$:

\begin a=\sum_^\gamma_i v_i v_i^t,\quad \gamma_i\ge0,\quad i=1,\cdots,k \end

這其中,$\gamma_i$都是非負的。

我疑惑的是,在式子(

\ref)計算 $m$ 時,為什麼用的是correlation(相關)而不是covariance(協方差)呢?也就是說,為什麼不對樣本 $\$ 進行零均值化呢?

container of 的的的原理

另外一篇,同樣精彩,揭開linux核心中container of的神秘面紗 華清遠見嵌入式學院講師。在linux 核心中有乙個大名鼎鼎的巨集container of 這個巨集是用來幹嘛的呢?我們先來看看它在核心中是怎樣定義的。呵呵,乍一看不知道是什麼東東。我們先來分析一下container of p...

存在的就是合理的,發生的即是必然的。

筆者有時候會想,什麼是對,什麼是錯?對於追求某一件事情之前首先會考慮,為什麼我要做這件事情。所以經過自我分析和生活周邊環境的總結。我認為,對於乙個人來,這是在站在個體的角度上說。什麼是對的?就是你自己覺得是對的,它就是對的。不過這個只是你自己的想法。主觀上的正確,不代表客觀上也受到了別人的認可。就拿...

Apache的rewrite的重寫相關的引數

apache mod rewrite規則重寫的標誌一覽 使用mod rewrite時常用的伺服器變數 rewriterule規則表示式的說明 匹配任何單字元 chars 匹配字串 chars chars 不匹配字串 chars text1 text2 可選擇的字串 text1或text2 匹配0到1...