相似度度量和距離度量在整個(gè)機(jī)器學(xué)習(xí)領(lǐng)域都是非常基礎(chǔ)的概念,數(shù)據(jù)科學(xué)家 Gonzalo Ferreiro Volpi 近日通過(guò)淺顯易懂的推薦系統(tǒng)示例介紹了這些概念以及它們的計(jì)算方式,。
在推薦系統(tǒng)中,,我們經(jīng)常談到「相似度度量」這一概念,。為什么?因?yàn)樵谕扑]系統(tǒng)中,基于內(nèi)容的過(guò)濾算法和協(xié)同過(guò)濾算法都使用了某種特定的相似度度量來(lái)確定兩個(gè)用戶或商品的向量之間的相等程度。所以總的來(lái)說(shuō),,相似度度量不僅僅是向量之間的距離。
注:我的所有工作都可在我的 GitHub 頁(yè)面查看:https://github.com/gonzaferreiro,,其中當(dāng)然也包括本文內(nèi)容的代碼庫(kù)以及有關(guān)推薦系統(tǒng)的更多內(nèi)容,。
在任意類(lèi)型的算法中,最常見(jiàn)的相似度度量是向量之間夾角的余弦,,即余弦相似度,。設(shè) A 為用戶的電影評(píng)分 A 列表,B 為用戶的電影評(píng)分 B 列表,,那么它們之間的相似度可以這樣計(jì)算:
從數(shù)學(xué)上看,,余弦相似度衡量的是投射到一個(gè)多維空間中的兩個(gè)向量之間的夾角的余弦。當(dāng)在多維空間中繪制余弦相似度時(shí),,余弦相似度體現(xiàn)的是每個(gè)向量的方向關(guān)系(角度),,而非幅度。如果你想要幅度,,則應(yīng)計(jì)算歐幾里德距離,。
余弦相似度很有優(yōu)勢(shì),,因?yàn)榧词箖蓚€(gè)相似的文件由于大小而在歐幾里德距離上相距甚遠(yuǎn)(比如文檔中出現(xiàn)很多次的某個(gè)詞或多次觀看過(guò)同一部電影的某用戶),,它們之間也可能具有更小的夾角。夾角越小,,則相似度越高,。
如下例所示,來(lái)自 www.machinelearningplus.com
上圖統(tǒng)計(jì)了 sachin,、dhoni,、cricket 這三個(gè)詞在所示的三個(gè)文檔中的出現(xiàn)次數(shù)。據(jù)此,,我們可以繪出這三個(gè)向量的圖,,從而輕松地看出衡量這些文檔的余弦和歐幾里德距離的差異:
按照定義,,常規(guī)余弦相似度反映了方向的差異,而不是位置的差異,。因此,,使用余弦相似度指標(biāo)無(wú)法考慮到用戶評(píng)分這樣的差異。調(diào)整后余弦相似度可以緩解這一問(wèn)題,,具體做法是從每對(duì)共同評(píng)分的配對(duì)減去各自用戶的平均評(píng)分,,其定義如下:
我們看看下面這個(gè)來(lái)自 Stack Overflow 的例子,這能更好地解釋余弦相似度和調(diào)整過(guò)的余弦相似度之間的差異:
假設(shè)一位用戶為兩部電影分別給出了 0~5 的評(píng)分,。
直觀而言,,我們可以看到用戶 b 和 c 的品味相近,而 a 則頗為不同,。但常規(guī)的余弦相似度卻給出了不一樣的結(jié)果,。在這樣的案例中,計(jì)算調(diào)整后余弦相似度能讓我們更好地理解用戶之間的相近程度,。
順便一提,,在上一篇有關(guān)推薦系統(tǒng)的文章中,我們給出了以下用于計(jì)算調(diào)整后余弦相似度的函數(shù):
from scipy import spatial
def adjusted_cos_distance_matrix(size, matrix, row_column):
distances = np.zeros((size,size))
if row_column == 0:
M_u = matrix.mean(axis=1)
m_sub = matrix - M_u[:,None]
if row_column == 1:
M_u = matrix.T.mean(axis=1)
m_sub = matrix.T - M_u[:,None]
for first in range(0,size):
for sec in range(0,size):
distance = spatial.distance.cosine(m_sub[first],m_sub[sec])
distances[first,sec] = distance
return distances
使用這個(gè)函數(shù)的方式非常簡(jiǎn)單,,只需輸入:
matrix:這就是用戶之間的評(píng)分或觀點(diǎn)等你衡量的東西或你的業(yè)務(wù)商品的原始矩陣,。
row_columns:如果你衡量的是列之間的距離,則設(shè)為 1,;如果你衡量的是行之間的距離,,則設(shè)為 0;
size:所得矩陣的所需大小,。也就是說(shuō),,當(dāng)尋找用戶或商品相似度時(shí),這就是用戶或商品的數(shù)量,。所以如果有 500 個(gè)不同用戶,,則距離矩陣的大小就為 500×500。
下面給出了一個(gè)參考示例:
user_similarity = adjusted_cos_distance_matrix(n_users,data_matrix,0)
item_similarity = adjusted_cos_distance_matrix(n_items,data_matrix,1)
最后,,我們簡(jiǎn)要回顧一些可用在推薦系統(tǒng)中計(jì)算相似度的其它方法,,但也可用于機(jī)器學(xué)習(xí)中其它任何基于距離的算法:
歐幾里德距離:如果繪制在 n 維空間中,相似的項(xiàng)取決于彼此之間的相近程度,。
2. 皮爾森相關(guān)性或相關(guān)相似度:告訴了我們兩個(gè)項(xiàng)之間的相關(guān)程度,。相關(guān)性越高,則相似度越高,。
3. 均方差:在于計(jì)算用戶評(píng)分之間的平均平方差,。MSE 更側(cè)重于懲罰更大的錯(cuò)誤。
然后:
其中 |??????| 是用戶 ?? 和 ?? 都評(píng)價(jià)過(guò)的商品的數(shù)量。
用戶-用戶以及商品-商品相似度示例
我們借助之前介紹推薦系統(tǒng)的文章來(lái)簡(jiǎn)要回顧一下協(xié)同過(guò)濾的工作方式:假設(shè)我喜歡《盲刺客》和《莫斯科紳士》這兩本書(shū),;我的朋友 Matias 也喜歡《盲刺客》和《莫斯科紳士》,,但也還喜歡《Where the crawdads sing》??雌饋?lái)我與 Matias 有一樣的興趣,。所以你可能會(huì)想我也會(huì)喜歡《Where the crawdads sing》,即使我還沒(méi)讀過(guò)它,。協(xié)同過(guò)濾也正是基于這一邏輯,,只是你不僅可以比較用戶,也可以比較商品,。
我們可視化地比較看看推薦系統(tǒng)的用戶-用戶相似度與商品-商品相似度之間的差異:
用戶-用戶相似度
商品-商品相似度
現(xiàn)在,,理解了這一點(diǎn),我們用下面的示例解釋說(shuō)明一些度量,,我認(rèn)為這清楚辨明了用戶-用戶以及商品-商品相似度:
用戶-用戶相似度詳解
這里給出了一個(gè)用戶電影評(píng)分矩陣,。為了以更加實(shí)用的方式理解這一點(diǎn),我們先根據(jù)上表計(jì)算一下用戶 (A, C) 和 (B, C) 的相似度,。用戶 A 和 C 共同評(píng)分的電影是 x2 和 x4,,B 和 C 共同評(píng)分的電影是 x2、x4,、x5,。知道了這些信息后,我們計(jì)算皮爾森相關(guān)性或相關(guān)相似度:
A 和 C 之間的相關(guān)性比 B 和 C 之間的相關(guān)性大,。因此,,A 和 C 更相似,A 喜歡的電影會(huì)被推薦給 C,,C 喜歡的也會(huì)被推薦給 A,。
商品-商品相似度詳解
這里的平均商品評(píng)分(mean item rating)是給定商品的所有評(píng)分的平均(比較看看我們?cè)谟脩?用戶過(guò)濾中看到的表格)。這里要計(jì)算的不是用戶-用戶相似度,,而是商品-商品相似度,。要做到這一點(diǎn),我們首先需要找到給這些商品評(píng)分過(guò)的用戶,,然后再基于這些評(píng)分來(lái)計(jì)算這些商品之間的相似度,。我們計(jì)算一下電影 (x1, x4) 和 (x1, x5) 之間的相似度。給電影 x1 和 x4 評(píng)過(guò)分的用戶是 A 和 B,,而給電影 x1 和 x5 評(píng)過(guò)分的用戶也是 A 和 B,。
x1 和 x4 的相似度大于 x1 和 x5 的相似度,?;谶@些相似度值,如果有任何用戶搜索電影 x1,他們將被推薦 x4,;反之亦然,。
關(guān)于推薦系統(tǒng)的內(nèi)容就到此為止了。但是,,請(qǐng)記住相似度度量和距離度量在整個(gè)機(jī)器學(xué)習(xí)領(lǐng)域都是非?;A(chǔ)的概念,理解它們對(duì)進(jìn)一步的學(xué)習(xí)至關(guān)重要,。