在資料較少的情況下仍然有效,
可以處理多類別問題。
缺點:
對於輸入資料的準備方式較為敏感。
適用資料型別:標稱型資料
(1) 收集資料:可以使用任何方法。本章使用RSS源。
(2) 準備資料:需要數值型或者布林型資料。
(3) 分析資料:有大量特徵時,繪製特徵作用不大,此時使用直方圖效果更好。
(4) 訓練演演算法:計算不同的獨立特徵的條件概率。
(5) 測試演演算法:計算錯誤率。
(6) 使用演演算法:一個常見的樸素貝葉斯應用是檔案分類。可以在任意的分類場景中使用樸
素貝葉斯分類器,不一定非要是文字。
下圖公式表示在事件A發生的條件下,B發生的概率
我們將把文字看成單詞向量或者詞條向量,也就是說將句子轉換為向量
def loadDataSet():
postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'], #切分的詞條
['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
['stop', 'posting', 'stupid', 'worthless', 'garbage'],
['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
classVec = [0,1,0,1,0,1] #類別標籤向量,1代表侮辱性詞彙,0代表不是
return postingList,classVec
#建立詞彙表-檔案向量化的第一步,將所有單詞放入set集合中(去除重複的單詞)
#原資料集中去掉重複的單詞之後,一共有32個單詞
def createVocabList(dataSet):
vocabSet = set([]) #建立一個空的不重複列表
for document in dataSet:
vocabSet = vocabSet | set(document) #取並集
return list(vocabSet)
#詞集法-檔案向量化的第二步
#inputSet - 切分的詞條列表(最初的postingList的每一行)
# vocabList - createVocabList返回的列表
#思想,遍歷inputSet中的每一個單詞,若在vocabList中存在,則將出現的位置的值設定為1即可
def setOfWords2Vec(vocabList, inputSet):
returnVec = [0] * len(vocabList) #建立一個其中所含元素都為0的向量
for word in inputSet: #遍歷每個詞條
if word in vocabList: #如果詞條存在於詞彙表中,則置1
returnVec[vocabList.index(word)] = 1
else:
print("the word: %s is not in my Vocabulary!" % word)
return returnVec #返回檔案向量
得到的向量集為:
#樸素貝葉斯分類器訓練函數
# trainMatrix - 訓練檔案矩陣,即setOfWords2Vec返回的returnVec構成的矩陣
# trainCategory - 訓練類別標籤向量,即loadDataSet返回的classVec
def trainNB0(trainMatrix,trainCategory):
numTrainDocs = len(trainMatrix)#計算訓練的檔案數目 6
numWords = len(trainMatrix[0]) #計算每篇檔案的詞條數 32
pAbusive = sum(trainCategory)/float(numTrainDocs)#檔案屬於侮辱類的概率
p0Num = np.ones(numWords); p1Num = np.ones(numWords)#建立numpy.zeros陣列,詞條出現數初始化為0
p0Denom = 2.0; p1Denom = 2.0 #分母初始化為0
for i in range(numTrainDocs):
if trainCategory[i] == 1: #統計屬於侮辱類的條件概率所需的資料,即P(w0|1),P(w1|1),P(w2|1)···
p1Num += trainMatrix[i]#計算侮辱性單詞所在行每個單詞出現的頻數
p1Denom += sum(trainMatrix[i])#侮辱性單詞所在行的總共單詞的個數
else: #統計屬於非侮辱類的條件概率所需的資料,即P(w0|0),P(w1|0),P(w2|0)···
p0Num += trainMatrix[i]#計算非侮辱性單詞所在行每個單詞出現的頻數
p0Denom += sum(trainMatrix[i])#非侮辱性單詞所在行單詞的總個數
p1Vect = np.log(p1Num/p1Denom)#計算侮辱性單詞所在行的每個單詞是侮辱性單詞的概率
p0Vect = np.log(p0Num/p0Denom)#計算非侮辱性單詞所在行的每個單詞是非侮辱性單詞的概率
return p0Vect,p1Vect,pAbusive
p0Num = np.ones(numWords); p1Num = np.ones(numWords)#建立numpy.zeros陣列,詞條出現數初始化為0
p0Denom = 2.0; p1Denom = 2.0 #分母初始化為0
另一個遇到的問題是下溢位,這是由於太多很小的數相乘造成的。當計算乘積 p(w0|ci)p(w1|ci)p(w2|ci)...p(wN|ci)時,由於大部分因子都非常小,所以程式會下溢位或者 得到不正確的答案。(讀者可以用Python嘗試相乘許多很小的數,最後四捨五入後會得到0。)一 種解決辦法是對乘積取自然對數。在代數中有ln(a*b) = ln(a)+ln(b),於是通過求對數可以 避免下溢位或者浮點數舍入導致的錯誤。同時,採用自然對數進行處理不會有任何損失。
p1Vect = np.log(p1Num/p1Denom)#計算侮辱性單詞所在行的每個單詞是侮辱性單詞的概率
p0Vect = np.log(p0Num/p0Denom)#計算非侮辱性單詞所在行的每個單詞是非侮辱性單詞的概率
樸素貝葉斯分類函數
#樸素貝葉斯分類器分類函數
# vec2Classify - 待分類的詞條陣列
# p0Vec - 侮辱類的條件概率陣列
# p1Vec -非侮辱類的條件概率陣列
# pClass1 - 檔案屬於侮辱類的概率
def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
p1 = sum(vec2Classify*p1Vec)+np.log(pClass1) #計算測試集對應每個單詞是侮辱性的概率
p0 = sum(vec2Classify*p0Vec)+np.log(1.0-pClass1)#計算測試集中對應每個單詞是非侮辱性單詞的概率
print('p0:',p0)
print('p1:',p1)
if p1 > p0:
return 1
else:
return 0
#測試樸素貝葉斯分類器
def testingNB():
listOPosts,listClasses = loadDataSet() #建立實驗樣本
myVocabList = createVocabList(listOPosts) #建立詞彙表
trainMat=[]
for postinDoc in listOPosts:
trainMat.append(setOfWords2Vec(myVocabList, postinDoc)) #將實驗樣本向量化
p0V,p1V,pAb = trainNB0(trainMat,listClasses)#訓練樸素貝葉斯分類器
testEntry = ['love', 'my', 'dalmation'] #測試樣本1
thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))#測試樣本向量化
if classifyNB(thisDoc,p0V,p1V,pAb):
print(testEntry,'屬於侮辱類') #執行分類並列印分類結果
else:
print(testEntry,'屬於非侮辱類')#執行分類並列印分類結果
testEntry = ['stupid', 'garbage']#測試樣本2
thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry)) #測試樣本向量化
if classifyNB(thisDoc,p0V,p1V,pAb):
print(testEntry,'屬於侮辱類') #執行分類並列印分類結果
else:
print(testEntry,'屬於非侮辱類')
測試結果:
總結:整個程式碼完成的步驟如下:
由原始資料得到分類列表,將原始資料存入set集合中去除重複資料
由set集合和原始資料得到向量集
計算概率
迴圈遍歷分類資料集中每一個元素,根據該元素找到其在向量集中所在的行,然後統計該行每個元素出現的頻次和改行總元素的個數,依次類推,找到每個類別所在行元素出現的頻次,以及該類別對應元素的總個數
最後根據每個類別的元素出現的頻次除以該類別下元素的總數,得到每個元素是該類別的概率
測試資料集
首先計算出測試資料集對應的向量集(也就是測試集中的元素出現在set集合中的位置設為1)
然後根據該向量集和之前得到的每個元素是每一類別的概率的資料集相乘,就可以得到測試集中每個元素是某一類別的概率
然後取算出來的是每個類別的概率的最大值,即測試集就是該類別
Mac電腦的朋友在匯入郵件資料的時候如果出現編碼錯誤,可以使用如下命令修改檔案的編碼格式
enconv -L zh_CN -x UTF-8 filename
#2.垃圾郵件分類
def textParse(bigString):#將字串轉換為字元列表
import re
#機器學習與實戰課本上的這種正規表示式的寫法切分會將每一個單詞的每一個字母都單獨切分開,可以自己偵錯看看
#listOfTokens = re.split(r'\W*', bigString)
listOfTokens =re.split(r'\W+', bigString)#將特殊符號作為切分標誌進行字串切分,即非字母、非數位
return [tok.lower() for tok in listOfTokens if len(tok) > 2] #除了單個字母(因為在判斷一個郵件是否是垃圾郵件的時候,僅憑一個字母還不能判斷出來)例如大寫的I,其它單詞變成小寫
def spamTest():
docList = []; classList = []; fullText = []
for i in range(1, 26): #遍歷25個txt檔案
wordList = textParse(open('email/spam/%d.txt' % i, 'r').read()) #讀取每個垃圾郵件,並字串轉換成字串列表
docList.append(wordList)
fullText.append(wordList)
classList.append(1)#標記垃圾郵件,1表示垃圾檔案
wordList = textParse(open('email/ham/%d.txt' % i, 'r').read())#讀取每個非垃圾郵件,並字串轉換成字串列表
docList.append(wordList)
fullText.append(wordList)
classList.append(0)#標記非垃圾郵件,1表示垃圾檔案
vocabList = createVocabList(docList) #建立詞彙表,不重複
trainingSet = list(range(50)); testSet = []#建立儲存訓練集的索引值的列表和測試集的索引值的列表
for i in range(10): #從50個郵件中,隨機挑選出40個作為訓練集,10個做測試集
randIndex = int(random.uniform(0, len(trainingSet))) #隨機選取索索引值
testSet.append(trainingSet[randIndex])#新增測試集的索引值
del(trainingSet[randIndex]) #在訓練集列表中刪除新增到測試集的索引值
trainMat = []; trainClasses = [] #建立訓練集矩陣和訓練集類別標籤系向量
for docIndex in trainingSet: #遍歷訓練集
trainMat.append(setOfWords2Vec(vocabList, docList[docIndex])) #將生成的詞集模型新增到訓練矩陣中
trainClasses.append(classList[docIndex]) #將類別新增到訓練集類別標籤系向量中
p0V, p1V, pSpam = trainNB0(np.array(trainMat), np.array(trainClasses)) #訓練樸素貝葉斯模型
errorCount = 0 #錯誤分類計數
for docIndex in testSet: #遍歷測試集
wordVector = setOfWords2Vec(vocabList, docList[docIndex]) #測試集的詞集模型
if classifyNB(np.array(wordVector), p0V, p1V, pSpam) != classList[docIndex]: #如果分類錯誤
errorCount += 1 #錯誤計數加1
print("分類錯誤的測試集:",docList[docIndex])
print('錯誤率:%.2f%%' % (float(errorCount) / len(testSet) * 100))
測試結果