2018年10月28日

言語処理100本ノックでPython入門 #75 - 機械学習、scikit-learnのcoef_ プロパティ

  

今日は言語処理100本ノック 2015の第8章・機械学習の問題75に挑戦です。

■ 問題

75. 素性の重み
73で学習したロジスティック回帰モデルの中で,重みの高い素性トップ10と,重みの低い素性トップ10を確認せよ.


■ どんなふうに解くか

今回は、3つのクラス(Stopwords,SentimentFeatures,SentimentAnalyser)は前回と同じです、mainメソッドだけを変更しています。

やっていることは、まず学習済みデータをロードして、CountVectorizerのget_feature_names メソッドで重複が除かれた素性データ一覧(単語一覧)を得ます。

これだけだと、重み順になっていないので、LogisticRegressionオブジェクトの coef_ を参照します。 ここには get_feature_namesで得た素性リストの順に重みデータがリストで入っています。

numpyのargsortを使って、素性リストをソート使しています。 このargsortはちょっと変わっていて、リストの中身で(重み順で)ソートしてくれるのですが、 その結果は、ソート順に並び替えられた要素のインデックスが得られます。 まあ、処理速度を考慮するとそれが妥当なのかも。これを使ってTop10, Bottom 10を取り出しています。

■ Pythonのコード

import re
from nltk import stem
import numpy as np
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.linear_model import LogisticRegression
from sklearn.externals import joblib

class Stopwords:
    words = ['a', 'about', 'all', 'an', 'and', 'any', 'are', 'as', \
            'at', 'be', 'been', 'but', 'by', 'can', 'could', 'do', \
            'does', 'for', 'from', 'has', 'have', 'he', 'her', 'his', \
            'how', 'i', 'if', 'in', 'into', 'is', 'it', 'its', 'made', \
            'make', 'may', 'me', 'my', 'no', 'not', 'of', 'on', 'one', \
            'or', 'out', 'she', 'should', 'so', 'some', 'than', 'that', \
            'the', 'their', 'them', 'there', 'then', 'they', 'this', \
            'those', 'to', 'too', 'us', 'was', 'we', 'what', 'when',\
            'which', 'who', 'with', 'would', 'you', 'your', ''
        ]

    @staticmethod
    def exists(word):
        return word in  Stopwords.words

class SentimentFeatures:
    def __init__(self):
        self.stemmer = stem.PorterStemmer()
        self.validreg = re.compile(r'^[-=!@#$%^&*()_+|;";,.<>/?]+$')
        self.splitreg = re.compile(r'\s|,|\.|\(|\)|\'|/|\'|\[|\]|-')

    def isValid(self, word):
        if word == '' or len(word) <= 2:
            return False
        if self.validreg.match(word):
            return False
        return not Stopwords.exists(word)

    def getFromLine(self, line):
        array = self.splitreg.split(line)
        # こういう時はlambda キーワードいらないんですね。
        words = filter(self.isValid, array)
        xs = map(self.stemmer.stem, words)
        return xs

    def enumerate(self, filename, encoding):
        with open(filename, 'r', encoding=encoding) as fin:
            for line in fin:
                sentiment = line[:3]
                yield sentiment, self.getFromLine(line[3:])

class SentimentAnalyser:
    def __init__(self):
        self.cv = CountVectorizer(encoding='utf-8')
        self.lr = LogisticRegression(solver='sag', max_iter=10000)

    # LogisticRegression を使い学習する
    def fit(self, X_train, y_train):
        X_train_cv = self.cv.fit_transform(X_train)
        self.lr.fit(X_train_cv, y_train)

    # LogisticRegression を使い予測する
    def predict(self, X_test):
        x = self.cv.transform(X_test)
        return self.lr.predict(x)

    # 予測し、分類毎に確率を得る
    def predict_proba(self, X_test):
        x = self.cv.transform(X_test)
        return self.lr.predict_proba(x)

    # 学習済みデータをロードする
    def load(self):
        self.cv = joblib.load('chapter08/cv73.learn')
        self.lr = joblib.load('chapter08/lr73.learn')

    # 学習済みデータを保存する
    def save(self):
        # 学習したデータを保存する
        joblib.dump(self.cv, 'chapter08/cv73.learn')
        joblib.dump(self.lr, 'chapter08/lr73.learn')

    # 学習に利用するデータを取り出す
    # y[] は、センチメント
    # X[] は、素性データ
    @staticmethod
    def getFeatureData(filename):
        X = []
        y = []
        sf = SentimentFeatures()
        for sentiment, features in sf.enumerate(filename, 'cp1252'):
            y.append(1.0 if sentiment[0] == '+' else 0.0)
            X.append(' '.join(features))
        return X, y

def main():
    sa = SentimentAnalyser()
    sa.load()

    # fit_transform/transformに渡した単語一覧(学習データ一覧)を得る (重複はなし)
    features = sa.cv.get_feature_names()
    # coef_ には学習した結果の重みが入る。
    # これをソートして、そのインデックスを得る argsortはソートした結果のインデックスが返る
    sorted_idx = np.argsort(sa.lr.coef_)[0]
    print('重みの高い素性トップ10')
    for i in sorted_idx[-1:-11:-1]:
        print(features[i])
    print()
    print('重みの低い素性トップ10')
    for i in sorted_idx[:10]:
        print(features[i])

if __name__ == '__main__':
    main()


■ 結果

重みの高い素性トップ10
engross
refresh
smarter
unexpect
remark
resist
grown
examin
refreshingli
confid

重みの低い素性トップ10
bore
dull
fail
mediocr
plod
routin
wasn
neither
badli
wast