HuggingFace
Dataset
様々なソースを扱うことが可能。
csvファイルからDatasetDictを作成する例
import pandas as pd
from sklearn.model_selection import train_test_split
from datasets import Dataset, DatasetDict, ClassLabel
train_base_df = pd.read_csv("train.csv")
train_df, valid_df = train_test_split(train_all_df, test_size=0.1,
stratify=train_base_df["label"], random_state=SEED)
# reset_indexしないとindexが特徴量として認識される
train_df = train_df.reset_index(drop=True)
valid_df = valid_df.reset_index(drop=True)
dataset_dict = DatasetDict({
"train": Dataset.from_pandas(train_df),
"valid": Dataset.from_pandas(valid_df),
})
# ClassLabelクラスに変換
class_label = ClassLabel(num_classes=2, names=["normal", "hate"])
dataset_dict = dataset_dict.cast_column("label", class_label)参考
基本的な使い方は以下を参照
DatasetDictにすればまとめて処理することも可能となる。
ラベル部分はClassLabelにしておくと後々便利である。
トークナイザ処理
dataset_dictに対してmapでtokenizerで処理すればinput_ids(トークン系列)やattention_maskが得られる。
トークナイザの学習時は注意が必要。
隠れ次元のベクトルを得る方法
Datasetクラスをうまくイテレーションする方法が分からないため、普通にrangeでforを回す。
modelへの入力時にはtensorに変換が必要で、若干煩雑となる。
modelは、AutoModelForSequenceClassificationなどではなく、普通にAutoModelの方で、ヘッドレスなものを使用する。
出力は、pooler_outputから得る。
pooler_outputの他にlast_hidden_stateがあるがその違いは、pooler_outputは、last_hidden_stateの系列先頭を線形層(入出力同じノード)とtanhを通したものである。
また、last_hidden_stateは、複数あるself-attentionの最終層という意味である。(系列の最後という意味ではないので注意)
モデルのconfig確認
以下で確認できる。ヘッド数や層数、隠れ状態数なども確認可能。
出力は以下
EvalPrediction
compute_metricsを自作する場合にわたってくるクラス。
例えば以下のように使用する。
定義はコードの以下を参照。
SchedulerType
コードの以下でわかる。
デフォルトは、"linear"なので注意が必要。
MTEB
https://huggingface.co/blog/mteb
埋め込むベクトルを生成可能な事前学習モデルを評価するための大規模ベンチマークに使える。
112の言語、8つのタスク、58個のデータセットで評価する。
個別に使えると、ブログに書くときはかどるかも。
Last updated