コンテンツにスキップ

利用者:JP okapi/sandbox

ELMo (言語モデル)

ELMo("Embeddings from Language Model") は、単語の並びをベクトルの並びとして表現する、単語埋め込み手法である。文字レベルのトークンを入力として、単語レベルの埋め込みを行う双方向LSTM(長・短期記憶)に取り込むことができる。BERTのように、ELMoの埋め込みは文脈依存性であり、「river bank」や「bank balance」の「bank」など、同じ綴りで異なる意味の単語(同形同音異義語)に対して、異なる表現を生成する。

ELMoは、Allen Institute for AI[1]ワシントン大学によって作成された。

関連項目[編集]

脚注[編集]

出典[編集]

  1. ^ AllenNLP - ELMo — Allen Institute for AI”. 2023年3月30日閲覧。