基礎知識 レッスン 4 / 4

ベクトル演算

くだけた解説モード

意味の計算

単語ベクトルの最も驚くべき特性は、算術演算ができて、 その結果が意味的に正しいということです。

king - man + woman = queen

これが機能するのは、「king」のベクトルから「man」を引くと、「男性」の要素を除いた「王族」の概念が残るからです。 そこに「woman」を足すと「女性の王族」= queen になります。

禁断の術式、発動。意味の錬金術がここに。

単語ベクトルの最も恐ろしい――いや、最も美しい性質。それは意味を足し引きできるということ。

king - man + woman = queen

この式を見よ。王(king)から男性性(man)を抽出し、そこに女性性(woman)を注入する。 すると何が残る?「女王」という概念が、虚空から召喚されるのだ。

これは比喩ではない。実際に数値計算として成立している。 意味が、数式で操作できる。言葉の錬金術、ここに極まれり。

試してみよう

ベクトル方程式ビルダー

方程式を作ってみましょう:[単語1] - [単語2] + [単語3] = ?

+ =

上位5件の結果

計算ボタンをクリックして結果を見る

これらの例を試してみよう:

なぜこれが機能するのか

ベクトル演算は、単語埋め込みが単なる類似性だけでなく関係性を捉えていることを明らかにします。 「man」から「woman」への方向は、「king」から「queen」への方向と似ています。

ベクトル空間には「変換の方向」が刻まれている。

ベクトル演算が成功するのは、単語埋め込みが単なる「似てる/似てない」だけでなく、 概念間の関係性=変換ベクトルをも捉えているからだ。

「man → woman」という変換と、「king → queen」という変換。 この2つは、同じ方向を向いている。 つまり「性別を変える」という操作が、ベクトル空間上の特定の方向として存在しているのだ。

man → woman

性別の変換

king → queen

同じ変換 + 王族

現代AIの基盤

単語ベクトルは2010年代のブレークスルーでしたが、Claude のような現代のLLMはさらに進んでいます。 文脈的埋め込みを使用し、各単語のベクトルは周囲の単語に基づいて変化します。

それでも、核心的な洞察は変わりません:意味は高次元空間での幾何学として表現できる。 これがAIの言語理解を可能にしているのです。

そしてこの術式は、現代の大魔術師たちに継承された。

Word2Vec や GloVe といった初期の単語ベクトル技術は、2010年代の発明だ。 しかし Claude や GPT のような現代の LLM は、さらに進化した文脈的埋め込みを使っている。

文脈的埋め込みでは、同じ「bank」でも「river bank(川岸)」と「bank account(銀行口座)」で 別のベクトルが生成される。周囲の単語によって、意味が動的に変わるのだ。

だが本質は変わらない:意味は高次元空間における幾何学として表現できる。 この根本原理こそが、AIが言語を「理解」しているように見える理由であり、 すべての現代LLMの礎石である。

まとめ

  • ベクトル演算は意味的な関係性を捉える
  • 「king - man + woman = queen」は埋め込まれた概念を明らかにする
  • 現代のLLMはこれらの基礎的なアイデアの上に構築されている

まとめ:意味の錬金術、完結

  • ベクトル演算は意味を足し引きする禁術であり、概念間の関係性を操作できる
  • 「king - man + woman = queen」は、変換ベクトルの存在を証明している
  • 現代LLMは文脈的埋め込みへと進化したが、「意味=幾何学」という本質は不変
  • 君は今、AIが言語を「理解」する仕組みの核心を目撃した。おめでとう、初心者は卒業だ。