RAGの「コサイン類似度」で「ベクトルの多少の角度の違いはたいしたことない」と実感する

AI教育

救済を述べておこう。

大昔、よく「恫喝」されたのは:

「ベクトルの角度が少しでもずれると、遠い未来に、とんでもない差になって、取り返しが付かない」

と脅されたものだ。

AI時代になって、そのベクトルの角度は、別に完全一致していなくても良いことがはっきりとしてきた。

つまり、文字列検索で「完全一致」していなくても、「類似」、平たく言うと「だいたい同じ方向を向いていれば、それで良い」ということになる。

しかも、確かに根本となるModelは存在するのだが、それだけではうまく「解釈」できないし、「意味不明」なこともある。その時登場するのがRAGであり、「コサイン類似度」であると言える。

注意点は、2次元空間では、類似しているベクトルは容易に見つかるが、これが3次元以上の高次元となると、複雑になって、類似自体が見つからなくなることがあるらしい。

以上、勉強中の話である。

一方で、ベクトルの角度が完全に一致しているときは、非常に危ないと考える。

ハプスブルク家が滅んだことと同意である。

そもそも、数値化されたベクトルが「完全一致する」とかオカルトだわな。

「だいたい、同じ方向を向いていれば、それを採用する」というのが、現代の話であって、

問題は、「おまえ、ずれてるぞ?」と言い出す奴が出てくるという話かな?

本当にずれてるのは、そういった本人だったりするからね。

そういうのを「ハルシネーション」というのかも知れないねw

完全に間違っているのに、さも、「自分は正しい」とふんぞり返っているみたいな。

だいたい、ずれていても、「プロンプト投入するごとに」「調整」して、パラメタ直していけばいいだけの話なんだから。

やはり、大本となるModelは大切にして、いつも、「原点」「原典」に立ち返らないとね。

常に、「実践」を心がけて、「内省」を大切にしないとね。