ツイッターもどき

- Insumasushi Twitter -

- Insumasushi Twitter -

Icon of create_ham

でもとりあえず複数のLLMに聞けば、完全ではないけど

でもとりあえず複数のLLMに聞けば、完全ではないけど
一応即席のファクトチェックができるあれ。

要はそれぞれ答えが一致していれば信憑性が高くなり、
逆に食い違いが大きければ大きい程
ハルシネーションの可能性が高くなるとか
Icon of create_ham

プログラミングはチャッピーよりもジェミニさんのほうが

プログラミングはチャッピーよりもジェミニさんのほうが
守備範囲が広いんじゃないか感。

単純なモデルの性能差には極端な差がなければ
あとはとり込んでる量の差だけになる。

まー膨大なデータが蓄積してるグーグルと比べると
差がでるのは当たり前かもしれない問題。