2026年2月

Icon of create_ham

インターネットは古からカオスが基本なので

インターネットは古からカオスが基本なので
大抵のことはチャメシ・インシデントだけど。

インデペンデンス・デイの人間に対峙したときの
宇宙人じみた内容を臆することなく吐くようになるのは

さすがに理性を全力で投げすぎてて、
オヌシはそれでいいのか?と思うことはある(ナゾ)
Icon of create_ham

ジェミニさんの推測はわりと無難な

ジェミニさんの推測はわりと無難な
回答をしてくれるので参考にはなるやつ。

推測は答えではないのでハルシネーションを
気にしなくてもいいという面でも
有用性はあるとか
Icon of create_ham

ようつべさんの「ゆっくり」や「ずんだもん」の収益化停止問題は…

ようつべさんの「ゆっくり」や「ずんだもん」の収益化停止問題は。
結構前から度々話題になってる「コンテンツの重複」
の延長線でしかなく。

つまるところ共通の「素材」を利用しているせいで
アルゴが「同一のもの」と認識して弾いてて

しかもグーグル側は「誤認」ではなく「規約」ルールで
方針として定めてる節があるとかないとか

要はなるべくオリジナル作ってやるのが
一番安全で無難な方法になってる(怪文)
Icon of create_ham

ローカルLLMくんでも、どうやらそこそこ性能があれば

ローカルLLMくんでも、どうやらそこそこ性能があれば
誤字脱字の修正だけじゃなくて
口語で入力した文章をまとめたり校正したりして読みやすくしたり

例えばブログなら指示に状況判断を加えれば
ブログの記事形式にしたりする能力はあるみたいと

そりゃあ重宝されるわけだなと
Icon of create_ham

でもとりあえず複数のLLMに聞けば、完全ではないけど

でもとりあえず複数のLLMに聞けば、完全ではないけど
一応即席のファクトチェックができるあれ。

要はそれぞれ答えが一致していれば信憑性が高くなり、
逆に食い違いが大きければ大きい程
ハルシネーションの可能性が高くなるとか
Icon of create_ham

プログラミングはチャッピーよりもジェミニさんのほうが

プログラミングはチャッピーよりもジェミニさんのほうが
守備範囲が広いんじゃないか感。

単純なモデルの性能差には極端な差がなければ
あとはとり込んでる量の差だけになる。

まー膨大なデータが蓄積してるグーグルと比べると
差がでるのは当たり前かもしれない問題。
Icon of create_ham

アイゲネさんというよりLLMは

アイゲネさんというよりLLMは
どれだけマイナスに傾こうが
どんなことされようが顔色一つ変えず

真摯に相談に乗ってくれて
なおかつ問題解決のための提案ができる
能力ある存在としてみれば

壁さんよりは遥かに役立つので
その点はいい時代になったんじゃないかと思う。
Icon of create_ham

考えてみるとあたりまえだけど、

考えてみるとあたりまえだけど、
ジェミニさんに入力されたgksデータの中には

かつてはネット上にあったけど
今は消えてしまってるものも含まれてそうなので

チャットから情報引き出して発掘するというのも
案外ありかも案件

2026年1月

Icon of create_ham

さすがに落ち着いてきたけど、

さすがに落ち着いてきたけど、
相変わらず絶えずちょこちょこ出てくるの見るに

割合的にもうその一帯全部って判断したほうがいいし
いい加減に妥協して本筋に戻ろう(ナゾ)
Icon of create_ham

まーでも、限りなく可能性は低いし

まーでも、限りなく可能性は低いし
基本にほぼ関わりない話なので
基本は気にしなくてもいい案件。

ただ過去に気になったやつと妙に共通点がある事例があるので
すこし引っかかる部分があったりなかったり
Icon of create_ham

今のところ再開しようとしてるのは「おろかなゆっくり」で

今のところ再開しようとしてるのは「おろかなゆっくり」で
一応件のやつとはほぼ関係はないはずなんだけど

リスクはゼロではないという可能性を考慮して
あとで遅れて始動しようと思ってたボイボ実況の移行が
早まる可能性が高くなったなーというやつ
Icon of create_ham

ジェミニさんの癖か最近のLLM共通の性質かは不明だけど

ジェミニさんの癖か最近のLLM共通の性質かは不明だけど
挙動というか癖のようなものを知る。

指示で固定しないと要素をころころと勝手に仕様変更するあれは
たぶんハルシネーションが発生する確率下げるための
工夫なんだろうなと理解したやつ