AIが普及するにつれて、
「ハルシネーション」という言葉をよく聞くようになった。
AIが、
それっぽいけど間違った情報を出す。
事実と違うことを断定的に語る。
存在しない話を、もっともらしく盛る。
確かに、それは問題だと思う。
ただ、ふと思った。
人間の噂話に比べたら、
それってそんなに怖いことやろか。
怖いのはAIより「信じ切る態度」
人間同士の会話でも、
- 出どころの分からない話
- 誰かの解釈が混ざった情報
- いつの間にか主語が消えた話
こういうものは日常的に飛び交っている。
それでも私たちは、無意識に距離を取って聞いている。
「ほんまかいな」
「話半分で聞いとこ」
「一回調べてからにしよ」
問題は、AIの情報が間違うことそのものより、
AIの言葉だけを特別視して、鵜呑みにしてしまう態度
なんじゃないかと思うようになった。
私なりの防御策は、とてもシンプル
そこで私がやっているのが、これ。
断定できない話、推測や文脈解釈になる場合は、
その不確かさが分かる表現として、「知らんけどな」を添えるようにメモリしてもらっている。
要するに、
「これは仮の話ですよ」という合図を、必ず可視化する
というルール。
関西で言うところの、
「知らんけどな」
や。
「知らんけどな」が付くと、頭が切り替わる
不思議なもので、話の最後に「知らんけどな」が付くだけで、
- あ、これは断定じゃないな
- 参考意見として聞こ
- 裏取りが必要やな
と、自然にスイッチが入る。
これは責任放棄ではない。
むしろ逆で、判断を聞き手に返すための作法やと思っている。
AIを使い分けるきっかけにもなる
この合図があると、次の行動も決まりやすい。
- 発想や文脈、文化論の話
→ そのまま楽しむ - 事実確認や数字が必要
→ ジェミニやパワープレキシティに聞き直す
これは依存ではなく、会話の温度でAIを使い分けているだけ。
人に対しても、飲み屋の話と専門家の話を同じ重さで聞かないのと一緒やね。
ハルシネーションは「敵」じゃない
ハルシネーションは、
- 仮説
- たたき台
- 思考のジャンプ台
としては、むしろ役に立つ。
問題になるのは、それが断定されたまま流通すること。
だから私は、AIの精度を上げること以上に、受け取り方の作法を大事にしている。
精度より、作法
AI時代に本当に必要なのは、
- 嘘をゼロにすること
- 完璧な答えを出させること
ではなく、
- 鵜呑みにしない
- 距離を取る
- 確かめ直す
そのための小さな仕掛けやと思う。
「知らんけどな」は、そのための最短で、最強のスイッチだと今は感じている。
AIは賢い。
でも、判断するのは最後まで人間。
その距離感を忘れないために、私は今日も、
「知らんけどな」を添えて使っている。
知らんけどな。

