『プロンプトなんざクソくらえ!』AIチャットとの正しい付き合いかた
最近、本当によく見かける「コピペでOK!タイパが爆上がりする最強プロンプト!」なんていう記事や動画。
「なに言ってんだオメ」「タイパってのはあれか、なんかのパーティか?」
プロンプトとは、AIに投げる詳細で理路整然とした命令文とでも言おうか。
相手は機械なので機械的な内容を投げるという行為は合理的であり、かつ有効な手段であることは否定しない。
しかしだ。
私が日ごろから疑問に思っており、仮に否定するのだとすれば、それは「長文テンプレ信仰」。
「コピペでOK!」と書いてあるから、さぞ簡単で便利なハック記事かと思いきや、目的、前提、条件、出力形式、禁止事項、そのほかにも色々書けと……。
これもう、AIを使うために人間が働いてる状態ではないか。
すこし前に流行った「人間が機械に使われてどうすんだよw」という皮肉そのものだ。
私が思うに、一般ユーザーがAIチャットを使うにあたり心得ることは、完璧なプロンプトを投げることではなく、「答え合わせ」と「ズレの修正」だ。
AIチャットを使っていて、こんなことはないだろうか?
Xで「チャッピーと喧嘩した」というポストを見かけたことがある人は多いだろう。
実際に喧嘩したことがある人も多いと思う。
- 「おすすめ教えて」と聞くと、よくある当たり障りのない回答が返ってくる。
- 条件を書いたのに、条件を無視して回答してくる。
- 簡単に教えてほしいのに、長文かつ難しい言葉で返ってくる。
- 「詳しく教えて」と聞いたにもかかわらず、自信満々に間違う。
- 直してと言ったら、見当違いな修正を返してくる。
- 最終的に「もういいや」となって、人間が手でやる。
ここで腹が立つポイントは、間違いそのものより、「それっぽいことを言ってくること」です。
じゃあなんすか、「適当なこといってもバレないっしょ」ってことっすか?
それっぽいから期待する。期待するからズレたときにイラッとする。喧嘩が始まる。
これは仕事や日ごろの生活においても同じ。
他者に期待する
↓
期待外れな結果
↓
イラッとする
↓
認識の違いを改めるように言う
↓
直らない
↓
さらにイラッとする
本当によくあることだが、悲しいかな、私たちはこれとまったく同じことをAIチャットともやってしまいがちなのだ。
人はなぜAIと喧嘩するのか(調査データでわかる喧嘩の種)
「お前が神経質なだけだろ」
「機械相手に喧嘩するとか草」
そう思うなかれ。ちょっと面白い調査データを見てほしい。
ChatGPTへの不満について、実際の会話ログを分析した研究だ。
協力者は107人。
会話ログは307本。
そこから511件の“不満のある返答”を集計したところ、「こんなことがムカつく」という割合が示されている。[1]
最多は「意図が伝わってない」(32.18%)。
次いで「浅い・具体性がない」(20.50%)、「正確性の問題」(15.90%)。[1]
次に、「イラッとした後、人がどう動くか」。ここがまた人間らしい。
「何もしない」が34.4%。モヤっとしたまま終わる人が普通に多い。[2]
一方で、立て直すときに多かったのは「意図を具体化して言い直す」(38.4%)。[2]
面白いことにChatGPTにムカついた人のうち、なんと7割以上の人が「伝わるように言い直す」か「何もしない」という行動に集約されるのだ。
要するにこういう構図だ。
人間はAIチャットに対し、つい「皆まで言わなくても察してくれるだろう」で会話を始める。
でもAIは“察する”というより、ユーザーの意図が曖昧な空白をそれっぽい答えで埋めるのが得意。
だから、こちらの頭の中にしかない前提が多いほどズレる。ズレると喧嘩になる。
じゃあどうすればいい? 意識すべきたった3つのこと
私たちはAIと喧嘩したくないし、でもなるべく少ない往復で正確、かつ閃きを得るような解が欲しい。
それを実現するのに必要なのは長文プロンプトではなく、答え合わせの習慣だと考えます。
- 短く簡単に質問する(最初から完璧を投げるとHPが削られすぎて戦いがそこで終わる)
- 答え合わせ(意図した回答であるか)
- どこが違うのかだけを投げる(淡々と冷静に間違いだけを指摘する)
結局は作業的なように見えるが、「言う → 返る → 見る → 投げ返す」を小文でやるだけ。
「チェック」なんて言うとさらに作業っぽくなるのは否定しないが、以下のようなことだけ気にすればいい。
- 方向:いま欲しい答えの方向に向いてる?(結論がズレてない?)
- 濃さ:浅すぎ/深すぎ、ふわっとしすぎ/細かすぎ、になってない?
- 形:箇条書きが欲しいのに文章、短くが欲しいのに長文、みたいになってない?
とはいえ、AIが返す答えにおいてズレてるのは上記のうち1つくらいなもん。
仮にズレた回答を見つけても、その個所について「○○は△△せよ!」を言うだけ。
例:ズレの指摘 → こうして → (必要なら条件)
- ズレ:ふわっとしてる。こうして:具体例を1つ足して。
- 長い。結論だけ3行で。
- 伝えた○○という条件を無視してるから、条件だけは外さないで。
これの何が良いのかと言われれば、「最初から完璧に書く」が不要になり、「ズレを修正させる」という単純作業に終始することだ。
だからHPが削れない。戦い続けられる。結果、ゲージ満タン状態でラスボス戦に行ける。
頑張って質問する必要はないのだ。投げと確認と投げをクイックに繰り返せばよい。
気づいたときには、精度も品質も高い答えが返るようになる。
私流「AIチャット友好条約締結」までの流れ
では実例をお見せする。
以下は例だが、私が最近やり始めた方法であり、これがまた実に便利で満足度が高い。
題材は「AIに記事タイトル案を出させる」。最初は簡単な指示だけ投げる。
わたし:AIの使い方記事のタイトル案を10個出して チャッピー:以下、10個です。1) AI活用のコツ 2) AIと仲良くなる方法 3) プロンプト術入門 ...(どれも弱い)
当然、ありきたりで当たり障りなくて「つまんねー奴だな!」な回答が返ってくる。
ここで怒ってはいけない。こちらが悪いのだ。回答を確認し、自分の認識とのズレを指摘する。
わたし:違う。もっと刺さるやつ。バズる感じで チャッピー:挑発的なタイトル案を作ります。1) AIを使えない人の特徴 2) これを知らないと損 ...(煽りが雑)
同様に、回答の結果に対する認識のズレや追加の要望を投げる。
わたし:挑発とか煽りじゃなくて“意外性”が欲しい。あとプロンプト文化への反発を入れたい チャッピー:承知しました。プロンプト文化への批判を盛り込みます。1) プロンプトは不要 2) もうプロンプトは古い ...(極論で炎上コース)
さらに認識のズレを調整していく。
わたし:ズレ。「プロンプト」自体は否定しない。「長文テンプレ信仰」を否定。初心者向け。口調は淡々と。タイトルは強めでOK。10個 チャッピー:了解。強いが誤解されにくい案を10個出します。 1) 『プロンプトなんざクソくらえ!』AIチャットの正しい使い方 2) 長文テンプレを捨てると、AIは当たる 3) AIと喧嘩する人の共通点は「答え合わせ不足」 ...(方向が揃う)
結局は作業になっているように思えるかもしれないが、大事なのは、複雑で長くて、もはや仕事化した最強魔法のテンプレを投げる必要がないということ。
ズレを一言で指摘して、互いの方向性を修正していくだけです。
これなら音楽性の不一致で解散してしまうロックバンドも減るだろう。
じゃあテンプレプロンプトの文化は不要なのか?
不要ではありません。むしろ、こんな場面ではテンプレプロンプトを活用すべきでしょう。
- 毎回ほぼ同じ作業(定型の要約、定型のメール、定型のレビューなど)
- チームで品質を揃えたい
- 自動化したい(社内手順・Bot・ワークフロー)
ただ、日常の雑多な相談まで最強プロンプトなんて使ってると作業感が割り増しするため、それこそ、「AI > 人間」という構図が出来上がりやすくなります。
だからこそ
テンプレは「必要な場面だけ」。
普段づかいは「短く投げて、答え合わせして、1行で間違いを指摘」。
まとめ:「プロンプトクソくらえ」とか言ってごめん
- AIと喧嘩が起きる原因はだいたい「答え合わせ不足」
- 最初から完璧を狙わず軽く投げる
- 回答は3点チェック(方向/濃さ/形)
- ズレたら短く軽く指摘
- 長文テンプレは「必要な場面だけ」で十分
ここ1、2年の間に急速に普及したAI。
今まさに、パソコンが普及したときに起こっていた「人間が機械に使われる」→「なんか難しいからもういいや」という事態が再燃しているように思えてならない。
「AIは使い方次第!」なんて無責任な解釈を投げっぱなしにしてはいけない、また受け手も投げられて困惑してる場合でもない。
「どう考えても簡単で、誰にでもできて、なのに精度の高い使い方」をみんなで模索することで「人間は新たなフェーズに入った」と言える真の成長だろうと思うし、そういう方向に世界が進むことを願うばかり。
参考
-
Kim et al., “Understanding Users’ Dissatisfaction with ChatGPT Responses: Types, Resolving Tactics, and the Effect of Knowledge Level” (arXiv:2311.07434v3)
https://arxiv.org/html/2311.07434v3 -
同論文 Table 2 / Table 4(不満カテゴリ比率と、対処行動の分布)
https://arxiv.org/html/2311.07434v3