AI ぽい文章とは
LLM が書いた日本語には、観測すると共通の癖がある:
- 「ですが」 が多用される(接続として弱い)
- 「いかがでしょうか」 で締める
- 「まとめると」 を h2 に書く
- 「〜すると良いでしょう」 が結論として出てくる
- 「以下のように」 で文章の中身を予告する
これらは英語の Furthermore, In conclusion, Let's dive in に相当する LLM 特有の表現。Google 検索チームはこの種の表現を AI 生成シグナル として認識している可能性が高い。
後処理で削れる癖 5 種
機械的に削れるパターンが 5 つある:
| 削る対象 | 置換 |
|---|---|
| 「〜ですが、」 | 「〜だが、」or 削除して 2 文に分割 |
| 「〜していきます。」 | 「〜する。」 |
| 「いかがでしょうか。」 | 削除(最終段落で「〜と思う。」に置換) |
| 「以下のように〜」 | 削除(コードブロックや list は予告不要) |
| 「結論として」「まとめると」 | 削除(h2 タイトル「まとめ」だけ残す) |
後処理スクリプト
これは sed でも awk でも書ける。私は雑にこんな感じ:
# remove-llm-fingerprints.sh
sed -i '' \
-e 's/、いかがでしょうか。/。/g' \
-e 's/。いかがでしょうか/。/g' \
-e 's/、以下のように/、/g' \
-e 's/^結論として、//' \
-e 's/^まとめると、//' \
"$1"
引数に Markdown ファイルを渡すと、上記の表現を一括置換する。完璧ではないが、8 割の AI 臭は消える。
機械化できない癖
逆に 機械では削れない 癖もある:
- 文末が「〜と言えるでしょう」「〜なのです」のような定型口調
- 1 段落の文の数が常に 4-6 文(人間の段落はもっとばらつく)
- 接続詞(また / さらに / そして)が等間隔で出る
これらは 手で 30 分削る しかない。具体的には:
- 1 段落 = 5 文 を 2-3 文 + 6-8 文 にばらす
- 接続詞を 句読点だけ に置換する箇所を 3〜5 箇所作る
- 「〜と思う」「〜だと思っている」を 段落に 1 回だけ 入れる
これだけで「人間が書いた感」が出る。
一次情報を 1 段落入れる
AI の癖を消す上で、最も効くのは AI が絶対に書けない一次情報を 1 段落入れる こと。
例:
「2025 年 9 月に Rails 8 移行を実際に走らせた時、
load_defaultsだけで 12 個のテストが落ちた。落ちた原因は半分がunprocessable_entityの rename、残り半分がdefault_url_optionsの挙動変更だった。」
この種の 具体的な日付・数字・体験 は LLM の事前学習にない(あるいは検索で取れない)情報。1 段落入れるだけで「AI 単独の出力ではない」ことが文章に滲む。
Diff 確認
校正前後を diff で見ると、何文字削ったかが可視化される:
diff -u original.md edited.md | grep -c '^-'
私の場合、AI ドラフトから人間校正後への削除文字数は 平均 200〜300 字 / 1 記事。これくらい削ると AI 臭が抜ける。
まとめ
LLM の癖を消すには:
- 機械的に置換(5 パターンを sed で)
- 段落のリズムを崩す(5 文等速 → 2-3 文 + 6-8 文)
- 一次情報を 1 段落足す(日付・数字・体験)
30 分で済む。AI 単独で出した記事を「人間の文章」に直す手間としては安い。
AI ぽさを消すコツは、AI が書けない情報を足すこと。引くより足す。