Vol.042026年5月9日
AI

AI 生成テキストの「指紋」を削る編集

— の多用 / 「結論として」 / 「〜と言えるでしょう」 / 過剰な箇条書き。LLM 出力に残る指紋を見つけて削るチェックリスト。

SoSoraEndo2026年5月9日2 min904

AI ぽい文章とは

LLM が書いた日本語には、観測すると共通の癖がある:

  • 「ですが」 が多用される(接続として弱い)
  • 「いかがでしょうか」 で締める
  • 「まとめると」 を h2 に書く
  • 「〜すると良いでしょう」 が結論として出てくる
  • 「以下のように」 で文章の中身を予告する

これらは英語の Furthermore, In conclusion, Let's dive in に相当する LLM 特有の表現。Google 検索チームはこの種の表現を AI 生成シグナル として認識している可能性が高い。

後処理で削れる癖 5 種

機械的に削れるパターンが 5 つある:

削る対象置換
「〜ですが、」「〜だが、」or 削除して 2 文に分割
「〜していきます。」「〜する。」
「いかがでしょうか。」削除(最終段落で「〜と思う。」に置換)
「以下のように〜」削除(コードブロックや list は予告不要)
「結論として」「まとめると」削除(h2 タイトル「まとめ」だけ残す)

後処理スクリプト

これは sed でも awk でも書ける。私は雑にこんな感じ:

# remove-llm-fingerprints.sh
sed -i '' \
  -e 's/、いかがでしょうか。/。/g' \
  -e 's/。いかがでしょうか/。/g' \
  -e 's/、以下のように/、/g' \
  -e 's/^結論として、//' \
  -e 's/^まとめると、//' \
  "$1"

引数に Markdown ファイルを渡すと、上記の表現を一括置換する。完璧ではないが、8 割の AI 臭は消える

機械化できない癖

逆に 機械では削れない 癖もある:

  • 文末が「〜と言えるでしょう」「〜なのです」のような定型口調
  • 1 段落の文の数が常に 4-6 文(人間の段落はもっとばらつく)
  • 接続詞(また / さらに / そして)が等間隔で出る

これらは 手で 30 分削る しかない。具体的には:

  1. 1 段落 = 5 文 を 2-3 文 + 6-8 文 にばらす
  2. 接続詞を 句読点だけ に置換する箇所を 3〜5 箇所作る
  3. 「〜と思う」「〜だと思っている」を 段落に 1 回だけ 入れる

これだけで「人間が書いた感」が出る。

一次情報を 1 段落入れる

AI の癖を消す上で、最も効くのは AI が絶対に書けない一次情報を 1 段落入れる こと。

例:

「2025 年 9 月に Rails 8 移行を実際に走らせた時、load_defaults だけで 12 個のテストが落ちた。落ちた原因は半分が unprocessable_entity の rename、残り半分が default_url_options の挙動変更だった。」

この種の 具体的な日付・数字・体験 は LLM の事前学習にない(あるいは検索で取れない)情報。1 段落入れるだけで「AI 単独の出力ではない」ことが文章に滲む。

Diff 確認

校正前後を diff で見ると、何文字削ったかが可視化される:

diff -u original.md edited.md | grep -c '^-' 

私の場合、AI ドラフトから人間校正後への削除文字数は 平均 200〜300 字 / 1 記事。これくらい削ると AI 臭が抜ける。

まとめ

LLM の癖を消すには:

  1. 機械的に置換(5 パターンを sed で)
  2. 段落のリズムを崩す(5 文等速 → 2-3 文 + 6-8 文)
  3. 一次情報を 1 段落足す(日付・数字・体験)

30 分で済む。AI 単独で出した記事を「人間の文章」に直す手間としては安い。

AI ぽさを消すコツは、AI が書けない情報を足すこと。引くより足す。

Tags

Reaction

Share

X (Twitter)