グラフィカルアブストラクトの疑問③|山梨大学研究推進・社会連携機構

グラフィカルアブストラクトの疑問③

  「行動規範」「コンテンツポリシー」とはなにか?

画像生成AIは、入力したプロンプトをもとに画像を生成してくれるとても便利なツールです。しかし、どんな内容でも思い通りに生成できるわけではありません。
CopilotやChatGPTを使っていると「この内容は行動規範に違反するため生成できません」あるいは「コンテンツポリシーによりブロックされました」といった表示に出会ったことがある方も多いのではないでしょうか?

ここでいう「行動規範」や「コンテンツポリシー」とは一体何を指しているのでしょうか?
画像にするには問題があると、判断された言葉とは?
AIはどのような基準で「描いてよい/悪い」を判断しているのでしょうか?

ここでは実際に画像生成を試みたプロンプトの例と生成結果をもとに、AIにおける行動規範がどのように働き、画像生成にどんな影響を与えているのか見ていきましょう。

「行動規範」「コンテンツポリシー」

これは、実際にCopilotとChatGPTで表示される「画像が生成できない場合」の結果です。
CopilotやChatGPTのような画像生成AIには、それぞれ「行動規範」や「コンテンツポリシー」といったガイドラインが設けられています。

行動規範はユーザー側のサービス利用時に関する倫理的ルール(例:不正使用の禁止)であり、
コンテンツポリシーはAIが生成する出力(画像や文章)の内容に関する制限を定めたものです。

これらは、社会的に不適切な内容や誤解を招く画像、暴力、差別、性的表現などを避けるための基準であり、倫理的な利用を促すことを目的としています。
プロンプトがこれらのガイドラインに抵触すると、AIはその内容をブロックし、画像生成を停止します。
一見問題がなさそうな言葉でも、抽象的な表現や文脈によっては、生成不可と判断されることがあります。

 AIが描けない理由

T. Toya, et al., “Methods for improving word intelligibility of bone-conducted speech by using bone-conduction headphones,” Applied Acoustics 207, 109337 (2023).

この画像は、
「次の記述の主なポイントを視覚的に表現した画像を生成して下さい + 論文のAbstract」

というプロンプトを与えて生成されたグラフィカルアブストラクトです。
この時使用した論文のAbstractの内容は「骨伝導音声の明瞭度向上手法」について述べたものです。しかし、生成された画像を見てみると、この研究の内容が明確に視覚化されているとは言い難く、どこか抽象的で曖昧な印象を受けます。
これは、プロンプトの内容自体が「行動規範」や「コンテンツポリシー」に直接違反していない場合でも、AIが配慮的に解釈し、抽象的・無難な表現に寄せることがあることを示していると考えられます。
特に今回のように「bone」「skull」「impranted」といった語句が、医学的効果や人体への影響を示唆する内容としてAIに誤認されると、安全フィルターが自動的に作動し、生成内容が抑制される可能性があります。
また、「次の記述の主なポイントを視覚的に表現した画像を生成して下さい + 論文のAbstract」という形式は生成指令と内容(abstract)が混在しているため、AI側での解釈に混乱が生じやすくなっていることも一因と考えられます。

 

一方で、プロンプトの書き方を工夫することで、AIによる誤認識を回避し、生成エラーを防ぐことも可能です。
たとえば、Markdown方式のように「Task」「Requirement」「Abstract」などのラベルを使って構造を明示すると、「これは生成に必要な情報だ」とAIが判断しやすくなり、意図しないエラーを避ける効果があります。

ちなみに、冒頭で紹介した画像は2025年2月に生成したものですが、2025年7月現在では、同じプロンプト【次の記述の主なポイントを視覚的に表現した画像を生成して下さい + 論文のAbstract】を与えると問題なく、画像が生成されるようになっています。
これはおそらく、安全ポリシーやフィルターの仕様が見直され、コンテンツの解釈がより柔軟になったためだと考えられます。
このように生成AIは日々進化を続けており、かつては制限されていた表現も、現在では扱えるようになってきています。
ルールの変化や技術の改善に合わせて活用方法を見直していくことで、より目的に合った画像生成が可能になるでしょう。

Markdown方式(2025.02実施) 生成命令+Abstract(2025.07実施)

(なお、これらのガイドラインはAIモデルの設計者によって定義されており、サービスごとに基準や運用方針が異なる場合があります。)