ChatGPT Images 2.0、ついに「文字が破綻しない」画像生成AIへ。日本語メニューも実用レベル

NEW TOOL

これまで画像生成AIの「あるある」と言えば、メニューに「enchuita」「churiros」「burrto」「margartas」といった存在しない料理名が並んでしまう、あの独特な文字崩れだった。OpenAIが4月21日にリリースしたChatGPT Images 2.0は、その時代を正式に終わらせにきた。

何が変わったのか

最大の進化はテキスト描画の精度だ。TechCrunchがメキシコ料理店のメニューを生成させたところ、「そのまま店舗で使える」レベルの仕上がりだったと報じている。2年前のDALL-E 3と比較すれば、その差は一目瞭然だ。

技術的な背景としては、従来の画像生成AIはノイズから画像を再構築する拡散モデル(diffusion model)が主流で、画像全体のピクセルパターンを学習する構造上、文字のような「画像全体の中で占める面積が小さい要素」が苦手だった。Images 2.0がどの方式を採用しているかOpenAIは明言を避けたが、LLMのように次のピクセルを予測する自己回帰モデル(autoregressive model)への移行が推測されている。

非ラテン文字にも対応、日本語表示が実用水準に

SYNCONの読者にとって重要なのは、OpenAIが公式に「日本語・韓国語・ヒンディー語・ベンガル語など非ラテン文字の描画が強化された」と発表している点だ。これまで日本語のロゴや看板、資料を画像生成で作ろうとすると、意味不明な文字列が出力されるのが当たり前だった。その制約が外れる意味は大きい。

「思考機能」搭載で複雑な構図もこなす

Images 2.0にはthinking capabilities(思考機能)が搭載された。具体的には以下の3点。

  • Web検索を行って最新情報を反映
  • 1つのプロンプトから複数の画像を生成
  • 自己チェック機能で出力を検証

これにより、サイズ違いのマーケティング素材一式や、複数コマの漫画までワンプロンプトで生成できるようになった。解像度は最大2K対応。複雑な指示ほど生成時間は伸びるが、多コマ漫画でも数分で仕上がるという。

利用条件と知識のカットオフ

火曜日から全ChatGPTユーザーおよびCodexユーザーが利用可能で、有料プランではより高度な出力が選べる。API版「gpt-image-2」も提供開始、料金は品質と解像度に応じた従量課金となる。

ただし1点注意。モデルの知識カットオフは2025年12月。直近のニュースや人物を扱う画像生成では精度が落ちる可能性がある。

SYNCONの視点:販促・資料制作の「外注コスト」の前提が変わる

文字崩れが起きない画像生成AIの登場は、単なるツールの進化ではない。デザイン外注や社内制作にかけていたコスト構造そのものが見直しの対象になるというシグナルだ。プレゼン資料のアイコン、社内チラシ、SNS用バナー、試作段階の広告クリエイティブ——これまで「デザイナーに依頼するか、自前でPowerPoint加工するか」の二択だった領域が、「まずImages 2.0で叩き台を作る」という選択肢に置き換わる。

特に日本語テキスト描画の強化は、国内ビジネスでの実用性を一段引き上げる。経営会議で使う資料、営業ツール、採用パンフの初稿——ここまで来れば、試してみない理由はない。

出典TechCrunch / OpenAI公式発表

SYNCON FREE DIAGNOSIS

あなたの業務に最適なAIツール、
まだ見つかっていませんか?

8つの質問に答えるだけ。約2分で完了。
SYNCON編集部が、あなた専用のAI活用プランをお届けします。

無料AI活用診断を受ける →

コメント

タイトルとURLをコピーしました