LLMの出力をJSONやXMLのような構造化出力をする需要が高まっています。LLMが単体のチャットボットとして利用される時代から、複数のモジュールが連携して動作する複雑なシステムの中核を担う時代へと移行する中で、構造化されたデータ形式は、後続のプログラムがLLMの出力を確実に解釈し、処理を自動化する上で不可欠な要素となっているからです。
一方で、LLMに構造化出力を指示した場合に、出力の質にどう影響するかは、両論あり、今まではっきりしていなかったところがあります。
そんな疑問に対して、検討をした論文があったのでピックアップです。
Han Yuan et. al., Navigating the Impact of Structured Output Format on Large Language Models through the Compass of Causal Inference, arXiv:2509.21791v1 [cs.CL] 26 Sep 2025
おおよその結論としてはGPT-4oでは構造化出力を指示した場合の影響は大きくなく、一方で小規模言語モデルでは感度に影響が出やすいということでした。
また、コンテクストの説明や問題の言い回しを変えると、出力に変化が出る場合があるとのこで、コンテクストエンジニアリングが重要なのかもしれません。
通常のLLMを使っている場合は構造化出力に対しては影響が少なく、一方でコンテクストエンジニアリングは重要ということがいえそうですね。

