OpenAIはGPT-3.5 Turboを開発者が利用できるようにし、特定のユースケースのパフォーマンスを向上させるためにモデルをカスタマイズできるようにした。OpenAIによると、GPT-3.5 Turboをファインチューニングすることで、特定のタスクではGPT-4ベースの性能を上回ることもあるという。
OpenAIはGPTのカスタマイズを提供し、多くのユースケースに対してモデルのパフォーマンスを向上させる。例えば、プロンプトに使用される言語と同じ言語を常に使用するなど、開発者の目的に沿ったより首尾一貫した方法でモデルを指示に従わせる、コード補完やAPI呼び出しの構成などのケースでより一貫性のある応答を提供する、モデルの出力トーンをより洗練させる(例えば、こちらの望む方向性の文体により適合させる)などである。
OpenAIは、GPT-3.5 Turboをファインチューニングするもうひとつの利点は、プロンプトのサイズを縮小しつつ、パフォーマンスを妨げないことであると述べている。
初期のテスターは、モデルへの命令をファインチューニングすることで、プロンプトのサイズを最大90%削減し、各APIコールを高速化し、コストを削減した。
ファインチューニングは、より良い結果をもたらし、トークンを節約するだけでなく、プロンプトに収まるより多くの例で学習し、リクエストの待ち時間を減らす汎用的なテクニックである。例えば、モデルをファインチューニングすれば、同じレベルのパフォーマンスを得るために、プロンプトにそれほど多くの例を提供する必要がなくなる。
モデルのファインチューニングには、モデルをトレーニングするためのデータセットの準備、ファインチューニングされたモデルの作成、推論への使用など、いくつかのステップがある。データセットの準備は、このプロセスの重要なステップであり、その中にはプロンプトの作成、モデルが改善の兆しを見せるか確認するための、よく練られた十分数のデモンストレーション提供、新しいデモンストレーションに基づくモデルのトレーニング、そして最終的なテストといった、多くのサブステップが含まれる。
OpenAIが説明するように、ファインチューニングは、時間と労力を慎重に投資する必要があるため、モデルのパフォーマンスを向上させる試みの最初のステップであってはならない。その代わりに、プロンプト・エンジニアリング、プロンプト・チェイニング、そして関数呼び出しが、他のベストプラクティスと合わせて、モデルのファインチューニングを検討する前にまず調査すべき、良いテクニック集となる。
これに関連して、OpenAIはGPT-4のファインチューニングを今年後半にサポートするとも発表した。