CURRANTEというVS Code拡張を使い、仕様記述とテスト精緻化への人間介入がLLMコード生成の正確さと効率にどう効くかを測る登録報告です。
LLM のコード生成は、いまや開発現場のかなり手前まで入り込んでいます。自然言語で指示を出すと関数や補完候補が返ってきて、そのまま実装を進められる場面も増えました。しかし、その便利さの裏で、何をどこまで人間が明示すべきかは、まだかなり曖昧です。特に、要件を雑に伝えたときに起きる取り違えや、テストの弱さによって見逃されるバグは、単にモデルの能力不足だけでは片づけられません。
論文の提案は、新しいコード生成アルゴリズムではありません。提案の中心は、CURRANTE という VS Code 拡張を使って、仕様駆動・テスト駆動の LLM コード生成を観察可能な形にした実験設計です。利用者はまず問題仕様を構造化して入力し、その仕様から LLM が生成したテスト群を見て調整し、最後にそのテストを満たす関数を生成させます。つまり、「仕様 → テスト → 関数」という順序を GUI の中に固定し、その過程で何が起きたかを細かくログとして残せるようにしています。
続きはログイン/プランで閲覧できます。
続きを読む
無料プランで全文は月 2 本まで読めます。
Related