はじめに 下記の記事では、Gemini API の Function Calling を利用して、外部ツールと連携した LLM Agent を実装する方法を解説しました。 Gemini API の Function Calling 機能で LLM Agent を実装する そこでは、下図のループを Python の while ループで愚直に実装しました。 Function Calling を使用した Agent の動作 最近は、このような LLM Agent のループ処理を実装する際に、オープンソースのフレームワークである LangGraph を使用する方が増えているようです。また、2025年3月4日に GA になった Vetex AI Agent Engine を使用すると、LangGraph で作成した Agent を Google Cloud にデプロイして簡単に API サービス化