【AI Engineering Summit 2025 参加レポ】AI活用現場の実践知から次の一歩が見えてきた!

2026年2月26日掲載

キービジュアル

こんにちは!AIテクノロジー本部の髙橋知里です。

現在、新米データサイエンティストとして働いています。

PoCチームに配属されてから半年ほどが経ちましたが、現場経験はまだ浅く、「AIを自分たちの業務にどう活かしていくのか」という実践的な感覚を、十分につかみきれていない自分がいました。
チーム連携のあり方や、既存のデータ・ナレッジをどのように活用していくべきか——血の通った現場の知見を得たい、そんな思いを抱いていました。

そんな中で出会ったのが、「AI Engineering Summit 2025」です。
さまざまな企業が現場でAIをどのように活用しているのか、リアルな事例やノウハウに触れられる絶好の機会だと感じ、参加を決めました。
特に、日々の業務と関わりの深いデータ分析領域や、AIエージェントの連携技術の実務活用に強い関心があり、それらの具体的な事例を直接聞けることに大きな期待を寄せていました。

この記事では、AI Engineering Summit 2025に現地参加し、各社の「現場で使えるAI活用」で学んだ実践知をレポートします。MCPやLangGraphを用いたAIエージェント開発、PoCでの“やらないこと”の決め方、データ品質をTierで管理してチームで育てる文化づくり、ワークフロー自動改善の落とし穴と対策まで、次の一歩につながる気づきをまとめます。

目次

会場の雰囲気と印象:現場の熱が伝わるリアルな空気感

AI Engineering Summit 2025には、一部会場限定のセッションがあったこともあり、現地で参加しました。

会場には4つのセッションルームが設けられ、その中央には各社の企業ブースが立ち並ぶエリアが広がっていました。

このサミットは話題のAI開発環境「Cursor」や「Cline」の関係者がキーノートスピーカーとして登壇するなど、世界的に注目されるプレイヤーの話を間近で聞ける貴重な機会でもありました。
人気セッションは事前予約の段階で満席となり、当日はキャンセル待ちの列ができるほどの盛況ぶりでした。
特に、AIエージェントを実際の現場で活用した事例や、導入時の試行錯誤を紹介するセッションには多くの人が集まっており、「理論」ではなく「現場のリアル」を求めて参加している方が多いのだと実感しました。

Andrei Eternal, Director of Engineering at Cline

図1:Cline社 Director of Engineering、Andrei Eternal氏によるキーノートスピーチの様子

印象に残ったセッション紹介 

ここでは、特に印象に残った3つのセッションについてご紹介します。
いずれも多くの学びや気づきがあり、実務への応用を考えるうえで大きなヒントとなる内容でした。

なお、各セッションの資料はイベントサイトで公開されています。
もし気になるテーマがあれば、ぜひ合わせて参照してください。

以下では、私が特に面白いと感じたポイントにフォーカスしてまとめていきます。

■ Findy AI+の開発、運用におけるMCP活用事例・LangChain/LangGraphを活用したAIプロダクト開発の実践

image

⚫︎セッションの要点

このセッションでは、Findyのエンジニア2名が登壇し、AIエージェントを活用したプロダクト開発と運用のリアルな事例が共有されました。

前半では、「Findy AI+」の開発においてMCP(Model Context Protocol)やLangGraphをどのように活用したかが紹介されました。
特に印象的だったのは、次の言葉です。

「MCPは変わらないんですよ。なぜならプロトコルだからです。なので、長く使える知識と技術だなと思ってます。」

後半では、「Findy Insights」をわずか3か月で立ち上げた開発プロセスが紹介されました。

PoC段階ではエラーハンドリングや複雑なUI・インフラ構築はあえて後回しにし、価値検証に必要な最小限のプロトタイプ開発に集中していたとのことです。
また、当初はLangChainで開発を開始したものの、プロジェクトの進行に伴いより複雑な制御が求められるようになり、最終的にLangGraphへ移行したというエピソードも語られました。

⚫︎感想・学び

技術の流行り廃りが激しい時代だからこそ、変わらない本質を見極める視点が重要であることを強く実感しました。

近年では、タスクの進め方(判断・手順・ベストプラクティス)を再利用可能な形でまとめるSkillsへの注目も高まっています。一方でMCPは、外部ツールの実行やデータ/文脈へのアクセスといった外部連携を、共通のプロトコルとして提供する枠組みであり、エージェント活用の土台として今後も重要だと感じています。
新しい技術に目を向けることは大切ですが、その技術がどのレイヤーを担うのか、将来的な見通しはあるのかという点まで踏まえたうえで、ツール選定を行う姿勢を意識していきたいです。

後半パートからは、PoCを進めるうえでは「やること」だけでなく「やらないこと」を明確にする姿勢が重要だと学びました。
特に近年はスピード感をもって実行することが求められるため、最初に範囲を切って進めることが成果につながりやすいと感じます。私はつい自分のリソースを考慮せずに抱え込みがちなので意識していきたいです。

また、LangChainからLangGraphへの移行という実体験の共有からは、初期選定の段階で将来的な複雑性まで見通す難しさを考えさせられました。
初期のLangGraphは破壊的変更が入る可能性もあり、導入判断が難しかっただろうと思います。だからこそ、最初から「将来的に移行する可能性」を織り込んだ設計や検証の進め方を、早い段階から考えておく必要がありそうです。

■ クラシルで実践しているフルサイクルとデータ分析でのAI活用事例

image

⚫︎セッションの要点

このセッションでは、クラシルにおけるAI活用の実践と、それを支える組織的な取り組みが紹介されました。セッションは前後半に分かれており、前半は「運用保守領域」、後半は「データ分析領域」でのAI活用がテーマでした。

後半では、データライフサイクルをビジネスサイドも含めた関係者全員で回すことの重要性が強調されていました。
その具体策の一つとして、データの品質レベルを「Tier」として定義するアプローチが紹介されました。たとえば、AIモデルの学習には高品質なTierのデータのみを使用する運用にすることで、アドホックに作成されたデータの存在を許容しつつ、分析精度の向上につなげているとのことでした。
加えて、こうした仕組みを土台に、エンジニアに限らず非エンジニアも含めたチーム全体でデータを育てていく文化を醸成している点も紹介されました。

⚫︎感想・学び

後半の「データ分析領域」は自身の業務とも関係が深く、特に注目して聴講しました。

データ品質をTierで定義し、用途に応じて利用データを選別することで、柔軟性(アドホックなデータ作成を許容する)と品質(AIモデル学習は高品質データに限定する)を両立している点は、実践的な工夫だと感じました。

さらに印象に残ったのは、仕組みの整備にとどまらず、非エンジニアも含めたチーム全体でデータを育てていく文化まで一体で設計していた点です。これにより、組織全体のデータ理解が深まり、AI活用のスピードと質の両面が高まるという説明にも納得しました。

「信頼できる共通のデータ(SSoT)をみんなで使う」という考え方自体は以前からありますが、「そのデータをどう管理し、誰が育てていくのか」は多くの現場で試行錯誤が続いていると感じます。
今回語られていた「データそのものをチームで育てる」という発想は、AIの実務活用が進んでデータ活用の参加ハードルが下がり、非エンジニアも巻き込んだ運用が現実的になった今だからこそ、こうした問いへの有効な一つの答えになり得ると思いました。

■ 現場で生まれるリアルなAI活用の実践知

image

⚫︎セッションの要点

このセッションでは、公募LT(ライトニングトーク)枠から選ばれた3名による発表が行われました。テーマは「現場で生まれるリアルなAI活用の実践知」です。その中でも特に印象に残ったのが、LayerXの方によるLTです。

発表では、見積書の情報抽出・分類タスクを対象に、プロンプトやAIワークフローの自動生成・改善に関する検証と、そこから得られた知見が共有されました。ワークフローの作成には、先行研究であるAFlow(Automating Agentic Workflow Generation)の枠組みが活用されていました。

特に、自動生成・改善の過程で直面する課題と対策がセットで整理されていた点が実務的でした。紹介されていた主な論点は以下の3点です

表1:自動生成・改善の過程で直面する課題と対策

 課題対策
1評価フィードバックが蓄積し、LLMのコンテキスト上限を超えてしまう

失敗事例の「核」だけを残すコンテキストリダクション

2悪いサンプルを改善すると、逆に良いサンプルが劣化してしまう前回と今回の結果の差分をフィードバックに含める
3最適化が不安定で、高精度な出力が10回に1回程度しか得られない

Repeated Samplingを活用し、成功率をを3回に1回まで改善

 

⚫︎セッションの要点

AIエージェントのワークフロー作成は、現時点ではまだ多くの部分で人手に頼っているのが実情だと感じています。だからこそ、こうした自動生成の取り組みを地道に検証し、改善を積み重ねていくことが、再利用性の高い仕組みづくりにつながるのだと思いました。

今回のLTは、実運用で起こりがちな落とし穴と、その対策が具体的に語られていた点が特に参考になりました。中でも、増え続けるフィードバックに対してコンテキストリダクションで対処する――つまり「何を残し、何を捨てるか」を仕組みとして設計する工夫が印象に残っています。

このような不要情報の淘汰方法は、ナレッジデータの運用やマルチエージェントの制御においても重要な論点だと感じます。限られたリソースの中で、どこに計算資源やコンテキストを割くかを判断し続けることは、今後ますますポイントになりそうです。

今後、自分たちが同様の仕組みに取り組む際にも、検証設計や改善ループを回すうえでのヒントとして活かしていきたいです。

まとめ:悩みは共通。乗り越え方には学びが詰まっていた

今回のAI Engineering Summit 2025を通じて感じたのは、どの企業もAI活用において似たような課題や壁に直面しているということでした。
そして、それらを華やかな成功事例だけでなく、泥臭く試行錯誤を重ねながら乗り越えている姿が、多くのセッションでリアルに語られていたのが印象的でした。

こうした現場の実践知に触れることで、「自分が現場で踏み出せる一歩」が、少しずつ具体的に見えてきたように思います。

今後は、AIとの向き合い方や組織としての取り組み方について、今回得た学びを日々の実務に落とし込み、着実に活かしていきたいです。

 

おすすめの記事

条件に該当するページがございません