Weekly AWS アップデート情報 - 2025/12/8~Amazon Nova 2 Omni を発表(プレビュー)~

2025年12月8日掲載

キービジュアル

皆さま、こんにちは。

Weekly AWSでは、毎週 AWSプロダクトのアップデート情報をお届けしています。

それでは、先週 (12/1~7) の主な AWS アップデート情報をお送りします。

目次

今週の注目アップデート

Amazon Nova 2 Omni を発表(プレビュー)
Amazon Nova 2 Omni は、マルチモーダル推論とイメージ生成のためのオールインワンモデルです。テキスト、イメージ、ビデオ、音声の入力をサポートし、テキストとイメージの両方を出力する、業界初の推論モデルです。
マルチモーダル理解、自然言語によるイメージの生成と編集、音声の文字起こしが可能です。従来の、さまざまな専門モデルを組み合わせるアプローチとは異なり、Nova 2 Omni は複数のAIモデルを管理する複雑さを排除します。これにより、アプリケーション開発を加速させながら複雑さとコストを削減し、開発者はマーケティングコンテンツの作成やカスタマーサポートの通話の文字起こしから、ビデオ分析や視覚資料付きのドキュメント作成まで、多様なタスクに取り組むことができます。
このモデルは、100万トークンのコンテキストウインドー、テキスト処理のための200以上の言語、音声入力のための10言語をサポートしています。自然言語を使用して高品質なイメージを生成・編集でき、キャラクターの一貫性、イメージ内のテキストレンダリング、オブジェクトや背景の変更が可能です。Nova 2 Omni は、ネーティブな推論機能による優れた音声理解を提供し、複数話者の会話の文字起こし、翻訳、要約を行います。また、深さと予算を柔軟に制御できる推論コントロールにより、開発者はさまざまなユースケースで最適なパフォーマンス、精度、コスト管理を確保できます。
Nova 2 Omni はプレビュー版であり、全ての Nova Forge のお客さまが早期アクセスを利用できます。

分析

Amazon OpenSearch Service が自動セマンティックエンリッチメントをサポート
Amazon OpenSearch Service のマネージドクラスターで、自動セマンティックエンリッチメントが利用可能になりました。これは、今年初めに OpenSearch Serverless 向けにリリースされた機能と同様のものです。この機能により、最小限の設定でセマンティック検索を利用できます。
従来の字句検索では完全一致する語句しか検索できず、関連性の高いコンテンツを見逃しがちでした。自動セマンティックエンリッチメントは文脈と意味を理解するため、より関連性の高い結果を提供します。例えば、「環境に優しい交通手段」と検索すると、これらの語句が直接含まれていなくても、「電気自動車」や「公共交通機関」といった関連情報が検索結果に表示されます。
この新機能は全てのセマンティック処理を自動的に行うため、機械学習モデルを管理する必要がありません。英語のみのバリアントと、アラビア語、フランス語、ヒンディー語、日本語、韓国語など15言語に対応する多言語バリアントをサポートしています。料金はデータ取り込み時の実使用量に基づいており、OpenSearch Compute Unit (OCU) - Semantic Search として請求されます。
この機能は、OpenSearch バージョン 2.19 以降を実行する Amazon OpenSearch Service ドメインで利用できます。現在、この機能は US East (N. Virginia)、US East (Ohio)、US West (Oregon)、アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、ヨーロッパ (フランクフルト)、ヨーロッパ (アイルランド)、ヨーロッパ (ストックホルム) の各 AWS リージョンで、非 VPC ドメインをサポートしています。

Amazon OpenSearch Service が GPU で高速化され自動最適化されたベクトルインデックスを追加
Amazon OpenSearch Service で GPU アクセラレーションを利用して、10億規模のベクトルデータベースを1時間以内に構築し、検索品質、速度、コストの最適なトレードオフのためにベクトルインデックスを自動最適化できるようになりました。従来、大規模なベクトルインデックスの構築には数日かかり、その最適化には専門家による数週間の手動チューニングが必要でした。時間、コスト、労力がイノベーションの速度を低下させ、お客さまはコストとパフォーマンスの最適化を断念していました。
今回のアップデートにより、サーバーレスの自動最適化ジョブを実行して、最適化の推奨事項を生成できます。検索レイテンシーとリコールの要件を指定するだけで、これらのジョブがインデックス設定 (k-NN アルゴリズム、量子化、エンジン設定) を自動的に評価します。その後、ベクトル GPU アクセラレーションを使用して、4分の1のインデックス作成コストで、最適化されたインデックスを最大10倍高速に構築できます。サーバーレス GPU はドメインまたはコレクションを動的にアクティブ化して高速化するため、速度向上の恩恵を受けた場合にのみ課金されます。これらは全て、GPU インスタンスを管理することなく行われます。
これらの機能は、セマンティック検索、レコメンデーションエンジン、エージェントシステムなどの AI アプリケーションをより効率的にスケーリングするのに役立ちます。大規模で最適化されたベクトルデータベースを構築する時間を簡素化および短縮することで、チームはより迅速にイノベーションを起こせるようになります。
ベクトル GPU アクセラレーションは、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (シドニー)、欧州 (アイルランド)、アジアパシフィック (東京) リージョンで、ベクトルコレクションと OpenSearch 3.1 以降のドメインで利用できます。ベクトル自動最適化は、米国東部 (オハイオ)、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、欧州 (フランクフルト)、欧州 (アイルランド) リージョンで、ベクトルコレクションと OpenSearch 2.17 以降のドメインで利用できます。

Amazon EMR が Apache Spark upgrade agent を発表
AWS は、Amazon EMR on EC2 および EMR Serverless の Apache Spark バージョンアップグレードを高速化する新機能、Apache Spark upgrade agent を発表しました。このエージェントは、自動化されたコード分析と変換により、通常数カ月かかる複雑なアップグレードプロセスを数週間のプロジェクトに短縮します。
組織は Spark のアップグレード中に、API の変更分析、競合の解決、アプリケーションの検証に多大なエンジニアリングリソースを費やしています。このエージェントは、エンジニアが自然言語でアップグレード要件を表現できる会話型インターフェースを導入しつつ、コードの変更に対する完全な制御は維持できるという特長があります。
Apache Spark upgrade agent は、PySpark および Scala アプリケーション全体の API の変更と動作の変更を自動的に特定します。エンジニアは、MCP (Model Context Protocol) との互換性により、SageMaker Unified Studio、Kiro CLI、または任意の IDE から直接アップグレードを開始できます。アップグレードプロセス中、エージェントは既存のコードを分析して具体的な変更を提案し、エンジニアは実装前にレビューして承認できます。また、エージェントはデータ品質検証を通じて機能的な正しさを検証します。
現在、このエージェントは Spark 2.4 から 3.5 へのアップグレードをサポートしており、アップグレードプロセス全体を通じてデータ処理の精度を維持します。Apache Spark upgrade agent は、SageMaker Unified Studio が利用可能な全ての AWS リージョンで利用できます。

Amazon EMR Serverless が Apache Spark ワークロードのローカルストレージプロビジョニングを不要に
Amazon EMR Serverless は、Apache Spark ワークロード向けのサーバーレスストレージを提供開始しました。これにより、ローカルストレージのプロビジョニングが不要になり、データ処理コストを最大20%削減し、ディスク容量の制約によるジョブの失敗を防ぎます。
アプリケーションごとにローカルディスクの種類とサイズを設定する必要はなくなります。EMR Serverless は、シャッフルなどの中間データ操作をローカルストレージ料金なしで自動的に処理します。お客さまは、ジョブが消費するコンピューティングリソースとメモリリソースに対してのみ料金を支払います。
EMR Serverless は、中間データ操作をフルマネージドで自動スケーリングするサーバーレスストレージにオフロードします。このストレージは、ジョブレベルの分離で転送中および保存中のデータを暗号化します。サーバーレスストレージはストレージとコンピューティングを分離するため、Spark は一時データを保持するためにワーカーをアクティブにしておくのではなく、アイドル状態になるとすぐにワーカーを解放できます。これにより、ディスク容量不足によるジョブの失敗がなくなり、アイドル状態のワーカー料金を回避することでコストが削減されます。
この特長は、数百万のお客さまのインタラクションを処理するレコメンデーションエンジンのように、動的リソース割り当てを使用するジョブで特に価値があります。これらのジョブでは、初期段階で大規模なデータセットを高い並列性で処理し、データが集約されるにつれて処理が絞り込まれます。
この機能は、EMR リリース 7.12 以降で利用可能です。

ビジネスアプリケーション

Amazon Connect のエージェントワークスペースがカスタムビジュアルテーマをサポート
Amazon Connect で、エージェントワークスペースの外観をカスタマイズできるようになりました。ロゴ、フォント、ライトモードとダークモードのカラーパレットを含むカスタムテーマを適用することで、エージェントワークスペースを会社や事業部門のブランドアイデンティティーに合わせることができます。
コンタクトセンターのエージェントは、優れたカスタマーエクスペリエンスを提供するために必要な全ての顧客情報、アプリケーション、ステップバイステップのガイダンスを提供する Amazon Connect のエージェントワークスペースで毎日何時間も過ごします。今回のアップデートにより、組織は Amazon Connect のデフォルトテーマを独自のブランド体験に変更でき、エージェントにとってより身近で直感的な体験を創出できます。エージェントワークスペースには新しいヘッダーバーも追加され、エージェントはライトモードとダークモードの好みなどの設定に簡単にアクセスできるため、エージェントの満足度と効率の向上に貢献します。
Amazon Connect のエージェントワークスペースは、米国東部 (バージニア北部)、米国西部 (オレゴン)、アフリカ (ケープタウン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン)、AWS GovCloud (米国西部) の各 AWS リージョンで利用できます。

Amazon Connect が複数のナレッジベースをサポートし、Amazon BedrockのKnowledge Bases と統合
Amazon Connect で、独自の Amazon Bedrock Knowledge Bases を利用できるようになり、AI エージェントごとに複数のナレッジベースをサポートすることで、ナレッジコンテンツの整理とアクセスがより柔軟になります。
今回のアップデートにより、既存の Bedrock Knowledge Bases を、追加の設定やデータ複製なしで、わずか数クリックで Amazon Connect の AI エージェントに直接接続できます。これにより、Adobe Experience Manager、Confluence、SharePoint、OneDrive などの Amazon Bedrock Knowledge Base コネクターや、現在お使いのデータソースを活用でき、既存のコンテンツリポジトリを柔軟に利用できます。
AI エージェントごとに複数のナレッジベースがサポートされたことで、AI エージェントが複数のソースに並行してクエリを実行し、より包括的な応答を生成するように設定できます。例えば、金融サービス会社は、コンプライアンス文書、製品情報、社内ポリシー用に別々のナレッジベースを簡単に接続でき、AI エージェントがお客さまとのやりとりの中で、関連する全てのコンテンツにわたる完全なガイダンスを提供できるようになります。
この機能は、Amazon Connect の AI エージェントと Amazon Bedrock Knowledge Bases が提供されている全ての AWS リージョンで利用できます。

Amazon Connect がフローを使用して、関連するコンタクトをケースに簡単にリンク可能に
Amazon Connect では、フローを使用して、Eメールの返信、通話の転送、永続的なチャット、キューに入れられたコールバックなどの関連するコンタクトを既存のケースに簡単にリンクできるようになりました。これにより、カスタムロジックや手動でのリンク付けが不要になり、エージェントは完全なカスタマージャーニーを把握して問題をより迅速に解決できます。
Amazon Connect Cases は、米国東部 (バージニア北部)、米国西部 (オレゴン)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、アフリカ (ケープタウン) の AWS リージョンで利用可能です。

Amazon Connect がパフォーマンス評価に対するきめ細やかなアクセスコントロールを提供
Amazon Connect で、特定のパフォーマンス評価フォームへのアクセスを制限できるようになり、評価フォームのテンプレートや完了した評価への不正なアクセスを防止できます。企業は、マネージャーに対し、担当の事業部門や職務に関連する評価フォームテンプレートのみを変更または使用するアクセス権を付与できます。これによりセキュリティが向上し、マネージャーは評価実施時に適切なフォームを選択しやすくなります。加えて、マネージャーとエージェントの両方に対し、特定の完了済み評価の閲覧を制限することも可能です。例えば、まだ最終決定されていないフォームテンプレートで作成されたテスト評価を、エージェントが閲覧できないように制限できます。この機能は、Amazon Connect が提供されている全てのリージョンで利用可能です。

Amazon Connect がネーティブのテストおよびシミュレーション機能を提供開始
Amazon Connect で、コンタクトセンター体験のテストとシミュレーションが数クリックで可能になり、ワークフロー、セルフサービスの音声対話、およびその結果を簡単に検証できるようになりました。
各テストでは、発信者の電話番号やお客さまプロファイル、通話理由(「注文状況を確認したい」など)、期待される応答(「リクエストは処理されました」など)、営業時間外のシナリオや通話キューが満杯の場合などのビジネス条件を含むテストパラメーターを設定できます。テスト実行後、定義した基準に基づいた成功または失敗の結果が、シミュレートされたインタラクションがたどったパスや詳細なログとともに表示され、潜在的な問題を迅速に診断できます。
今回のアップデートにより、複数のテストを同時に実行して大規模なシナリオやワークフローを検証し、テスト時間を短縮できます。Connect の分析ダッシュボードでは、テスト結果を表示し、全てのテストに共通する失敗パターンを特定できます。これらの機能により、ワークフローの変更を迅速に検証し、変化し続けるビジネスニーズに適応するために新しい体験を自信を持ってデプロイすることが可能になります。
この機能は、Amazon Connect が利用可能な全ての AWS リージョンで利用できます。

Amazon Connect がダッシュボードやAPIで使用するためのカスタムメトリクスの作成をサポート
Amazon Connect でカスタムメトリクスの作成がサポートされ、コンタクトセンターのスーパーバイザーは技術的なスキルがなくても、独自のパフォーマンス指標を分析できるようになりました。この機能はシンプルなローコードのインターフェースを提供し、既存の Connect データに対して加算、減算、合計、平均などの数学的演算を行い、組織固有のビジネス要件に合わせたメトリクスを構築できます。カスタムメトリクスはダッシュボードや API で使用可能です。
例えば、プレミアムと標準のお客さまセグメントごとの平均処理時間メトリクスの作成、製品ライン別のアウトバウンドコールにおけるエージェントの合計時間の計算、コールバックや着信コールなどのコンタクトタイプでフィルターリングしたキューパフォーマンスの測定などができます。この新機能は、Amazon Connect が提供されている全ての AWS リージョンで利用できます。

Amazon Connect がセルフサービスインタラクションの自動パフォーマンス評価を提供開始
Amazon Connect で、セルフサービスインタラクションの品質を自動的に評価し、集約されたインサイトを取得して顧客体験を向上させることができるようになりました。
マネージャーは、セルフサービスインタラクションの品質を評価するためのカスタム基準を定義でき、この基準は会話分析からのインサイトやその他の Connect データを使用して手動または自動で入力できます。例えば、AI エージェントがお客さまの意図を繰り返し理解できず、お客さまの感情が悪化して人間のエージェントに転送されたかどうかを自動的に評価できます。マネージャーは、セルフサービスのインタラクションの録音とトランスクリプトとともに、これらのインサイトを集約して、または個々のコンタクトごとに確認し、AI エージェントのパフォーマンスを改善する機会を特定できます。
セルフサービスインタラクションの手動評価は、Amazon Connect が提供されている全てのリージョンで利用可能です。自動評価は、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、ヨーロッパ (フランクフルト) の各 AWS リージョンで利用できます。

Amazon Connect がキーワードやフレーズを条件としたメールの自動応答を開始
Amazon Connect で、キーワードやフレーズの条件を使用してメールの自動応答とエージェントのルーティングロジックを自動化できるようになり、セルフサービスの向上、手動処理時間の削減、ルーティング精度の向上が可能になります。例えば、お客さまが特定の商品の在庫状況や配送状況についてメールで問い合わせた場合、エージェントを介さずに自動応答を送信できます。
この機能を有効にするには、フローに `Get stored content` ブロックを追加し、`Check contact attributes` や `Send message` などのフローブロックを使用して、メールの自動応答とルーティングを設定します。
Amazon Connect の E メールは、米国東部 (バージニア北部)、米国西部 (オレゴン)、アフリカ (ケープタウン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン) の各リージョンで利用できます。

Amazon Connect がエージェントアシスタンス機能を強化
Amazon Connect は、アクションの推奨、情報の取得、タスクの代理実行によってお客さまとのやりとりをガイドする新しい AI エージェントをカスタマーサービス担当者に提供します。例えば、AI エージェントは、注文履歴を自動的に取得し、返金額を計算し、返品プロセスを開始することで、担当者の製品返品処理をガイドできます。これらの AI エージェントは、会話のコンテキストとお客さまの感情をリアルタイムで分析し、ドキュメントの準備や定型プロセスの処理などのタスクを積極的に完了します。これにより、担当者は AI がバックグラウンドの作業を管理する間、お客さまとの関係構築や複雑な状況への対応に集中でき、生産性の向上と一貫した成果の確保が可能になります。Amazon Connect が提供する標準のエージェントを利用開始したり、ビジネスニーズに合わせて AI エージェントの動作やアクションを簡単にカスタマイズしたりできます。

Amazon Connect がアウトバウンドキャンペーンで WhatsApp チャンネルをサポート
Amazon Connect アウトバウンドキャンペーン が WhatsApp をサポートするようになりました。これまではお客さまからの問い合わせにのみ WhatsApp を利用できましたが、今回のアップデートにより、プロアクティブな自動キャンペーンでも利用可能になります。
予約のリマインダー、支払い通知、注文の更新、製品の推奨といったタイムリーなコミュニケーションを、お客さまが好む WhatsApp を通じて直接配信できます。WhatsApp キャンペーンの設定は、SMS、音声、メールキャンペーンと同様に、使い慣れた Amazon Connect のインターフェースで行え、ターゲットオーディエンスの定義、パーソナライズされたメッセージテンプレートの選択、配信時間のスケジュール設定、コンプライアンス ガードレール の適用が可能です。
リアルタイムの顧客データを使用して WhatsApp メッセージをパーソナライズし、配信とエンゲージメントの指標を追跡し、コンプライアンスを確保するために通信頻度とタイミングを管理することもできます。この機能拡張により、オムニチャンネルのアウトリーチ戦略を合理化しつつ、お客さまが好むプラットフォームでより柔軟につながることが可能になります。
この機能は、Amazon Connect アウトバウンドキャンペーン がサポートされている全ての AWS リージョンで利用できます。

Amazon Connect が、ビジネスユーザーがコンタクトセンターの設定をリアルタイムで調整するためのカスタムUIを作成可能に
Amazon Connect を使用することで、ビジネスユーザーは技術的なリソースを必要とせずに、日々のコンタクトセンター業務をより詳細に管理できるようになります。キュー、ルーティング動作、お客さま体験の設定をリアルタイムで調整できる UI を作成する新機能により、ビジネスユーザーは エンタープライズグレード のガバナンスとセキュリティを維持しながら、変化する状況に即座に対応できます。
例えば、天候による混乱が発生した場合、航空会社のコンタクトセンターのオペレーションマネージャーは、エージェントを再予約キューに移動させ、時間外ルーティングを更新し、IVR プロンプトの更新やお客さまへの通知をトリガーする事前に承認されたプロトコルを有効化するといった操作を、技術チームの介入なしに数分で実行できます。これにより、待ち時間が短縮され、エージェントの生産性が向上し、需要がピークに達した際のお客さま体験が改善されます。
コンタクトセンターの管理者は、キューの割り当て、営業時間、スキルマッピング、エスカレーションルールなどの主要なビジネス設定を、コンタクトフローを直接駆動するデータテーブル内で定義することから始められます。その後、ペルソナベースのワークスペース内で、各ビジネスユーザー向けに役割固有のアクションを表示するようにガイドを設定できます。これらのアップデートを組み合わせることで、IT に依存することなく、コンタクトセンターの運用を迅速、一貫性、かつ安全に保つビジネス主導の運用モデルが実現します。
これらの新機能は、Amazon Connect が利用可能な全ての AWS リージョンで利用できます。

Amazon Connect が、パフォーマンス評価のために関連するコンタクトを自動選択する新しい基準を導入
Amazon Connect では、マネージャーが自動評価を設定する際に新しい基準を利用できるようになりました。これにより、評価対象のコンタクトの特定が容易になり、評価フォームに自動入力するための追加のインサイトも提供されます。
例えば、マネージャーは、特定の部門のエージェントが対応し、接続に問題がなかったインバウンドコンタクトを、特定の評価フォームで自動評価するように指定できます。さらに、マネージャーはエージェントの通話回避、コンタクト処理効率、可聴性に関する新しいメトリクス基準を使用して、選択したフォームに自動入力できます。
この機能は、Amazon Connect が提供されている全てのリージョンで利用可能です。

Amazon Connect が、エンドカスタマーのセルフサービス向けにサードパーティーの音声テキスト変換およびテキスト音声変換AIモデルをサポート
Amazon Connect は、エンドカスタマーのセルフサービス向けにサードパーティーの音声プロバイダーをサポートするようになり、音声エクスペリエンスをより柔軟に提供できるようになります。音声テキスト変換用に Deepgram を、テキスト音声変換用に ElevenLabs を Amazon Connect 内で直接統合し、Amazon Connect のネーティブな音声機能、組み込みのオーケストレーション、分析、コンプライアンスコントロールと組み合わせて使用できます。この機能は Amazon Connect unlimited AI で利用でき、Amazon Connect が提供されている全ての商用 AWS リージョンで利用可能です。

Amazon Connect が、より自然で、表現豊かで、適応的な音声対話によるエージェンティックなセルフサービスを導入
Amazon Connect に、エージェンティックなセルフサービス機能が導入されました。これにより、AI エージェントが音声およびメッセージングチャンネルで理解、推論、行動し、定型的で複雑な顧客サービス業務を自動化できます。Connect では、決定論的な体験とエージェンティックな体験を組み合わせることで、AI エージェントを大規模かつ安全に展開することが可能です。
Amazon Nova Sonic の高度な音声モデルとの統合により、音声セルフサービスはより自然で適応的な対話を実現します。Connect の音声 AI エージェントは、お客さまの発言内容だけでなく、その話し方も理解します。そして、お客さまの口調や感情に合わせて音声応答を調整し、複数の言語やアクセントにわたって自然な会話ペースを維持します。例えば、注文に関する問い合わせに対して、AI エージェントはお客さまの口調に適応しながら、名前での挨拶、質問、注文状況の確認、返金処理などを表現豊かに行うことができます。
この機能により、コンタクトセンターは、いつでも人間の担当者にエスカレーションする機能を維持しつつ、複雑なトラブルシュート、アカウント管理、相談対応を自動化できます。
Amazon Connect での Nova Sonic のサポートは、米国東部 (バージニア北部) と米国西部 (オレゴン) の AWS リージョンで利用でき、英語とスペイン語で完全に対応しています。フランス語、イタリア語、ドイツ語はプレビュー版です。

Amazon Connect が Model Context Protocol (MCP) のサポートを開始
Amazon Connect が Model Context Protocol (MCP) のサポートを開始しました。これにより、エンドカスタマーのセルフサービスや従業員支援のためのAI エージェントは、情報検索やアクションの実行に標準化されたツールを使用できるようになります。企業は拡張可能なツール機能でAI エージェントを強化し、問題解決を改善できます。例えば、AI エージェントは、人間の介入を必要とせずに、セルフサービスでのやりとり中に注文状況の確認、返金処理、顧客記録の更新を自動的に行えます。
今回のアップデートにより、Amazon Connect は、コンタクト属性の更新やケース情報の取得といった一般的なタスク向けに、すぐに使える MCP ツールを提供します。また、フローモジュールを MCP ツールとして使用して、決定論的AIワークフローと生成AIワークフローの両方で同じビジネスロジックを再利用することも可能です。さらに、フローモジュールや Amazon Bedrock AgentCore Gateway を介して、カスタムツールやサードパーティーサービスを統合できます。

Amazon Connect が Agentforce Service 向けの AI エージェント支援と要約機能をサポート
Amazon Connect は、Salesforce Contact Center with Amazon Connect (SCC-AC) 向けに、リアルタイムの AI エージェント支援とコンタクト要約機能を開始しました。これにより、Connect の AI エージェントは Salesforce CRM のお客さま情報やナレッジベースの記事を自動的に活用し、問題解決を迅速化し、音声およびチャットでのやりとり全体で一貫した結果を提供します。
人間の介入が必要な場合、SCC-AC 内のシームレスな統合により、お客さまはエージェントに接続されます。エージェントは Agentforce Service と Agentforce Sales 内で、お客さまのデータ、問題のコンテキスト、インタラクション履歴を統合的に表示できます。エージェントはリアルタイムの音声文字起こしとコンテキストに応じた推奨事項を受け取り、スーパーバイザーは Salesforce 内で直接、強化された通話モニターリング機能を利用できます。
解決後、自動化されたコンタクト後の要約により、エージェントは Salesforce のケースを簡単に更新でき、管理タスクが効率化されます。管理者は、Amazon Connect の音声、デジタルチャンネル、インテリジェントルーティング機能を活用して、この統合コンタクトセンターソリューションを数分でデプロイおよび設定できます。
この機能は、Amazon Connect が利用可能な全ての AWS リージョンで利用できます。

Amazon Connect が AI エージェント向けの改善された分析および監視機能を提供
Amazon Connect は、セルフサービスとエージェント支援の両方で、AI エージェント向けの分析および監視機能を提供するようになりました。
今回のアップデートにより、カスタマイズが容易なダッシュボードを通じて、AI エージェント主導のインタラクション数、引き継ぎ率、会話のターン数、平均処理時間などの主要なメトリクスを測定し、AI エージェントのパフォーマンスとお客さまの成果を継続的に改善できます。また、バージョン間で AI エージェントのパフォーマンスを比較して最適な設定を特定したり、インサイトを確認して AI エージェントがうまく機能している箇所と改善が必要な箇所を把握したりすることも可能です。
さらに、ルールを設定して自動アクションをトリガーすることもできます。例えば、センチメントスコアが低いセルフサービスのコンタクトが人間のエージェントに転送された際にアラートを送信することが可能です。Amazon Connect は、API を介して AI エージェントのトレースも提供します。これにはリクエストとレスポンスのペイロードやツールの呼び出しなどの詳細情報が含まれており、AI エージェントのアクションと意思決定を容易に理解し、迅速なトラブルシュートを可能にします。
この機能は、Amazon Connect AI エージェントが提供されている全ての AWS リージョンで利用できます。

Amazon Connect が AI を活用した予測的なインサイト機能を発表(プレビュー)
Amazon Connect は、企業がお客さまを理解し、サービスを提供する方法を変革する、AI を活用した予測的なインサイト機能を発表しました。この新しい機能セットは、Connect の既存の顧客プロファイル上に構築され、AI を活用してお客さまの行動パターンとインタラクション履歴を分析する5つのレコメンデーションアルゴリズムを導入します。
この AI を活用したインサイトは、セルフサービスとエージェントの両方のインタラクションで利用でき、サービスコール中の補完的な製品の提案から、Connect Customer Profiles 内の既存のお客さまデータを活用したインテリジェントなチャット体験によるスマートな製品発見まで、全ての顧客接点を変革できます。また、これらのインサイトを活用して、販売に特化した Connect AI エージェントを構築することも可能です。
5つのレコメンデーションアルゴリズムは以下の通りです。
* Recommended for You: あらゆるカタログとの個々のユーザーのインタラクションパターンに基づいて、カスタマイズされた提案を提供します。
* Similar Items: 生成AIを使用して代替の製品やサービスを提案します。
* Frequently Paired Items: 補完的な製品やサービスの組み合わせを特定することで、クロスセルを強化します。
* Popular Items: パフォーマンスの高い製品レコメンデーションを表示します。
* Trending Now: リアルタイムのお客さまの関心を捉え、タイムリーなエンゲージメントを促進します。
Amazon Connect Customer Profiles では、利用したプロファイルに対してのみ従量課金制で支払います。AI を活用した予測的インサイトのパブリックプレビューは、ヨーロッパ (フランクフルト)、米国東部 (バージニア北部)、アジアパシフィック (ソウル)、アジアパシフィック (東京)、米国西部 (オレゴン)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、カナダ (中部) で利用可能です。

Amazon Connect が AI を活用したケース要約機能を提供開始
Amazon Connect は、AI を活用したケース要約機能の提供を開始しました。この機能により、エージェントはお客さまの問題の全体像を把握し、手作業の後処理を削減して、ケースをより迅速に解決できます。
ワンクリックで、複数のやりとり、フォローアップタスク、チームにまたがる場合でも、問題の背景、実行されたアクション、次のステップなどの主要な詳細を捉えた簡潔なケース要約を生成できます。管理者は、カスタムプロンプトと Guardrails を設定して、要約が組織のスタイルや好みに沿うように調整できます。
Amazon Connect Cases は、米国東部 (バージニア北部)、米国西部 (オレゴン)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、アフリカ (ケープタウン) の AWS リージョンで利用できます。

Amazon Connect が AI を活用したインタラクションのメッセージストリーミングを開始
Amazon Connect は、AI を活用したチャットインタラクション向けのメッセージストリーミングをサポートします。この新機能により、Connect AI エージェントの応答が生成中に表示されるため、体感的な待ち時間が短縮され、お客さまのエクスペリエンスが向上します。
Amazon Connect AI エージェントを使用すると、お客さまは処理中に「アカウントを確認していますので、少々お待ちください」などのステータス更新を確認したり、応答が段階的に表示されるのを見たりできます。このエクスペリエンスは、AI エージェントが推論、ツールの呼び出し、包括的なソリューションの作成を行っている間、お客さまにリクエストが積極的に処理されているという安心感を与えます。
AI を活用したインタラクションのメッセージストリーミングは、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン)、アフリカ (ケープタウン) の各リージョンで利用可能です。

Amazon Connect アウトバウンドキャンペーン が、マルチステップ・マルチチャンネルの顧客エンゲージメントジャーニービルダーをサポート
Amazon Connect アウトバウンドキャンペーン は、Amazon Connect コンソールで直接、マルチステップ・マルチチャンネルの顧客エンゲージメントを作成できる新機能「ビジュアルジャーニービルダー」をサポートします。
音声、SMS、Eメール、WhatsApp でのやりとりを組み合わせたエンドツーエンドのエンゲージメント体験を設計し、お客さまにプロアクティブにアプローチしてインバウンドコンタクト量を削減できます。アウトバウンドキャンペーン は、お客さまの行動や時間ベースのトリガーに基づいて、パーソナライズされたコミュニケーションフローの自動化を支援します。例えば、SMS で予約のリマインダーを送信し、お客さまからの応答がない場合は音声通話でフォローアップし、予約が確定したら確認の Eメールを送信することが可能です。
また、ジャーニービルダーのステップを設定して、追加のサポートが必要な場合に Amazon Connect を介してオペレーターと直接話すオプションをお客さまに提供することもできます。既存の Amazon Connect Flow との統合、AI 機能、Amazon Connect Customer Profiles の顧客データを使用して、それぞれのやりとりを調整できます。これにより、コンタクトセンターはエンゲージメント率の向上、手作業の削減、より一貫した顧客体験の提供が可能になります。
この機能は、Amazon Connect アウトバウンドキャンペーン がサポートされている全ての AWS リージョンで利用できます。

Amazon Connect Customer Profiles が新しいセグメンテーション機能を開始(ベータ)
Amazon Connect Customer Profiles は、Spark SQL (ベータ版) を利用した新しいセグメンテーション機能を提供します。これにより、AI 支援を活用して Customer Profiles の全データを使用し、高度な顧客セグメントを構築できます。
主な特長:
* 完全なプロファイルデータへのアクセス: セグメンテーションにカスタムオブジェクトと標準オブジェクトの両方を使用できます。
* SQL 機能の活用: オブジェクトの結合、パーセンタイルなどの統計関数によるフィルターリング、複雑な分析のための日付フィールドの標準化が可能です。
* AI 支援によるセグメント構築: Segment AI アシスタントへの自然言語プロンプトにより Spark SQL のセグメント定義を自動生成するか、SQL を直接記述できます。
* デプロイ前の検証: AI が生成した SQL のレビュー、自然言語による説明の表示、自動的なセグメント推定値の取得が可能です。
例えば、「過去1カ月間に新規購入についてカスタマーサービスに3回以上電話したお客さま」や「生涯支出額が90パーセンタイルの高価値なお客さま」といったセグメントを作成し、アウトバウンドキャンペーンの正確なターゲティングやパーソナライズされた顧客体験を実現できます。
これらの新しいセグメンテーション機能は既存の機能と並行して提供され、両方ともセグメントメンバーシップコール、フローブロック、アウトバウンドキャンペーンとシームレスに統合されるため、ユースケースに最適なアプローチを選択できます。
この機能は、Amazon Connect Customer Profiles が提供されている全ての AWS リージョンで利用可能です。

Amazon Connect Chat がエージェント主導のワークフローをサポート
Amazon Connect がエージェント主導のワークフローをサポートするようになり、エージェントがお客さまとのチャット会話中にインタラクティブなフォームを送信できるようになりました。これにより、機密データの収集や一般的なポリシーの共有が可能になり、効率とお客さま体験が向上します。
例えば、お客さまは住所変更などの手続きをチャットインターフェースから離れることなく完了できます。エージェントは会話中の任意の時点でワークフローをトリガーでき、お客さまのニーズに動的に対応可能です。進行中のチャット内で全てを処理することで、セキュリティとコンプライアンスを維持しつつ、より迅速な解決策を提供できます。
これらの新しいエージェント機能は、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン)、アフリカ (ケープタウン) の各リージョンで利用可能です。

Amazon Connect Chat が、チャット中のデータのマスキングとメッセージ処理をサポート
Amazon Connect は、チャットメッセージが参加者に届く前に傍受して処理するメッセージ処理をサポートするようになりました。この新機能により、機密データの自動マスキングやカスタムメッセージ処理が可能になり、企業はパーソナライズされたお客さま体験を提供しながら、コンプライアンスとセキュリティ基準を維持できます。
組み込みの機密データマスキング機能は、クレジットカード番号や社会保障番号などの機密情報を、英語、フランス語、ポルトガル語、ドイツ語、イタリア語、スペイン語の各バリエーションを含む複数の言語で自動的に検出して削除できます。選択した、または全ての機密データエンティティをマスキングでき、それらを汎用またはエンティティ固有のプレースホルダー(例:[PII] や [NAME])に置き換えるオプションがあります。また、言語翻訳や不適切な表現のフィルターリングなどのユースケース向けにカスタムプロセッサを統合し、特定のビジネスニーズに合わせたコンプライアンス準拠の効果的なコミュニケーションを確保することもできます。
これらのメッセージ処理機能は、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン)、アフリカ (南アフリカ) の各リージョンで利用可能です。

クラウド財務管理

最大35%の割引が可能な Database Savings Plans を発表
AWS は、新しい柔軟な料金モデルである Database Savings Plans を発表しました。これは、1年間の一定量の利用(USドル/時間で測定)をコミットすることで、前払いなしでコストを最大35%削減できるものです。Database Savings Plans は、サポートされているエンジン、インスタンスファミリー、サイズ、デプロイオプション、AWS リージョンに関係なく、対象となるサーバーレスおよびプロビジョニングされたインスタンスの使用量に自動的に適用されます。
例えば、Database Savings Plans を利用すると、Aurora の db.r7g と db.r8g インスタンス間の変更、EU (アイルランド) から US (オハイオ) へのワークロードの移行、Amazon RDS for Oracle から Amazon Aurora PostgreSQL へ、または RDS から Amazon DynamoDB へ移行した場合でも、Database Savings Plans が提供する割引価格を引き続き利用できます。
Database Savings Plans は、中国リージョンを除く全ての AWS リージョンで利用可能で、Amazon Aurora、Amazon RDS、Amazon DynamoDB、Amazon ElastiCache、Amazon DocumentDB (MongoDB 互換)、Amazon Neptune、Amazon Keyspaces (Apache Cassandra 用)、Amazon Timestream、AWS Database Migration Service (DMS) をサポートします。
Database Savings Plans は、AWS 請求とコスト管理 コンソールまたは AWS CLI から開始できます。最大の割引を得るには、コンソールで提供される 購入レコメンデーション を使用して Savings Plans にコミットすることが可能です。

コンピューティング

NVIDIA GB300 NVL72 によって高速化された Amazon EC2 P6e-GB300 UltraServers が一般提供を開始
AWS は、Amazon Elastic Compute Cloud (Amazon EC2) P6e-GB300 UltraServers の一般提供を発表しました。
NVIDIA GB300 NVL72 によって高速化された P6e-GB300 UltraServers は、P6e-GB200 と比較して、1.5倍のGPUメモリと1.5倍のFP4コンピューティング (スパース性なし) を提供します。お客さまは P6e-GB300 を使用することで、より高いコンテキストを必要とし、推論や エージェンティックAI といった新しい推論技術を実装するアプリケーションにおいて、本番環境で最も強力なモデルのパフォーマンスを最適化できます。

Elastic Beanstalk が Amazon Linux 2023 上の Node.js 24 をサポート
AWS Elastic Beanstalk で、Amazon Linux 2023 (AL2023) プラットフォーム上に Node.js 24 アプリケーションを構築およびデプロイできるようになりました。この最新のプラットフォームサポートにより、開発者は AL2023 の強化されたセキュリティとパフォーマンスを活用しながら、Node.js の最新機能と改善点を利用できます。
AWS Elastic Beanstalk は、アプリケーションを実行するインフラストラクチャーを気にすることなく、AWS でアプリケーションをデプロイおよび管理できるサービスです。AL2023 上の Node.js 24 は、V8 JavaScript エンジン、npm 11 へのアップデート、セキュリティとパフォーマンスの向上を提供します。
開発者は、Elastic Beanstalk Console、CLI、または API を通じて、AL2023 上で Node.js 24 を実行する Elastic Beanstalk 環境を作成できます。このプラットフォームは、AWS GovCloud (US) Regions を含む、Elastic Beanstalk が利用可能な全ての商用 AWS リージョンで利用できます。

Elastic Beanstalk が Amazon Linux 2023 で Python 3.14 をサポート
AWS Elastic Beanstalk で、Amazon Linux 2023 (AL2023) プラットフォーム上の Python 3.14 アプリケーションのビルドとデプロイが可能になりました。この最新のプラットフォームサポートにより、開発者は AL2023 の強化されたセキュリティとパフォーマンスを活用しながら、Python の最新の機能と改善点を利用できます。AWS Elastic Beanstalk は、アプリケーションを実行するインフラストラクチャーを気にすることなく、AWS でアプリケーションをデプロイおよび管理する機能を提供するサービスです。
AL2023 上の Python 3.14 は、対話型インタプリタ機能の強化、エラーメッセージの改善、重要なセキュリティと API の改善を提供します。開発者は Elastic Beanstalk Console、CLI、または API を通じて、AL2023 上で Python 3.14 を実行する Elastic Beanstalk 環境を作成できます。
このプラットフォームは、AWS GovCloud (US) Regions を含む、Elastic Beanstalk が利用可能な全ての商用 AWS リージョンで利用できます。

Amazon EC2 が汎用 M8azn インスタンスを発表(プレビュー)
新しい汎用の高周波・高ネットワーク Amazon Elastic Compute Cloud (Amazon EC2) M8azn インスタンスがプレビューで利用可能になりました。このインスタンスは第5世代 AMD EPYC (旧コードネーム Turin) プロセッサを搭載し、クラウドで最高の最大CPU周波数である5GHzを提供します。M8azn インスタンスは、前世代の M5zn インスタンスと比較して最大2倍のコンピューティングパフォーマンス、M8a インスタンスと比較して24%高いパフォーマンスを提供します。
M8azn インスタンスは、AWS が設計したハードウェアとソフトウェアのイノベーションの集合体である AWS Nitro System 上に構築されています。AWS Nitro System は、分離されたマルチテナンシー、プライベートネットワーキング、高速なローカルストレージを備え、効率的で柔軟かつ安全なクラウドサービスの提供を可能にします。このインスタンスは、ゲーム、ハイパフォーマンスコンピューティング、高頻度取引 (HFT)、CI/CD、自動車、航空宇宙、エネルギー、通信業界向けのシミュレーションモデリングなどのアプリケーションに最適です。

Amazon EC2 が新しいメモリ最適化 X8aedz インスタンスを提供開始
AWS は、第5世代 AMD EPYC プロセッサ (旧コードネーム Turin) を搭載した次世代メモリ最適化インスタンスである Amazon EC2 X8aedz を発表しました。このインスタンスは、クラウドで最高の最大 CPU 周波数 5GHz を提供し、前世代の X2iezn インスタンスと比較して最大2倍高いコンピューティングパフォーマンスを実現します。
X8aedz インスタンスは、最新の第6世代 AWS Nitro Cards を使用して構築されており、物理レイアウトや物理検証ジョブなどの電子設計自動化 (EDA) ワークロードや、高いシングルスレッドプロセッサ性能と大容量メモリフットプリントの恩恵を受けるリレーショナルデータベースに最適です。5GHz プロセッサとローカル NVMe ストレージの組み合わせにより、フロアプランニング、ロジック配置、クロックツリー合成 (CTS)、ルーティング、電力/信号整合性解析など、メモリ集約型のバックエンド EDA ワークロードの処理が高速化されます。
X8aedz インスタンスは、メモリと vCPU の比率が 32:1 で、2つのベアメタルバリアントを含む 2〜96 vCPU、64〜3,072 GiB のメモリ、最大 8 TB のローカル NVMe SSD ストレージを備えた8つのサイズで利用できます。
X8aedz インスタンスは、US West (Oregon) および アジアパシフィック (東京) リージョンで利用可能です。お客さまは、Savings Plans、オンデマンドインスタンス、スポットインスタンスを通じて X8aedz インスタンスを購入できます。

Amazon EC2 が新しいコンピューティング最適化 C8a インスタンスを発表
新しいコンピューティング最適化 Amazon EC2 C8a インスタンスの一般提供が開始されました。C8a インスタンスは、最大周波数 4.5 GHz の第 5 世代 AMD EPYC プロセッサ (旧コードネーム Turin) を搭載しており、C7a インスタンスと比較して最大 30% 高いパフォーマンスと最大 19% 優れた価格性能を提供します。
C8a インスタンスは、C7a インスタンスと比較してメモリ帯域幅が 33% 向上しており、レイテンシーの影響を受けやすいワークロードに最適です。また、Amazon EC2 C7a インスタンスと比較して、GroovyJVM で最大 57% 高速化され、Java ベースのアプリケーションの応答時間が向上します。
C8a インスタンスは、2 つのベアメタルサイズを含む 12 のサイズを提供します。この幅広いインスタンスサイズにより、お客さまはワークロードの要件に正確に合わせることができます。
C8a インスタンスは AWS Nitro System 上に構築されており、バッチ処理、分散分析、ハイパフォーマンスコンピューティング (HPC)、広告配信、拡張性の高いマルチプレイヤーゲーム、ビデオエンコーディングなどの高性能でコンピューティング集約的なワークロードに最適です。
C8a インスタンスは、米国東部 (バージニア北部)、米国東部 (オハイオ)、および米国西部 (オレゴン) の AWS リージョンで利用可能です。お客さまはこれらのインスタンスを Savings Plans、オンデマンドインスタンス、スポットインスタンスを通じて購入できます。

Amazon EC2 がメモリ最適化 X8i インスタンスを発表(プレビュー)
次世代のメモリ最適化インスタンスである Amazon EC2 X8i のプレビューが発表されました。X8i インスタンスは、カスタム Intel Xeon 6 プロセッサを搭載しており、クラウド上の同等の Intel プロセッサの中で最高のパフォーマンスと最速のメモリを提供します。
X8i インスタンスは、前世代の X2i インスタンスと比較して、1.5倍のメモリ容量 (最大 6TB) と最大3.4倍のメモリ帯域幅を提供します。また、SAP 認定を取得する予定で、ミッションクリティカルな SAP ワークロード向けに、X2i インスタンスと比較して 46% 高い SAPS を提供します。
X8i インスタンスは、インメモリデータベースと分析、大規模な従来のデータベース、Electronic Design Automation (EDA) といったメモリ集約型のワークロードに最適です。X2i インスタンスよりも 35% 高いパフォーマンスを提供し、一部のワークロードではさらに高いパフォーマンス向上を実現します。

Amazon EC2 が、より高速かつ低コストな生成AIトレーニングを実現する Trn3 UltraServers を発表
Amazon Elastic Compute Cloud (Amazon EC2) Trn3 UltraServers の一般提供が開始されました。これは、次世代のエージェント、推論、動画生成アプリケーション向けに最高のトークンエコノミクスを提供するよう専用設計された、AWS 初の3nm AIチップである第4世代AIチップ Trainium3 を搭載しています。
各 AWS Trainium3 チップは、2.52ペタフロップス (PFLOPs) のFP8コンピューティングを提供し、Trainium2 と比較してメモリ容量を1.5倍、帯域幅を1.7倍に増加させ、144 GBのHBM3eメモリと4.9 TB/sのメモリ帯域幅を実現します。Trainium3 は、高度なデータ型 (MXFP8およびMXFP4) を使用した高密度およびエキスパート並列ワークロードの両方に対応し、リアルタイム、マルチモーダル、推論タスク向けにメモリとコンピューティングのバランスを改善するように設計されています。
Trn3 UltraServers は最大144個の Trainium3 チップ (合計362 FP8 PFLOPs) までスケールアップでき、EC2 UltraClusters 3.0 で利用することで数十万個のチップまでスケール可能です。フル構成の Trn3 UltraServer は、最大20.7 TBのHBM3eと706 TB/sの総メモリ帯域幅を提供します。次世代の Trn3 UltraServer は、Trn2 UltraServer と比較してチップ間相互接続帯域幅を2倍にする all-to-all ファブリックである NeuronSwitch-v1 を搭載しています。
Trn3 は Trn2 UltraServers と比較して、最大4.4倍のパフォーマンス、3.9倍のメモリ帯域幅、4倍のワット当たりパフォーマンスを提供し、強化学習、Mixture-of-Experts (MoE)、推論、ロングコンテキストアーキテクチャーなどのフロンティアスケールモデルのトレーニングと提供において、最高の価格性能を実現します。Amazon Bedrock では、Trainium3 は最速のアクセラレーターであり、ユーザー当たりのレイテンシーが同等でありながら、Trainium2 よりも最大3倍高速なパフォーマンスと、メガワット当たり5倍以上の出力トークンを提供します。
新しい Trn3 UltraServers はAI研究者向けに構築されており、AWS Neuron SDK によって画期的なパフォーマンスを引き出します。ネーティブな PyTorch 統合により、開発者はモデルコードを一行も変更することなく、トレーニングとデプロイが可能です。AIパフォーマンスエンジニア向けに Trainium3 へのより深いアクセスを可能にし、パフォーマンスの微調整、カーネルのカスタマイズ、モデルのさらなる性能向上ができるようになりました。イノベーションはオープン性によって促進されるため、AWSは オープンソース のツールとリソースを通じて開発者とのエンゲージメントにコミットしています。

Amazon EC2 が M4 Max Mac インスタンスを発表(プレビュー)
Amazon Web Services は、最新の Mac Studio ハードウェアを搭載した Amazon EC2 M4 Max Mac インスタンスのプレビューを発表しました。Amazon EC2 M4 Max Mac インスタンスは次世代の EC2 Mac インスタンスであり、Apple 開発者が最も要求の厳しいビルドおよびテストのワークロードを AWS に移行できるようにします。このインスタンスは、iOS、macOS、iPadOS、tvOS、watchOS、visionOS、Safari などの Apple プラットフォーム向けアプリケーションのビルドとテストに最適です。
M4 Max Mac インスタンスは AWS Nitro System を搭載しており、最大 10 Gbps のネットワーク帯域幅と 8 Gbps の Amazon Elastic Block Store (Amazon EBS) ストレージ帯域幅を提供します。このインスタンスは、16コア CPU、40コア GPU、16コア Neural Engine、128GB のユニファイドメモリを搭載した Apple M4 Max Mac Studio コンピューター上に構築されています。
EC2 M4 Pro Mac インスタンスと比較して、M4 Max インスタンスは2倍の GPU コアと2.5倍以上のユニファイドメモリを提供します。これにより、お客さまは特定のワークロード要件に合わせてインスタンスの機能を選択でき、AWS 上の Apple silicon Mac ハードウェアの選択肢がさらに広がります。

Amazon EC2 が AWS Graviton5 プロセッサを搭載した新しい M9g インスタンスを発表(プレビュー)
AWS Graviton5 プロセッサを搭載した新しい汎用 Amazon Elastic Compute Cloud (Amazon EC2) M9g インスタンスが、プレビューで利用可能になりました。AWS Graviton5 は、Amazon EC2 のワークロードに最高のコストパフォーマンスを提供するために AWS がカスタム設計した Graviton プロセッサファミリーの最新製品です。これらのインスタンスは、AWS Graviton4 ベースの M8g インスタンスと比較して、最大 25% 優れたコンピューティングパフォーマンス、より高いネットワーク帯域幅と Amazon Elastic Block Store (Amazon EBS) 帯域幅を提供します。M8g と比較して、データベースでは最大 30%、Webアプリケーションでは最大 35%、機械学習ワークロードでは最大 35% 高速です。M9g インスタンスは、AWS が設計したハードウェアとソフトウェアのイノベーションのコレクションである AWS Nitro System 上に構築されています。AWS Nitro System は、分離されたマルチテナンシー、プライベートネットワーキング、高速なローカルストレージを備えた、効率的で柔軟かつ安全なクラウドサービスの提供を可能にします。Amazon EC2 M9g インスタンスは、アプリケーションサーバー、マイクロサービス、ゲームサーバー、中規模データストア、キャッシングフリートなどのワークロードに最適です。

AWS が EC2 C8ine インスタンスのプレビューを開始(プレビュー)
AWS は、カスタムの第 6 世代 Intel Xeon Scalable プロセッサ (Granite Rapids) と最新の AWS Nitro v6 カードを搭載した Amazon EC2 C8ine インスタンスのプレビューを開始しました。このインスタンスは、データプレーンパケット処理ワークロード専用に設計されています。
Amazon EC2 C8ine インスタンスは、前世代の C6in インスタンスと比較して vCPU当たり最大 2.5 倍高いパケットパフォーマンスを実現します。また、既存の C6in ネットワーク最適化インスタンスと比較して、インターネットゲートウェイ経由で最大 2 倍のネットワーク帯域幅と、最大 3 倍の Elastic Network Interface (ENI) を提供します。
このインスタンスは、セキュリティ仮想アプライアンス、ファイアウォール、ロードバランサー、DDoS 保護システム、Telco 5G UPF アプリケーションといった、小さいパケットサイズで高いパフォーマンスを必要とするパケット処理ワークロードに最適です。

AWS Lambda が、マルチステップのアプリケーションと AI ワークフロー向けの durable functions を発表
AWS Lambda が durable functions を発表し、開発者は Lambda の開発体験の中で、信頼性の高い複数ステップのアプリケーションや AI ワークフローを構築できるようになりました。durable functions は、進捗の自動チェックポイント、長時間実行タスク中の最大1年間の実行中断、障害からの回復といった機能を持ち、これらは追加のインフラ管理やカスタムの状態管理・エラー処理コードを記述することなく利用できます。
お客さまは Lambda のイベント駆動型プログラミングモデルのシンプルさと組み込みの統合機能を活用しています。従来の Lambda 関数は単一の短時間タスクの処理に優れていましたが、注文処理やユーザーオンボーディング、AI 支援ワークフローといった複雑な複数ステップのアプリケーションを構築する開発者は、カスタムの状態管理ロジックを実装するか、外部のオーケストレーションサービスと統合する必要がありました。
Lambda durable functions は、進捗をチェックポイントし、コンピューティング料金を発生させることなく実行を一時停止できる「steps」や「waits」などの新しい操作で Lambda プログラミングモデルを拡張することで、この課題に対応します。このサービスが状態管理、エラー回復、長時間タスクの効率的な一時停止と再開を処理するため、お客さまはコアビジネスロジックに集中できます。
Lambda durable functions は US East (Ohio) で一般提供が開始され、Python (バージョン 3.13 および 3.14) と Node.js (バージョン 22 および 24) のランタイムをサポートしています。新しい Python または Node.js ベースの Lambda 関数では、AWS Lambda API, AWS マネジメントコンソール, AWS Command Line Interface (AWS CLI), AWS Cloud Formation, AWS Serverless Application Model (AWS SAM), AWS SDK, AWS Cloud Development Kit (AWS CDK) を使用して durable functions を有効にできます。

データベース

Amazon RDS for SQL Server が、新世代インスタンスによる CPU 最適化機能を導入し、最大55%の低価格化を実現
Amazon RDS for SQL Server は、M7i および R7i インスタンスファミリーのサポートとともに CPU 最適化機能を導入しました。これにより、同等の前世代インスタンスと比較して価格が最大55%削減されます。CPU 最適化機能は、Simultaneous Multi-threading (SMT) 構成を最適化し、商用ソフトウェアの料金を削減します。
お客さまは、第6世代インスタンスから M7i および R7i インスタンスにアップグレードすることでコストを削減できます。さらに、メモリやIO集約型のデータベースワークロードでは、CPU 最適化構成を微調整することで追加のコスト削減が可能です。
CPU 最適化機能は、2つ以上の物理CPUコアを持つインスタンスで SMT を無効にします。これにより、同数の物理CPUコアとほぼ同等のパフォーマンスを維持しながら、vCPU 数とそれに対応する商用ソフトウェア料金が50%削減されます。最も大きなコスト削減効果が得られるのは、2Xlarge 以上のインスタンスや Multi-AZ 配置を使用するインスタンスです。
Amazon RDS for SQL Server は、全ての AWS リージョンで M7i および R7i インスタンスをサポートします。インスタンス料金のバンドル解除により、データベースのコストは vCPU 時間当たりのサードパーティーライセンス料金として別途計算され、このライセンス料金は、お客さまの組織の AWS との割引対象にはなりません。Microsoft Windows および SQL Server の関連料金は、AWS 請求とコスト管理 および月次請求書で確認できます。

Amazon RDS for SQL Server が Developer Edition をサポート
Amazon Relational Database Service (Amazon RDS) for SQL Server で Microsoft SQL Server 2022 Developer Edition が利用できるようになりました。SQL Server Developer Edition は、Enterprise Edition の全ての機能を含む SQL Server の無料エディションであり、あらゆる非本番環境で使用できます。これにより、お客さまはコストを削減し、本番データベース構成との一貫性を維持しながら、SQL Server を使用してアプリケーションの構築、テスト、デモンストレーションを行えます。
以前は、開発およびテスト環境用に Amazon RDS for SQL Server インスタンスを作成するお客さまは、SQL Server Standard Edition または SQL Server Enterprise Edition を使用する必要があり、非本番環境での使用に追加のデータベースライセンスコストが発生していました。SQL Server Developer Edition を使用することで、お客さまは Amazon RDS の開発およびテストインスタンスのコストを削減できるようになりました。
また、自動バックアップ、自動ソフトウェア更新、モニターリング、暗号化といった Amazon RDS for SQL Server の機能も、開発およびテスト目的で Developer Edition 上で動作します。Microsoft SQL Server Developer Edition のライセンスは、その使用を開発およびテスト目的に厳しく制限しており、本番環境や、エンドユーザーに直接サービスを提供する商業目的では使用できません。

Amazon RDS for Oracle および SQL Server が、追加のストレージボリュームにより最大 256 TiB のストレージをサポート
Amazon Relational Database Service (Amazon RDS) for Oracle および SQL Server は、最大 256 TiB のストレージサイズをサポートするようになりました。これは、データベースインスタンス当たりのストレージサイズが4倍に増加したことを意味します。
お客さまは、プライマリストレージボリュームに加えて、それぞれ最大 64 TiB のストレージボリュームを最大3つまでデータベースインスタンスに追加できます。追加のストレージボリュームは、アプリケーションのダウンタイムなしでデータベースインスタンスに追加、スケールアップ、または削除できるため、お客さまは変化するワークロード要件に基づいて、ストレージボリュームを柔軟に追加および調整できます。
この特長により、お客さまはプライマリボリュームで利用可能な最大ストレージサイズを超えてデータベースストレージを拡張し続けることができます。また、月末のデータ処理やローカルストレージからのデータインポートなど、短期的に追加のストレージが必要な場合に一時的にボリュームを追加し、不要になったときに未使用のボリュームを削除することも可能です。
さらに、高性能な Provisioned IOPS SSD (io2) ボリュームと General Purpose (gp3) ボリュームをデータベースインスタンスに組み合わせて使用することで、コストパフォーマンスを最適化できます。例えば、一貫した IOPS パフォーマンスが必要なデータは io2 ボリュームに保存し、アクセス頻度の低い履歴データは gp3 ボリュームに保存することで、ストレージコストを最適化できます。
利用を開始するには、AWS マネジメントコンソール、AWS CLI、または SDK を通じて、新規または既存のデータベースインスタンスに追加のストレージボリュームを作成できます。追加のストレージボリュームは、全ての商用 AWS リージョンおよび AWS GovCloud (US) リージョンで利用可能です。

ウェブとモバイルのフロントエンド

Amazon SES が API エンドポイントの VPC サポートを追加
Amazon Simple Email Service (SES) は、Virtual Private Cloud (VPC) エンドポイント経由での SES API エンドポイントへのアクセスをサポートするようになりました。お客さまは VPC エンドポイントを使用して、メール送信や SES リソース設定の管理のために SES API へのアクセスを有効にできます。このリリースにより、お客さまは VPC のセキュリティを強化できます。
これまで、VPC でワークロードを実行するお客さまは、VPC にインターネットゲートウェイリソースを設定することで SES API にアクセスしていました。これにより、VPC からのトラフィックがインターネットを経由して SES のパブリック API エンドポイントに到達していました。今回のアップデートにより、お客さまはインターネットゲートウェイを必要とせずに VPC エンドポイントを使用して SES API にアクセスできるようになり、VPC 内のアクティビティがインターネットに公開される可能性が低減されます。
SES は、SES が利用可能な全ての AWS リージョンで、SES API エンドポイント用の VPC をサポートします。

Amazon API Gateway が MCP プロキシをサポート
Amazon API Gateway が Model Context Protocol (MCP) プロキシをサポートし、既存の REST API を MCP 互換のエンドポイントに変換できるようになりました。この新機能により、組織は自社の API を AI エージェントや MCP クライアントからアクセス可能にできます。Amazon Bedrock AgentCore の Gateway サービスとの統合により、REST API を安全にエージェント互換ツールに変換し、セマンティック検索によるインテリジェントなツール検出を可能にします。
MCP プロキシ機能は、Bedrock AgentCore Gateway サービスと合わせて、3つの主要な特長を提供します。
1. プロトコル変換により REST API が AI エージェントや MCP クライアントと通信できるようになり、アプリケーションの変更や追加インフラの管理が不要になります。
2. 二重認証による包括的なセキュリティを提供します。インバウンドリクエストではエージェントのIDを検証し、アウトバウンドコールでは REST API への安全な接続を管理します。
3. AI エージェントがプロンプトのコンテキストに最も一致する REST API を検索・選択できるようになります。
Amazon API Gateway の MCP プロキシ機能は、Amazon Bedrock AgentCore が利用可能な9つの AWS リージョンで利用できます: アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、欧州 (ダブリン)、欧州 (フランクフルト)、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)。

人工知能

リアルタイム会話型 AI 向けの Amazon Nova 2 Sonic が東京リージョンなどで利用可能に
自然でリアルタイムな会話型AI向けの speech-to-speech モデルである Amazon Nova 2 Sonic が利用可能になりました。このモデルは、音声ベースの会話型AIにおいて業界トップクラスの品質と価格を実現します。背景雑音やユーザーの話し方のスタイルに強いクラス最高のストリーミング音声認識、効率的な対話処理、複数の言語をネーティブに話せる表現力豊かな音声による音声生成 (Polyglot voices) といった特長があります。旧モデルよりも、推論、指示追従、ツール呼び出しの精度が優れています。
Nova 2 Sonic は、オリジナルの Nova Sonic モデルの機能を基盤としており、言語サポートの拡大 (ポルトガル語とヒンディー語)、同じ声で異なる言語をネーティブな表現力で話せる Polyglot voices、開発者がポーズの感度を低、中、高に設定できるターンテーキングの制御性などの新機能が追加されています。このモデルには、同じセッション内で音声とテキストをシームレスに切り替えられるクロスモーダルインタラクション、会話の流れを中断せずに複数ステップのタスクをサポートする非同期ツール呼び出し、長時間の対話に対応する100万トークンのコンテキストウインドーも追加されています。
開発者は Amazon Bedrock の双方向ストリーミングAPIを使用して、Nova Sonic 2 をリアルタイム音声システムに直接統合できます。Nova Sonic 2 は、Amazon Connect や Vonage、Twilio、AudioCodes などの主要なテレフォニープロバイダー、さらに LiveKit や Pipecat といったオープンソースフレームワークともシームレスに統合できます。
Amazon Nova 2 Sonic は、Amazon Bedrock にて、US East (N. Virginia)、US West (Oregon)、アジアパシフィック (東京)、Europe (Stockholm) の各AWSリージョンで利用可能です。

TwelveLabs の Pegasus 1.2 モデルが、グローバルなクロスリージョン推論を23のAWSリージョンで利用可能に
Amazon Bedrock は、TwelveLabs の Pegasus 1.2 でグローバルなクロスリージョン推論を導入し、モデルが利用可能なリージョンを既存の7つに加えて23リージョン拡大しました。また、Amazon Bedrock の全てのEUリージョンで、地理的なクロスリージョン推論を使用してモデルにアクセスできるようになりました。地理的なクロスリージョン推論は、特定の地理的境界内でのデータレジデンシーやコンプライアンス要件を持つワークロードに最適であり、グローバルなクロスリージョン推論は、複数の地域にわたる可用性とパフォーマンスを優先するアプリケーションに推奨されます。
Pegasus 1.2 は、ビデオ内の視覚、音声、テキストコンテンツに基づいてテキストを生成できる強力なビデオファーストの言語モデルです。特に長編ビデオ向けに設計されており、ビデオからテキストへの生成と時間的理解に優れています。これらの追加リージョンで Pegasus 1.2 が利用可能になったことで、データやエンドユーザーにより近い場所でビデオインテリジェンスアプリケーションを構築し、レイテンシーの削減とアーキテクチャーの簡素化が可能です。

Strands Agents が TypeScript のサポート(プレビュー)などを発表
5月にオープンソース化された Strands Agents SDK は、わずか数行のコードで AI エージェントを構築・実行するためのモデル駆動型アプローチを採用した、オープンソースの Python フレームワークです。今回のアップデートにより、TypeScript のサポートがプレビューで利用可能になりました。これにより、開発者は Strands Agents の構築に Python と TypeScript のどちらかを選択できます。Strands の TypeScript サポートは、完全な型安全性、async/await サポート、最新の JavaScript/TypeScript パターンを備えた、慣用的な TypeScript エクスペリエンスを提供するように設計されています。Strands は、クライアントアプリケーション、ブラウザー、そして AWS Lambda や Bedrock AgentCore といったランタイム上のサーバーサイドアプリケーションで簡単に実行できます。開発者は AWS CDK を使用して、スタック全体を Typescript で構築することも可能です。
また、Strands SDK に関する3つの追加アップデートも発表されました。
第一に、Strands Agents のエッジデバイスサポートが一般提供開始され、SDK が双方向ストリーミングと llama.cpp のような追加のローカルモデルプロバイダーで拡張されました。これにより、ローカルモデルを使用して小規模デバイスでエージェントを実行できます。
第二に、Strands steering が実験的機能として利用可能になりました。これは、エージェントのライフサイクルの適切なタイミングでフィードバックを提供し、厳格なワークフローなしでエージェントを望ましい結果に導くモジュール式のプロンプトメカニズムです。
最後に、Strands evaluations がプレビューで利用可能になりました。Evaluations は、開発サイクル中にエージェントの動作を体系的に検証し、改善を測定し、自信を持ってデプロイする機能を提供します。

Mistral Large 3 と Ministral 3 ファミリーが Amazon Bedrock で初めて利用可能に
本番規模で生成系 AI アプリケーションやエージェントを構築するためのプラットフォームである Amazon Bedrock で、Mistral Large 3 と Ministral 3 ファミリーのモデルが初めて提供されたほか、Voxtral Mini 1.0、Voxtral Small 1.0、Magistral Small 1.2 などの追加モデルも利用できるようになりました。
Mistral Large 3 は、41B のアクティブパラメーターと 675B の総パラメーターを特長とする、きめ細かい Mixture-of-Experts アーキテクチャーを備えた、最先端のオープンウエートな汎用マルチモーダルモデルで、信頼性と長いコンテキストの理解のために設計されています。14B、8B、3B のモデルで構成される Ministral 3 ファミリーは、言語、ビジョン、指示の各バリアントにわたって競争力のあるチェックポイントを提供するため、開発者はカスタマイズとデプロイに適した規模を選択できます。
Amazon Bedrock はこれらの最先端モデルを最初に提供するプラットフォームであり、お客さまは Mistral AI の最新イノベーションに早期にアクセスできます。Mistral Large 3 は、256K のコンテキストウインドーと強力なエージェント機能をサポートしており、本番グレードのアシスタント、検索拡張システム、複雑なエンタープライズワークフローに優れています。Ministral 3 ファミリーは、柔軟なデプロイオプションでこれを補完します。Ministral 3 14B はローカルデプロイ向けの高度なマルチモーダル機能を、Ministral 3 8B はエッジデプロイとシングル GPU 運用のためのクラス最高のテキストおよびビジョン機能を、Ministral 3 3B は低リソース環境向けのコンパクトなパッケージで堅ろうな機能を提供します。これらのモデルは、最先端のインテリジェンスから効率的なエッジコンピューティングまで、あらゆる領域をカバーします。

Amazon SageMaker が Notebook インスタンスの最新プラットフォームバージョンへのセルフサービス移行をサポート
Amazon SageMaker Notebook インスタンスでセルフサービス移行がサポートされ、UpdateNotebookInstance API を使用してノートブックインスタンスのプラットフォーム識別子を更新できるようになりました。これにより、サポートされていないプラットフォーム識別子 (notebook-al1-v1, notebook-al2-v1, notebook-al2-v2) から、サポートされているバージョン (notebook-al2-v3, notebook-al2023-v1) へシームレスに移行できます。
UpdateNotebookInstance API の新しい PlatformIdentifier パラメーターを使用すると、既存のデータと設定を維持したまま、ノートブックインスタンスプラットフォームを新しいバージョンに更新できます。プラットフォーム識別子は、ノートブックインスタンスが実行するOSと JupyterLab のバージョンの組み合わせを決定します。このセルフサービス機能は移行プロセスを簡素化し、ノートブックインスタンスを常に最新の状態に保つのに役立ちます。
この機能は AWS CLI (バージョン 2.31.27 以降) および SDK を通じてサポートされており、Amazon SageMaker Notebook インスタンスがサポートされている全ての AWS リージョンで利用できます。

Amazon SageMaker HyperPod がチェックポイントレストレーニングをサポート
Amazon SageMaker HyperPod が チェックポイントレストレーニング をサポートするようになりました。これは、障害回復時にチェックポイントベースのジョブレベルでの再起動を不要にする、新しい基盤モデルトレーニング機能です。チェックポイントレストレーニングは、障害が発生してもトレーニングの勢いを維持し、回復時間を数時間から数分に短縮します。
これは、従来のチェックポイントベースの回復からの根本的な転換です。従来の方法では、障害発生時にトレーニングクラスター全体を停止し、手動で問題を診断して保存されたチェックポイントから復元する必要があり、高価なAIアクセラレータが何時間もアイドル状態になることでコンピューティングリソースの無駄が生じていました。チェックポイントレストレーニングは、分散クラスター全体でモデルのトレーニング状態を維持し、障害が発生したトレーニングノードをその場で自動的に交換し、正常なアクセラレータからのピアツーピア状態転送を利用して障害から回復することで、このパラダイムを変革します。
回復時のチェックポイントへの依存を軽減することで、アイドル状態のAIアクセレータにかかるコストを削減し、時間を短縮できます。大規模な環境においても、Amazon SageMaker HyperPod 上の チェックポイントレストレーニングは、数千のAIアクセラレータを持つクラスターサイズで95%以上のトレーニング goodput を実現します。
チェックポイントレストレーニングは、Amazon SageMaker HyperPod が現在利用可能な全てのAWSリージョンで利用できます。Llama や GPT OSS などの一般的な公開モデルには、HyperPod recipes を使用してコード変更なしで チェックポイントレストレーニングを有効にできます。カスタムモデルアーキテクチャーの場合は、PyTorch ベースのワークフローに最小限の変更を加えるだけで チェックポイントレストレーニング コンポーネントを統合できるため、分散トレーニングの専門知識にかかわらずチームで利用できます。

Amazon SageMaker HyperPod が elastic training をサポート
Amazon SageMaker HyperPod が elastic training をサポートするようになりました。これにより、リソースの可用性とワークロードの優先度に基づいてトレーニングワークロードを自動的にスケーリングし、基盤モデルのトレーニングを高速化できます。
従来は、コンピューティングの可用性が変わるたびに手動でジョブを停止・再設定する必要があり、エンジニアリングに時間がかかり、高価なAIアクセラレータがアイドル状態になるという課題がありました。elastic training は、トレーニングを完全に停止することなく、アイドル状態のAIアクセラレータを吸収してジョブを自動的に拡張し、優先度の高いワークロードがリソースを必要とするときにはシームレスに縮小します。
この機能により、手動での再設定が不要になり、コンピューティングリソースを継続的に利用できるため、インフラ管理の時間を節約し、クラスターの利用率を最大化してコストを削減し、市場投入までの時間を短縮できます。トレーニングは最小限のリソースですぐに開始でき、キャパシティが利用可能になるにつれて拡大可能です。
SageMaker HyperPod は、現在 Amazon SageMaker HyperPod が利用可能な全てのリージョンで利用できます。Llama や GPT OSS などの公開モデルでは、HyperPod レシピを使用することでコードを変更することなく elastic training を有効にできます。カスタムモデルアーキテクチャーの場合でも、お客さまは軽量な設定更新と最小限のコード変更で機能を統合でき、分散システムの専門知識は不要です。

Amazon SageMaker Catalog がアセットメタデータをクエリ可能なデータセットとしてエクスポート可能に
Amazon SageMaker Catalog は、Amazon S3 Tables を介してアセットメタデータを Apache Iceberg テーブルとしてエクスポートできるようになりました。これによりデータチームは、リポート作成のためにカスタムETLインフラを構築することなく、標準SQLを使用して「先月登録されたアセット数」や「機密に分類されているアセット」といったカタログのインベントリに関する質問に答えることができます。
この機能は、カタログのアセットメタデータをクエリ可能なテーブルに自動的に変換し、Amazon Athena、SageMaker Unified Studio ノートブック、AI エージェント、その他の分析・BIツールからアクセスできます。エクスポートされるテーブルには、技術メタデータ (resource_id, resource_typeなど)、ビジネスメタデータ (asset_name, business_descriptionなど)、所有者の詳細、タイムスタンプが含まれます。データはタイムトラベルクエリのために `snapshot_date` によってパーティション分割され、`aws-sagemaker-catalog` バケット下の SageMaker Unified Studio に自動的に表示されます。
この機能は、SageMaker Catalog がサポートされている全てのAWSリージョンで追加料金なしで利用できます。料金は、S3 Tables ストレージや Amazon Athena クエリなどの基盤となるサービスに対してのみ発生します。エクスポートされたテーブルに保持ポリシーを設定して、指定した期間より古いレコードを自動的に削除することで、ストレージコストを管理できます。

Amazon SageMaker AI が新しいサーバーレスのモデルカスタマイズ機能を発表
AWS は、AI 開発者が教師ありファインチューニングや強化学習などの最新技術を使用して人気のモデルを迅速にカスタマイズできる、新しいサーバーレスのモデルカスタマイズ機能を発表しました。Amazon SageMaker AI は、あらゆるユースケースに対応する高性能で低コストな AI モデル開発を可能にする幅広いツール群を統合した、フルマネージドサービスです。
多くの AI 開発者は、精度向上のために独自のデータでモデルをカスタマイズしようとしますが、これにはユースケースの定義、データ準備、モデルとカスタマイズ技術の選択、トレーニング、デプロイのための評価といった、長いイテレーションサイクルが必要でした。
AI 開発者は、データ準備から評価、デプロイに至るまでのエンドツーエンドのモデルカスタマイズワークフローを簡素化し、プロセスを加速できるようになりました。使いやすいインターフェースにより、Amazon Nova、Llama、Qwen、DeepSeek、GPT-OSS などの人気のモデルを独自のデータで迅速にカスタマイズできます。教師ありファインチューニングや、強化学習、ダイレクトプリファレンス最適化などの最新のカスタマイズ技術を使用できます。さらに、AI エージェントガイド付きワークフロー (プレビュー) を使用して、自然言語で合成データの生成、データ品質の分析、モデルのトレーニングと評価を、全て完全にサーバーレスで処理できます。
この使いやすいインターフェースは、Europe (Ireland)、US East (N. Virginia)、アジアパシフィック (東京)、US West (Oregon) の AWS リージョンで利用できます。

Amazon SageMaker AI が、AI 開発を高速化するサーバーレス MLflow 機能を発表
Amazon SageMaker AI は、AI モデル開発タスクをサポートするために動的にスケールする、サーバーレスの MLflow 機能を提供するようになりました。MLflow を使用することで、AI 開発者はインフラストラクチャーのセットアップを待つことなく、実験の追跡、比較、評価を開始できます。
これまで MLflow のインフラストラクチャー管理は、追跡サーバーの継続的なメンテナンスやスケーリング、複雑なキャパシティプランニング、データ分離のための個別インスタンスのデプロイなど、管理者に大きな負担をかけていました。このインフラストラクチャーの負担は、本来の AI 開発からリソースを奪い、生産性とコスト効率のボトルネックとなっていました。
今回のアップデートにより、MLflow は要求が厳しく予測不可能なモデル開発タスクに高速なパフォーマンスを提供するために動的にスケールし、アイドル時間にはスケールダウンします。また、管理者は Resource Access Manager (RAM) を介してクロスアカウントアクセスを設定することで、組織の境界を越えたコラボレーションを簡素化し、生産性を向上させることができます。
Amazon SageMaker AI 上のサーバーレス MLflow 機能は追加料金なしで提供され、SageMaker AI JumpStart、SageMaker Model Registry、SageMaker Pipelines といった Amazon SageMaker AI のモデル開発機能とネーティブに連携します。お客さまは、自動バージョンアップデートにより、Amazon SageMaker AI 上で最新バージョンの MLflow にアクセスできます。
MLflow を搭載した Amazon SageMaker AI は、一部の AWS リージョン で利用可能です。

Amazon Q が SES のメール送信の分析をサポート
Amazon Q (Q) は、Amazon Simple Email Service (SES) でのメール送信の分析をサポートするようになりました。お客さまは Q に SES のリソース設定や使用パターンについて質問することで、設定の最適化や配信性の問題のトラブルシュートに関する支援を受けられます。これにより、専門的な知識が少なくても SES の運用活動を管理しやすくなります。
以前は、お客さまが SES の設定や使用状況を調査するには、サービスを操作するためのメール送信に関する深い理解が必要でした。今回のアップデートにより、Q がお客さまの使用パターンと SES のリソース設定を評価し、必要な答えを見つけ、事前の知識や手動での調査なしにコンテキストを理解できるよう支援します。
Q による SES のリソース分析は、SES と Q が利用可能な全ての AWS リージョンでサポートされます。

Amazon Nova Forge が Nova を使用して独自のフロンティアモデルを構築可能に
Nova を使用して独自のフロンティアモデルを構築するための新しいサービスである Nova Forge の一般提供が開始されました。
Nova Forge を使用すると、事前トレーニング、中間トレーニング、または事後トレーニングのフェーズにわたる初期の Nova チェックポイントから、SageMaker AI 上でモデル開発を開始できます。独自のデータと Amazon Nova がキュレーションしたデータを組み合わせてモデルをトレーニングすることが可能です。
また、環境内の報酬関数を使用した Reinforcement Fine Tuning (RFT) の実行や、組み込みの責任あるAIツールキットを使用したカスタムの安全ガードレールの実装など、Nova Forge でのみ利用可能なモデル開発機能も活用できます。Nova Forge を使用すると、推論などの一般的な能力を維持し、壊滅的忘却などのリスクを最小限に抑えながら、組織独自の知識を深く理解し、専門知識を反映したモデルを構築できます。
さらに、Nova Forge のお客さまは、Nova 2 Pro や Nova 2 Omni を含む新しい Nova モデルに早期アクセスできます。
Nova Forge は、米国東部 (バージニア北部) AWS リージョンで利用可能であり、今後数か月以内にほかのリージョンでも利用可能になる予定です。

Amazon Nova Act が一般提供を開始、本番UIワークフローを自動化するエージェントの構築が可能に
Amazon Nova Act の一般提供が開始されました。これは、開発者が本番UIワークフローを自動化するための信頼性の高いエージェントのフリートを構築・管理できる新しい AWS サービスです。Nova Act は、カスタムの Nova 2 Lite モデルを搭載しており、高い信頼性、比類のないコスト効率、最速の価値実現時間、大規模な実装の容易さを特長としています。
Nova Act は、ブラウザーでの反復的なUIワークフローを確実に完了し、APIやツール (例: PDFへの書き込み) を実行し、必要に応じて人間のスーパーバイザーにエスカレーションできます。企業全体の反復的なプロセスを自動化する必要がある開発者は、自然言語の柔軟性と、より決定論的な Python コードを組み合わせてワークフローを定義できます。Nova Act を使用する技術チームは、オンラインプレイグラウンドで迅速にプロトタイピングを開始し、Nova Act IDE 拡張機能を使用してスクリプトを改良・デバッグし、わずか数ステップで AWS にデプロイできます。
Nova Act は、AWS リージョン US East (N. Virginia) で利用可能です。

Amazon Nova 2 基盤モデルが Amazon Bedrock で利用可能に(プレビュー)
AWSは、業界トップクラスの価格性能で推論能力を提供する次世代の汎用モデルである Amazon Nova 2 を発表しました。Amazon Bedrock で利用可能になった新しいモデルは以下の通りです。
* Amazon Nova 2 Lite: 日常的なワークロード向けの、高速でコスト効率の高い推論モデル。
* Amazon Nova 2 Pro (Preview): 非常に複雑で多段階のタスク向けの、最もインテリジェントなモデル。
Amazon Nova 2 Lite と Amazon Nova 2 Pro (Preview) は、前世代のモデルから大幅に進歩しています。これらのモデルは、段階的な推論とタスク分解による拡張思考をサポートし、低、中、高の3つの思考強度レベルを備えているため、開発者は速度、インテリジェンス、コストのバランスを制御できます。また、これらのモデルは、コードインタープリターやWebグラウンディングなどの組み込みツールを提供し、リモート MCP ツールをサポートし、より豊かなインタラクションのために100万トークンのコンテキストウインドーを提供します。
Nova 2 Lite は、日常のさまざまなタスクに使用でき、価格、パフォーマンス、速度の最適な組み合わせを提供します。早期のお客さまは、Nova 2 Lite をカスタマーサービスのチャットボット、ドキュメント処理、ビジネスプロセス自動化に利用しています。Amazon Nova 2 Pro (Preview) は、複数ドキュメントの分析、ビデオ推論、ソフトウェア移行など、非常に複雑なエージェンティックタスクに使用できます。Nova 2 Pro はプレビュー版であり、全ての Amazon Nova Forge のお客さまが早期アクセスを利用できます。
Nova 2 Lite は、Amazon Bedrock と Amazon SageMaker での教師ありファインチューニング (SFT) を使用してカスタマイズでき、Amazon SageMaker では完全なファインチューニングが利用可能です。
Amazon Nova 2 Lite と Amazon Nova 2 Pro (Preview) は、Amazon Bedrock で、複数の場所にあるグローバルなクロスリージョン推論を介して利用可能になりました。

Amazon Bedrock が強化学習によるファインチューニングをサポートし、ベースモデルに比べて平均66%の精度向上を実現
Amazon Bedrock が強化学習によるファインチューニングをサポートし、深層機械学習の専門知識や大量のラベル付きデータがなくてもモデルの精度を向上させることができます。Amazon Bedrock は強化学習ファインチューニングのワークフローを自動化するため、開発者はこの高度なモデルカスタマイズ技術にアクセスしやすくなります。従来のファインチューニングで必要な大量のデータではなく、少数のプロンプトセットを使用して特定の要件に沿うようにモデルを学習させるため、チームは迅速に作業を開始できます。この機能は、同じプロンプトに対する複数の応答候補へのフィードバックを通じてモデルを学習させ、良い応答とは何かを判断する能力を向上させます。
Amazon Bedrock での強化学習ファインチューニングは、ベースモデルに比べて平均66%の精度向上を実現し、高品質を維持しながら、より小型で高速、かつコスト効率の高いモデルバリアントの使用を可能にします。この機能は、高度なモデルカスタマイズを高速、自動、かつ安全にすることで、AIモデルを独自のビジネスニーズに適応させる際の複雑さを解消します。
ラベル付きデータセットは不要で、PCから直接トレーニングデータをアップロードするか、Amazon S3 に保存されているデータセットを選択してモデルをトレーニングできます。検証可能なルールベースのグレーダーやAIベースのジャッジ、組み込みテンプレートを使用して報酬関数を定義し、コード生成や数学的推論といった客観的なタスクと、指示への追従やチャットボットとの対話といった主観的なタスクの両方についてモデルを最適化できます。カスタマイズプロセス全体を通じて、お客さまの専有データがAWSの安全なガバナンス環境外に出ることはないため、セキュリティとコンプライアンスに関する懸念が緩和されます。
Amazon Bedrock での強化学習ファインチューニングは、Amazon Bedrock コンソールと Amazon Bedrock API経由で利用を開始できます。ローンチ時点では Amazon Nova 2 Lite で利用でき、今後さらに多くのモデルがサポートされる予定です。

Amazon Bedrock が、過去最大規模となる18のフルマネージドオープンウエートモデルを追加
Amazon Bedrock は、本番規模で生成AIアプリケーションとエージェントを構築するためのプラットフォームです。統一APIを通じて主要AI企業の幅広いフルマネージドモデルにアクセスでき、アプリケーションを書き換えることなくモデルの評価、切り替え、採用が可能です。
Amazon Bedrock のモデルラインナップに、過去最大となる18のフルマネージドのオープンウエートモデルが追加されました。Amazon Bedrock で以下のモデルにアクセスできるようになりました。
* Google: Gemma 3 4B, Gemma 3 12B, Gemma 3 27B
* MiniMax AI: MiniMax M2
* Mistral AI: Mistral Large 3, Ministral 3 3B, Ministral 3 8B, Ministral 3 14B, Magistral Small 1.2, Voxtral Mini 1.0, Voxtral Small 1.0
* Moonshot AI: Kimi K2 Thinking
* NVIDIA: NVIDIA Nemotron Nano 2 9B, NVIDIA Nemotron Nano 2 VL 12B
* OpenAI: gpt-oss-safeguard-20b, gpt-oss-safeguard-120b
* Qwen: Qwen3-Next-80B-A3B, Qwen3-VL-235B-A22B

Amazon Bedrock が OpenAI の Responses API をサポート
Amazon Bedrock は、新しい OpenAI API 互換のサービスエンドポイントで Responses API をサポートするようになりました。Responses API により、開発者は長時間実行される推論ワークロードに対して非同期推論を実現し、エージェントワークフローのツール使用統合を簡素化し、ステートフルな会話管理もサポートできます。開発者はリクエストごとに会話履歴全体を渡す必要がなくなり、Responses API を使用して手動の履歴管理なしでコンテキストを自動的に再構築できます。
これらの新しいサービスエンドポイントは、ストリーミングモードと非ストリーミングモードの両方をサポートし、Chat Completions API 内でのリーズニングエフォートのサポートを有効にします。また、開発者は OpenAI SDK との互換性を維持しながら、既存のコードベースに統合するためにベース URL を変更するだけで済みます。
推論のリーズニングエフォートのサポートを備えた Chat Completions は、Amazon Bedrock 上で大規模な機械学習モデルのサービングを行うための新しい分散推論エンジンである Project Mantle を搭載した全ての Amazon Bedrock モデルで利用できます。Project Mantle は、Amazon Bedrock への新しいモデルのオンボーディングを簡素化および迅速化し、高度なサービス品質管理を備えた高性能で信頼性の高いサーバーレス推論を提供します。また、自動化されたキャパシティ管理と統合プールにより、お客さまのデフォルトクオータを引き上げ、OpenAI API 仕様との標準での互換性を提供します。
Responses API のサポートは、OpenAI の GPT OSS 20B/120B モデルから利用可能になり、ほかのモデルも近日中にサポートされる予定です。

Amazon Bedrock AgentCore が Policy、Evaluations などを追加(プレビュー)
Amazon Bedrock AgentCore に、Policy (プレビュー) と Evaluations (プレビュー) という新しい機能が導入されました。これにより、チームは組織全体でエージェントのデプロイを自信を持ってスケールさせるために必要な制御と品質保証を得られ、エージェントをプロトタイプから本番ソリューションへと変革できます。
AgentCore の Policy は AgentCore Gateway と統合し、全てのツール呼び出しをリアルタイムでインターセプトすることで、エージェントが速度を低下させることなく定義された境界内にとどまることを保証します。チームは自然言語を使用してポリシーを作成でき、それは AWS のオープンソースポリシー言語である Cedar に自動的に変換されます。これにより、開発、コンプライアンス、セキュリティの各チームは、カスタムコードを記述することなくルールを設定、理解、監査できます。
AgentCore Evaluations は、開発者が実際の動作に基づいてエージェントのパフォーマンスをテストし、継続的に監視することで、品質を向上させ、広範なお客さまへの影響が出る前に問題を検出するのに役立ちます。開発者は、有用性、ツール選択、正確性などの一般的な品質次元に対応する13の組み込み評価ツールを使用したり、カスタムのモデルベースのスコアリングシステムを作成したりでき、評価インフラストラクチャーの開発に必要な労力を大幅に削減します。全ての品質メトリクスは、Amazon CloudWatch を利用した統合ダッシュボードからアクセスできます。
また、AgentCore Memory、AgentCore Runtime、AgentCore Identity にも新機能が追加され、より高度なエージェント機能がサポートされるようになりました。AgentCore Memory にはエピソード記憶が含まれ、エージェントが経験から学習・適応し、時間をかけて知識を構築することで、より人間らしいインタラクションを生み出すことができます。AgentCore Runtime は、自然な会話のための双方向ストリーミングをサポートしており、エージェントは会話の途中で割り込みやコンテキストの変更を処理しながら、同時に聞き取りと応答を行うことができ、強力な音声エージェントのユースケースを可能にします。AgentCore Identity は、選択した ID プロバイダーとのシームレスな統合を維持しつつ、マルチテナント環境全体で認証ルールを強化するためのカスタムクレームをサポートするようになりました。
AgentCore Evaluations は、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (シドニー)、欧州 (フランクフルト) の4つの AWS リージョンでプレビュー版として利用可能です。AgentCore の Policy は、AgentCore が利用可能な全ての AWS リージョンでプレビュー版として利用できます。
AgentCore は、初期費用なしの従量課金制で提供されます。

Amazon Bedrock AgentCore Runtime が双方向ストリーミングをサポート
Amazon Bedrock AgentCore Runtime が双方向ストリーミングをサポートしました。これにより、エージェントが会話の途中の割り込みや文脈の変化に対応しながら、同時に聞き取りと応答を行うリアルタイムな会話が可能になります。
従来のエージェントでは、応答が終わるまで待つ必要があり、会話の流れが不自然になるという課題がありました。双方向ストリーミングはこの制限を解消し、ユーザーが途中で割り込める自然な会話体験を実現します。この特長は特に音声エージェントに有効で、テキストベースの対話における応答性も向上させます。
この機能は AgentCore Runtime に組み込まれているため、リアルタイムストリーミング機能の構築にかかる開発工数が不要になり、開発者は革新的なエージェント体験の構築に集中できます。
AgentCore Runtime の従量課金制では、エージェントの実行中に消費されたアクティブなリソースに対してのみ支払いが発生し、アイドル時間や前払い費用はかかりません。
この機能は、Amazon Bedrock AgentCore Runtime が利用可能な US East (バージニア北部)、US East (オハイオ)、US West (オレゴン)、アジアパシフィック (ムンバイ)、アジアパシフィック (シンガポール)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、欧州 (フランクフルト)、欧州 (アイルランド) の9つの AWS リージョンで利用できます。

管理とガバナンス

オペレーショナルエクセレンスを実現する AWS DevOps Agent を発表(プレビュー)
AWS DevOps Agent のプレビュー版を開始しました。これは、インシデントを解決しプロアクティブに防止するエージェントであり、AWS、マルチクラウド、ハイブリッド環境におけるアプリケーションの信頼性とパフォーマンスを継続的に向上させます。AWS DevOps Agent は、経験豊富な DevOps エンジニアのようにインシデントを調査し、運用の改善点を特定します。そのために、リソースとその関係を学習し、可観測性ツール、runbooks、コードリポジトリ、CI/CD パイプラインと連携し、それら全体のテレメトリ、コード、デプロイメントデータを相関させてアプリケーションリソース間の関係を理解します。
AWS DevOps Agent はインシデントを自律的にトリアージし、チームを迅速な解決に導くことで平均解決時間 (MTTR) を短縮します。深夜2時であろうとピーク時であろうと、アラートが来た瞬間に調査を開始し、アプリケーションを迅速に最適なパフォーマンスに復元します。また、過去のインシデント全体のパターンを分析し、可観測性、インフラストラクチャーの最適化、デプロイメントパイプラインの強化といった主要分野を強化するための、実用的な推奨事項を提供します。AWS DevOps Agent は、ワークフローを変更することなく、運用データやツールに眠る未活用のインサイトへのアクセスを支援します。
AWS DevOps Agent は、プレビュー期間中、米国東部 (バージニア北部) リージョンで追加費用なしで利用できます。

Amazon CloudWatch が、運用、セキュリティ、コンプライアンスデータの統合管理と分析を開始
Amazon CloudWatch は、AWS 環境とサードパーティーソースにまたがる運用、セキュリティ、コンプライアンスデータを統合するための、新しいデータ管理および分析機能を提供するようになりました。これにより、DevOps チーム、セキュリティアナリスト、コンプライアンス担当者は、全てのデータに一元的にアクセスでき、複数のデータストアや複雑な ETL パイプラインを維持する必要がなくなります。
CloudWatch ネーティブまたは任意の Apache Iceberg 互換ツールの両方で、お客さまがデータからインサイトを得る際の柔軟性が向上します。統合データストアの強化により、お客さまは地理的境界、ビジネスユニット、またはペルソナ固有の要件に合わせて、AWS アカウントやリージョンをまたいでログを簡単に収集・集約できます。AWS CloudTrail、Amazon VPC、Amazon WAF などの AWS ソースや、Crowdstrike、Okta、Palo Alto Networks などのサードパーティーソースからのログも簡単に集約可能です。
お客さまはパイプラインを使用して、セキュリティ分析のためにログを Open Cybersecurity Schema Framework (OCSF) などの標準フォーマットに変換・エンリッチしたり、ファセットを定義してインサイトの取得を高速化したりできます。追加のストレージ料金なしで、マネージド Amazon S3 テーブルでデータを利用可能にでき、Amazon SageMaker Unified Studio、Amazon Quick Suite、Amazon Athena、Amazon Redshift、または任意の Apache Iceberg 互換分析ツールでデータをクエリできます。

Amazon CloudWatch が AWS CloudTrail イベントの有効化を簡素化
AWS のリソースやアプリケーションのログデータを収集、監視、分析する監視・ロギングサービスである Amazon CloudWatch で、AWS CloudTrail イベントの有効化が簡素化されました。
Amazon VPC フローログや Amazon EKS Control Plane Logs などの一般的な AWS ログソースと並行して、CloudWatch での CloudTrail イベントの収集を一元的に設定できます。CloudWatch の取り込み機能は統合されたビューを提供し、AWS Organization 内のアカウントについて、さまざまなソースからのテレメトリ収集を簡素化することで、AWS 環境全体にわたる包括的な監視とデータ収集を確実なものにします。
この新しい統合では、サービスリンクトチャンネル (SLC) を活用することで、証跡 (trail) を必要とせずに CloudTrail からイベントを受信でき、セーフティチェックや終了保護といった追加の利点も得られます。
料金については、CloudTrail のイベント配信料金と、カスタムログの料金設定に基づく CloudWatch Logs の取り込み料金の両方が発生します。

Amazon CloudWatch GenAI 可観測性が Amazon AgentCore Evaluations をサポート
Amazon CloudWatch は、AgentCore Evaluations を通じて AI エージェントの自動品質評価を可能にしました。この新機能により、開発者は実際のインタラクションに基づいてエージェントのパフォーマンスを継続的に監視・改善し、お客さまに影響が及ぶ前に品質問題を特定して対処できます。
AgentCore Evaluations には、有用性、ツール選択、応答の正確性といった重要な品質ディメンションをカバーする13の事前構築済み評価機能が付属しており、カスタムのモデルベースのスコアリングシステムもサポートしています。CloudWatch ダッシュボードで統一された品質メトリクスとエージェントテレメトリにアクセスでき、エンドツーエンドのトレース機能を使用して評価メトリクスをプロンプトやログと関連付けることが可能です。
この機能は、Application Signals、Alarms、Sensitive Data Protection、Logs Insights といった既存の CloudWatch 機能とシームレスに統合されます。これにより、チームがカスタムの評価インフラストラクチャーを構築および維持する必要がなくなり、高品質な AI エージェントのデプロイが加速します。開発者は、CloudWatch GenAI 可観測性コンソールの AgentCore セクションを通じて、エージェントフリート全体を監視できます。
AgentCore Evaluations は、US East (バージニア北部)、US West (オレゴン)、Europe (フランクフルト)、アジアパシフィック (シドニー) で利用可能です。基盤となるテレメトリデータには、標準の CloudWatch 料金が適用されます。

移行と転送

AWS が組織全体のアプリケーションモダナイゼーションを加速する AWS Transform custom を発表
AWS Transform custom が一般提供開始されました。これは エージェンティックAI を使用して、組織固有のコードとアプリケーションの大規模なモダナイゼーションを加速するサービスです。
AWS Transform は、Windows、メインフレーム、VMware などのトランスフォーメーションを加速する初の エージェンティックAI サービスであり、技術的負債を削減し、技術スタックを AI 対応にします。組織はレガシーシステムや古いコードを維持することで技術的負債を蓄積し、ソフトウェア開発リソースの 20〜30% を手動で行う必要がある反復的な変換タスクに費やしています。AWS Transform は、バージョンアップグレード、ランタイム移行、フレームワーク移行、言語翻訳といった反復的なトランスフォーメーションを大規模に自動化でき、多くの場合で実行時間を 80% 以上削減し、専門的な自動化の専門知識を不要にします。
AWS Transform のカスタムトランスフォーメーションエージェントは、事前構築済みソリューションとカスタムソリューションの両方を提供します。これには、Python および Node.js のランタイムアップグレード、Lambda 関数のモダナイゼーション、複数言語にわたる AWS SDK の更新、Java 8 から 17 へのアップグレード (Gradle や Maven を含むあらゆるビルドシステムをサポート) といった一般的なシナリオ向けの、すぐに使えるトランスフォーメーションが含まれています。組織固有のニーズに合わせて、チームは自然言語、参照ドキュメント、コードサンプルを使用してカスタムトランスフォーメーションを定義できます。
ユーザーは、単純な 1 行の CLI コマンドで自律的なトランスフォーメーションをトリガーでき、これはスクリプト化したり、既存のパイプラインやワークフローに埋め込んだりすることが可能です。組織内では、エージェントは開発者のフィードバックと実行結果から継続的に学習し、トランスフォーメーションの精度を向上させます。このアプローチにより、組織は技術的負債に大規模かつ体系的に対処できるようになり、開発者はイノベーションや影響の大きいタスクに集中できます。
AWS Transform custom は、US East (N. Virginia) AWS Region で利用可能です。

AWS Transformが、フルスタックのWindowsモダナイゼーションのための AI エージェントを発表
AWS Transform は、.NET モダナイゼーションエージェントから機能を拡張し、.NET アプリケーションと関連データベースの両方を処理するフルスタックの Windows モダナイゼーションエージェントを含むようになりました。この新しいエージェントは、.NET アプリケーションと Microsoft SQL Server データベースを Amazon Aurora PostgreSQL へ自動的に変換し、Amazon ECS または Amazon EC2 Linux 上のコンテナにデプロイします。AWS Transform は、アプリケーションとデータベースのレイヤーにわたってフルスタックの Windows モダナイゼーションを 5 倍高速化し、運用コストを最大 70% 削減します。
AWS Transform を使用することで、お客さまは自動化された検出、変換、デプロイを通じて、フルスタックのモダナイゼーションを加速できます。フルスタックの Windows モダナイゼーションエージェントは、Amazon EC2 または Amazon RDS インスタンス内の Microsoft SQL Server データベースと、ソースリポジトリ (GitHub, GitLab, Bitbucket, または Azure Repos) の .NET アプリケーションコードをスキャンして、カスタマイズ可能で編集可能なモダナイゼーションプランを作成します。SQL Server のスキーマを Aurora PostgreSQL に自動的に変換し、データベースを新規または既存の Aurora PostgreSQL ターゲットクラスターに移行します。.NET アプリケーションの変換では、エージェントはソースコード内のデータベース接続を更新し、Entity Framework と ADO.NET で書かれたデータベースアクセスコードを Aurora PostgreSQL と互換性があるように変更します。これら全ては、人の監視のもと、統一されたワークフローで行われます。
変換された全てのコードは、新しいリポジトリブランチにコミットされます。最後に、変換されたアプリケーションとデータベースを新規または既存の環境にデプロイして検証できます。お客さまは、作業ログの更新やインタラクティブなチャットを通じて変換の進捗状況を監視でき、詳細な変換サマリーを次のステップの推奨事項や AI コードコンパニオンへの簡単な引き継ぎに利用できます。
フルスタックの Windows モダナイゼーション向けの AWS Transform は、米国東部 (バージニア北部) AWS リージョンで利用可能です。

AWS Transform が、エンタープライズの VMware マイグレーション向けに新しいエージェンティックAI 機能を追加
AWS Transform に、VMware から AWS へのマイグレーションを自動化する、強力で新しいエージェンティックAI機能が追加されました。マイグレーションエージェントはマイグレーションチームと連携してビジネスの優先順位を理解し、数千台のサーバーにまたがる数百のアプリケーションのマイグレーションをインテリジェントに計画・実行することで、手作業、時間、複雑さを大幅に削減します。
このエージェントは、AWS Transform の検出ツール、さまざまなサードパーティー製検出ツールのインベントリデータ、ドキュメントやメモなどの非構造化データを使用して、オンプレミス環境を検出し、移行対象アプリケーションの優先順位を決定できるようになりました。インフラ、データベース、アプリケーションの詳細を分析し、依存関係をマッピングして、所有者、部門、機能、サブネット、OSといったビジネス上および技術上の優先順位でグループ化された移行計画を生成します。
また、ハブアンドスポーク構成や分離されたネットワーク構成を生成し、柔軟なIPアドレス管理オプションを提供します。複数のアカウントへのデプロイ、AWS ランディングゾーン用のネットワーク構成の生成、NSX、Palo Alto、Fortigate、Cisco ACI などのソース環境からの移行も行います。エージェントは、サーバーを安全かつ反復的にウェーブ単位で AWS に移行し、デプロイメント全体を通じて明確な進捗状況を報告します。Windows および Linux x86 サーバー、VMware、HyperV、Nutanix、KVM などのハイパーバイザー、ベアメタルの物理環境を複数のターゲットアカウントに移行することも可能です。
移行プロセス全体を通じて、ステップの繰り返しやスキップ、計画の調整など、意思決定に関する質問をエージェントに投げかけることができます。社内承認を簡素化するために、エージェントは移行計画と、ネットワーク、サーバー、アプリケーションのマッピングを含む詳細なリポートも生成します。
AWS Transform を使用することで、価値実現までの時間を短縮し、リスクを低減し、VMware マイグレーションの複雑さを軽減できます。これらの新機能は、AWS Transform が提供されている全ての AWS リージョンで利用でき、16 の AWS リージョンへのサーバーとネットワークの移行をサポートしています。

AWS Transform が .NET 変換機能を拡張し、開発者エクスペリエンスを向上
AWS Transform において、.NET 変換機能の拡張と強化された開発者エクスペリエンスが一般提供開始されました。お客さまは .NET Framework および .NET コードを .NET 10 または .NET Standard にモダナイズできるようになりました。
新しい変換機能には、ASP.NET Web Forms の UI を ASP.NET Core 上の Blazor に移植する機能や、Entity Framework ORM コードの移植機能が含まれます。AWS Toolkit for Visual Studio 2026 または 2022 で利用可能な新しい開発者エクスペリエンスは、カスタマイズ可能でインタラクティブ、かつ反復的なものです。これには、編集可能な変換計画、変換時間の見積もり、変換中のリアルタイム更新、修正された計画での変換の繰り返し機能、AI コードコンパニオンへの簡単な引き継ぎのための Next Steps マークダウンが含まれます。
これらの機能強化により、AWS Transform は、より多くのプロジェクトタイプに対して最新の .NET への移行パスを提供し、.NET と Visual Studio の最新リリースをサポートすることで、開発者が変換を監視・制御できるようになります。
開発者は、強化された IDE エクスペリエンスを通じて .NET のモダナイゼーションを効率化できます。このプロセスは、カスタマイズ可能な変換計画を生成する自動コード分析から始まります。開発者はパッケージ更新の微調整など、この計画をカスタマイズ可能です。変換中は透明性の高い進捗追跡と詳細なアクティビティログが提供されます。完了後には、Linux 対応要件などの残りのタスクを概説した Next Steps ドキュメントが提供され、AWS Transform の追加の反復処理や Kiro などの AI コードコンパニオンツールで対処できます。
AWS Transform は、米国東部 (バージニア北部)、アジアパシフィック (ムンバイ)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン) の AWS リージョンで利用可能です。

AWS Transform for mainframe が新しいテスト自動化機能を提供開始
AWS Transform for mainframe は、メインフレームのモダナイゼーションプロジェクトを加速させるためのテスト計画および自動化機能の提供を開始しました。
新機能には、テスト計画の自動生成、テストデータ収集スクリプト、テストケース自動化スクリプト、および継続的デリバリーと回帰テスト用の機能テスト環境ツールが含まれます。これにより、メインフレームのモダナイゼーションにおけるテストと検証を加速し、リスクを軽減します。
この新機能は、モダナイゼーションのライフサイクル全体における主要なテスト課題に対応し、プロジェクト期間の50%以上を占めることが多いテストに必要な時間と労力を削減します。テスト計画の自動生成は初期の計画作業を減らし、テストデータ収集スクリプトはエラーが発生しやすい複雑なデータキャプチャープロセスを高速化します。テスト自動化スクリプトは、テスト環境のステージング、テストケースの実行、結果検証を自動化し、スケーラブルなテスト実行を可能にします。
複雑なテストタスクを自動化し、希少なメインフレームの専門知識への依存を減らすことで、組織は一貫した自動化プロセスを通じて精度を向上させながら、より高い信頼性でアプリケーションをモダナイズできます。
AWS Transform for mainframe の新しいテスト機能は、米国東部 (バージニア北部)、アジアパシフィック (ムンバイ)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、ヨーロッパ (フランクフルト)、ヨーロッパ (ロンドン) の各リージョンで利用可能です。

AWS Transform for mainframe がアプリケーションの再構想をサポート
AWS Transform for mainframe は、メインフレームアプリケーションの再構想を推進するための包括的なインサイトを抽出する、新しいデータおよびアクティビティ分析機能を提供します。これらのインサイトはビジネスロジックの抽出と組み合わせることで、レガシーアプリケーションを論理的なビジネスドメインに分解するのに役立ちます。これらは合わせて、Kiro のようなコーディングエージェントがアプリケーションをクラウドネーティブアーキテクチャーに再構想するための、包括的な仕様の基礎となります。
この新しい機能により、組織はレガシーワークロードを再構想できるようになり、自動化されたコードとデータ構造の分析、アクティビティ分析、技術文書の生成、ビジネスロジックの抽出、インテリジェントなコード分解を含む、包括的なリバースエンジニアリングワークフローが提供されます。詳細なデータおよびアクティビティ分析を通じて、AWS Transform は使用率やビジネス価値の高いアプリケーションコンポーネントの特定を支援し、チームがモダナイゼーションの取り組みを最適化し、データに基づいたアーキテクチャー上の意思決定を行えるようにします。
AI を活用したチャットインターフェースでは、ユーザーは柔軟なジョブプランを通じてモダナイゼーションのアプローチをカスタマイズできます。これにより、事前に定義された包括的なワークフロー (完全なモダナイゼーション、分析重視、ビジネスロジック重視) を選択したり、特定の目的に基づいて独自の機能の組み合わせを作成したりすることが可能です。
AWS Transform for mainframe の再構想機能は、米国東部 (バージニア北部)、アジアパシフィック (ムンバイ)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (東京)、カナダ (中部)、欧州 (フランクフルト)、欧州 (ロンドン) の各リージョンで利用可能になりました。

セキュリティ、アイデンティティ、コンプライアンス

Amazon GuardDuty Extended Threat Detection が Amazon EC2 と Amazon ECS をサポート
Amazon GuardDuty Extended Threat Detection が機能強化され、Amazon Elastic Compute Cloud (Amazon EC2) インスタンスや、AWS Fargate または Amazon EC2 上で動作する Amazon Elastic Container Service (Amazon ECS) クラスターを標的とした多段階攻撃を検出する新機能が追加されました。
GuardDuty Extended Threat Detection は、AWS スケールでトレーニングされた人工知能と機械学習アルゴリズムを使用して、セキュリティシグナルを自動的に関連付け、重大な脅威を検出します。ネットワークアクティビティ、プロセスランタイムの動作、マルウェアの実行、AWS API アクティビティなど、複数のセキュリティシグナルを長期間にわたって分析し、見過ごされがちな高度な攻撃パターンを検出します。
今回のアップデートにより、GuardDuty は AttackSequence:EC2/CompromisedInstanceGroup と AttackSequence:ECS/CompromisedCluster という2つの新しい重大な検出結果を導入します。これらの検出結果は攻撃シーケンス情報を提供するため、初期分析の時間を短縮し、重大な脅威への対応により多くの時間を費やすことで、ビジネスへの影響を最小限に抑えることができます。例えば、GuardDuty は不審なプロセスの後に続く永続化の試み、暗号マイニング活動、リバースシェルの作成などを特定し、これらの関連イベントを単一の重大な検出結果として表示します。各検出結果には、詳細なサマリー、イベントのタイムライン、MITRE ATT&CK® の戦術と技術へのマッピング、および修復の推奨事項が含まれます。
GuardDuty Extended Threat Detection は、GuardDuty のお客さまには追加費用なしで自動的に有効化されますが、その検出の網羅性は有効化されている GuardDuty 保護プランに依存します。Amazon EC2 インスタンスの攻撃シーケンスのカバレッジと脅威分析を向上させるには、EC2 のランタイムモニターリングを有効にする必要があります。侵害された ECS クラスターの検出を有効にするには、インフラストラクチャーの種類に応じて、Fargate または EC2 のランタイムモニターリングを有効にする必要があります。

AWS Security Hub が、ほぼリアルタイムのリスク分析機能を搭載して一般提供を開始
AWS Security Hub の一般提供が開始されました。これは、重要なセキュリティ問題の優先順位付け、大規模な対応、セキュリティリスクの低減、チームの生産性向上を支援する統合クラウドセキュリティソリューションです。
今回の一般提供により、Security Hub には、ほぼリアルタイムのリスク分析、高度なトレンド分析、統合された有効化と管理、複数の AWS セキュリティサービスにまたがる合理化された料金体系が追加されました。Security Hub は、Amazon GuardDuty、Amazon Inspector、AWS Security Hub CSPM からのセキュリティシグナルを関連付けて強化することで重要なリスクを検出し、クラウド環境内のアクティブなリスクを迅速に特定して優先順位を付けることができます。また、強化された可視化とコンテキストの強化を通じて、関連付けられたセキュリティシグナルを実用的なインサイトに変換します。
Security Hub は、一元的なデプロイと管理により、個々のアカウントまたは AWS Organization 全体で有効にできます。これらの新機能は、エクスポージャーの検出、セキュリティに特化したリソースインベントリ、攻撃経路の可視化、チケットシステムと統合された自動応答ワークフローといった既存の機能を補完します。この一元管理は、複数のコンソールでの手動による関連付けを不要にし、大規模な修正を合理化して運用上の中断を最小限に抑えます。さらに、複数の AWS セキュリティサービスの料金を統合した合理的な料金体系により、コストの予測可能性も向上します。
このサービスは、攻撃者が脅威、脆弱性、設定ミスを連鎖させて重要なリソースを侵害する方法を示すことで、潜在的な攻撃経路を自動的に可視化し、より包括的な分析による深いリスクコンテキストを提供します。既存の AWS セキュリティサービスと統合されているため、追加の運用オーバーヘッドなしで、より包括的なセキュリティ体制を構築できます。

AWS Security Agent がプロアクティブなアプリケーションセキュリティのための AI エージェントを発表(プレビュー)
今回のアップデートにより、AI を活用して開発ライフサイクル全体でアプリケーションをプロアクティブに保護するエージェント、AWS Security Agent のプレビュー版が発表されました。AWS Security Agent は、組織の要件に合わせた自動セキュリティレビューと、コンテキストを認識したペネトレーションテストを実施します。設計からデプロイまで継続的にセキュリティを検証することで、開発の早い段階で全ての環境にわたる脆弱性の発生を防ぎます。
セキュリティチームは、承認された暗号化ライブラリ、認証フレームワーク、ロギング標準など、組織のセキュリティ要件を AWS Security Agent コンソールで一度定義します。その後、AWS Security Agent は、定義された標準に照らしてアーキテクチャードキュメントとコードを評価することで、開発全体でこれらの要件を自動的に検証し、違反が検出された場合には具体的なガイダンスを提供します。デプロイ検証では、セキュリティチームがペネトレーションテストの範囲を定義すると、AWS Security Agent がアプリケーションのコンテキストを把握し、高度な攻撃チェーンを実行して、脆弱性を発見・検証します。
これにより、全てのチームで一貫したセキュリティポリシーが適用され、開発速度に合わせてセキュリティレビューを拡張できます。また、定期的なボトルネックであったペネトレーションテストを、リスクを大幅に削減するオンデマンド機能へと変革します。
AWS Security Agent (プレビュー) は、現在、米国東部 (バージニア北部) リージョンで利用可能です。お客さまのデータは全て安全かつプライベートに保たれ、クエリやデータがモデルのトレーニングに使用されることはありません。AWS Security Agent は、監査とコンプライアンスのために API アクティビティを AWS CloudTrail に記録します。

ストレージ

Amazon S3 が最大オブジェクトサイズを 50 TB に引き上げ
Amazon S3 は、全ての AWS リージョンで最大オブジェクトサイズを、以前の 5 TB から 10 倍の 50 TB に増加しました。これにより、高解像度ビデオ、地震データファイル、AI トレーニングデータセットなどの大きなオブジェクトの処理が簡素化されます。
50 TB のオブジェクトは全ての S3 ストレージクラスに保存でき、S3 Lifecycle を使用した自動アーカイブや S3 Replication を使用したコピーなど、全ての S3 機能で利用できます。大きなオブジェクトのアップロードとダウンロードのパフォーマンスは、AWS SDK の最新の AWS Common Runtime (CRT) と S3 Transfer Manager を使用して最適化できます。

Amazon S3 Vectors がプレビュー版の40倍のスケールで一般提供を開始
ベクトルをネーティブに保存・クエリできる初のクラウドオブジェクトストレージである Amazon S3 Vectors が、一般提供を開始しました。S3 Vectors は、AI エージェント、推論、Retrieval Augmented Generation (RAG)、セマンティック検索向けに、数十億ベクトル規模で専用に構築され、コストが最適化されたベクトルストレージを提供します。S3 Vectors は Amazon S3 と同等の弾力性、耐久性、可用性を提供するように設計されており、ベクトルのアップロード、保存、クエリにかかる総コストを最大90%削減します。
今回の一般提供開始により、インデックス当たり最大20億のベクトルを保存・クエリでき、ベクトルバケット当たり最大10,000のベクトルインデックスまで弾力的にスケールできます。頻度の低いクエリは引き続き1秒以内に結果を返しますが、より頻繁なクエリではレイテンシーが約100ミリ秒以下になります。アプリケーションは、インデックスへの単一ベクトル更新のストリーミング時に毎秒1,000ベクトルの書き込みスループットを達成し、クエリごとに最大100件の検索結果を取得し、クエリでのきめ細かいフィルターリングのために各ベクトルに最大50個のメタデータキーを保存できます。
S3 Vectors では、耐久性のある低コストのベクトルストレージに最適化された新しいバケットタイプ「ベクトルバケット」が提供されます。ベクトルバケット内でベクトルデータをベクトルインデックスで整理し、インフラをプロビジョニングすることなく、ベクトルを保存、アクセス、クエリするための専用APIセットを利用できます。デフォルトでは、S3 Vectors はベクトルバケット内の全てのベクトルデータをS3マネージドキー (SSE-S3) を使用したサーバーサイド暗号化で暗号化します。オプションで、AWS Key Management Service (SSE-KMS) を使用して、ベクトルバケット内の全ての新しいベクトルインデックスを暗号化するためのデフォルトのカスタマーマネージドキーを設定できます。ベクトルインデックスごとに専用のカスタマーマネージドキーを設定することも可能になり、スケーラブルなマルチテナントアプリケーションの構築や、規制およびガバナンス要件への対応に役立ちます。また、属性ベースのアクセス制御 (ABAC) のためにベクトルバケットとインデックスにタグを付けたり、AWS 請求とコスト管理 を使用してコストを追跡・整理したりすることもできます。
S3 Vectors は Amazon Bedrock Knowledge Bases と統合し、RAG で大規模なベクトルデータセットを使用するコストを削減します。Amazon Bedrock または Amazon SageMaker Unified Studio で Knowledge Base を作成する際に、既存の Amazon S3 ベクトルインデックスを選択するか、Quick Create ワークフローを使用して新しいインデックスを作成できます。Amazon OpenSearch Service を使用すると、OpenSearch がS3内のベクトルストレージを自動的に管理するように設定することで、ハイブリッド検索ワークロードのコストを最適化できます。
S3 Vectors は、プレビュー時の5リージョンから拡大し、14のAWSリージョンで一般提供が開始されました。

Amazon S3 Tables が Intelligent-Tiering ストレージクラスを提供開始
Amazon S3 Tables で Intelligent-Tiering ストレージクラスが利用可能になりました。これは、パフォーマンスへの影響や運用上のオーバーヘッドなしに、アクセスパターンに基づいてコストを最適化します。Intelligent-Tiering は、アクセスパターンの変化に応じてテーブル内のデータを3つの低レイテンシーアクセスティア間で自動的に移動させ、ストレージコストを最大80%削減します。さらに、コンパクション、スナップショットの有効期限切れ、参照されていないファイルの削除といった S3 Tables の自動メンテナンス操作によって、データが上位のティアに移動することはありません。これにより、ストレージコストを節約しながら、テーブルを最適化された状態に保つことができます。
Intelligent-Tiering ストレージクラスを使用すると、30日間連続でアクセスされなかったテーブル内のデータは、自動的に Infrequent Access ティア (Frequent Access ティアより40%低コスト) に移動します。90日間アクセスがない場合、そのデータは Archive Instant Access ティア (Infrequent Access ティアより68%低コスト) に移動します。テーブルの作成時に Intelligent-Tiering をストレージクラスとして選択したり、テーブルバケット内の全ての新しいテーブルのデフォルトとして設定したりできるようになりました。
Intelligent-Tiering ストレージクラスは、S3 Tables が利用可能な全ての AWS リージョンで利用できます。

Amazon S3 Tables が Apache Iceberg テーブルの自動レプリケーションをサポート
Amazon S3 Tables が、AWS リージョン とアカウントをまたいだ Apache Iceberg テーブルの自動レプリケーションをサポートするようになりました。この新機能は、全てのスナップショットとメタデータを含む完全なテーブル構造を複製し、グローバルな分析ワークロードにおけるクエリのレイテンシーを削減し、データアクセシビリティーを向上させます。
S3 Tables のレプリケーションは、宛先のテーブルバケットに読み取り専用のレプリカテーブルを自動的に作成し、ソーステーブルの最新の状態でバックフィルを行い、新しい更新を継続的に監視してレプリカを同期させます。レプリカテーブルは、コンプライアンスとデータ保護の要件を満たすために、ソーステーブルとは独立したスナップショット保持ポリシーと暗号化キーで設定できます。レプリカテーブルは、Amazon SageMaker Unified Studio や、Amazon Athena、Amazon Redshift、Apache Spark、DuckDB などの Iceberg 互換エンジンを使用してクエリを実行できます。
S3 Tables のレプリケーションは、S3 Tables がサポートされている全ての AWS リージョン で利用できます。

Amazon S3 Storage Lens が、パフォーマンスメトリクス、数十億のプレフィックスのサポート、S3 Tables へのエクスポートを追加
Amazon S3 Storage Lens は、ストレージの使用状況とアクティビティを組織全体で可視化し、コストの最適化、パフォーマンスの向上、データ保護の強化を支援します。今回のアップデートにより、S3 Storage Lens に3つの新機能が追加され、S3 のストレージ使用状況とアプリケーションのパフォーマンスに関するより深いインサイトが得られるようになりました。
追加された機能の1つ目は、アプリケーションが S3 データとどのようにやりとりするかを把握するためのパフォーマンスメトリクスです。これには、非効率なリクエストを特定するアクセスパターンメトリクス、クロスリージョンアクセスによる影響を示すリクエストオリジンメトリクス、キャッシングなどで最適化可能なオブジェクトを特定するオブジェクトアクセス数メトリクスが含まれます。
2つ目は、プレフィックス分析の拡張です。バケット当たり数十億のプレフィックスを分析できるようになり、全てのプレフィックスにわたるストレージの使用状況とアクティビティを可視化できます。これまでは、メトリクスは最小サイズと深度のしきい値を満たす最大のプレフィックスに限定されていました。
3つ目は、メトリクスをマネージド S3 Tables に直接エクスポートする機能です。これにより、Amazon QuickSight などの AWS 分析サービスですぐにクエリしたり、ほかの AWS サービスデータと結合してより深いインサイトを得たりすることが可能になります。
パフォーマンスメトリクスと拡張プレフィックスは、S3 Storage Lens の高度なメトリクスダッシュボード設定で有効にできます。これらの機能は、AWS 中国リージョンと AWS GovCloud (US) リージョンを除く全ての AWS リージョンで利用可能です。S3 Tables へのメトリクスエクスポートは、S3 Tables が利用可能な AWS リージョンにおいて、無料および高度なダッシュボード設定の両方で有効にできます。

Amazon S3 Batch Operations がパフォーマンスを改善
Amazon S3 Batch Operations は、1ジョブ当たり最大200億オブジェクトの規模でジョブを最大10倍速く完了し、大規模なストレージ操作の高速化を支援します。S3 Batch Operations を使用すると、ステージングバケットと本番バケット間でのオブジェクトのコピー、S3 Lifecycle 管理のためのオブジェクトへのタグ付け、保存されたデータセットのコンテンツを検証するためのオブジェクトチェックサムの計算といった大規模な操作を実行できます。S3 Batch Operations は、追加の設定やコストなしで、数百万のオブジェクトを処理するジョブにおいて、オブジェクトの前処理、ジョブの実行、完了リポートの生成を最大10倍高速化します。
利用を開始するには、AWS マネジメントコンソール でジョブを作成し、操作タイプと、バケット、プレフィックス、作成日などのフィルターを指定します。S3 は自動的にオブジェクトリストを生成し、必要に応じてアクセス許可ポリシーを持つ AWS Identity and Access Management (IAM) ロールを作成して、ジョブを開始します。S3 Batch Operations のパフォーマンス向上は、AWS China Regions と AWS GovCloud (US) Regions を除く全ての AWS リージョン で利用可能です。

Amazon FSx for NetApp ONTAP が Amazon S3 アクセスをサポート
Amazon S3 Access Points を Amazon FSx for NetApp ONTAP ファイルシステムにアタッチして、ファイルデータを S3 にあるかのようにアクセスできるようになりました。この新機能により、FSx for NetApp ONTAP 上のファイルデータをファイルシステム内に保持したまま、S3 と連携する幅広い人工知能、機械学習、分析サービスやアプリケーションで簡単に利用できます。
Amazon FSx for NetApp ONTAP は、クラウドで唯一の完全なフルマネージド NetApp ONTAP ファイルシステムであり、NetApp ONTAP やほかの NAS アプライアンスに依存するオンプレミスアプリケーションを、データ管理方法を変更することなく AWS に移行できます。S3 Access Point は、さまざまなアプリケーションやユーザーによるデータアクセスを制御・簡素化するエンドポイントです。
FSx for NetApp ONTAP 用の S3 Access Points を使用することで、AWS に移行したデータから新しい洞察を発見し、イノベーションを加速させ、より優れたデータ駆動型の意思決定を行えるようになります。例えば、Amazon Bedrock を使用して生成系 AI アプリケーションを拡張したり、Amazon SageMaker で機械学習モデルをトレーニングしたり、Amazon Glue や幅広い AWS Data and Analytics Competency Partner ソリューションを使用して分析を実行したり、S3 ベースのクラウドネーティブアプリケーションを使用してワークフローを実行したりできます。
この機能は、Amazon FSx コンソール、AWS Command Line Interface (AWS CLI)、または AWS Software Development Kit (AWS SDK) を使用して、新しい FSx for NetApp ONTAP ファイルシステムに S3 Access Points を作成・アタッチすることで利用を開始できます。既存の FSx for NetApp ONTAP ファイルシステムへのサポートは、今後の週次メンテナンスウインドーで提供される予定です。この新機能は、一部の AWS リージョン で利用可能です。

その他

AWS Supportが変革:AI を活用した運用と、信頼の置けるヒューマン・エキスパートによるサポート
AWS Support は、サポートポートフォリオを刷新し、インテリジェントでエクスペリエンス主導の3つの新しいプラン、`Business Support+`、`Enterprise Support`、`Unified Operations` を発表しました。各プランは、AIの速度と精度を AWS エンジニアの専門知識と組み合わせています。
上位プランは下位プランをベースに構築されており、応答時間の短縮、プロアクティブなガイダンス、よりスマートな運用が追加されます。これにより、エンジニアリングの負担が軽減され、信頼性と回復力が強化され、クラウド運用が合理化されます。
* Business Support+: コンテキストを理解するAIによる24時間365日の支援を提供し、重大な問題については30分以内に AWS のエキスパートが直接対応します。これは現行プランの2倍の速さです。
* Enterprise Support: `Business Support+` の内容を拡張し、専任のテクニカルアカウントマネージャー (TAM) が生成AIの洞察と人間の判断を組み合わせて、回復力、コスト、効率に関する戦略的な運用ガイダンスを提供します。また、追加費用なしで `AWS Security Incident Response` が含まれており、お客さまはセキュリティアラートの調査とトリアージを自動化できます。
* Unified Operations: ミッションクリティカルなワークロード向けに設計された最上位プランです。専任エキスパートのグローバルチームが、アーキテクチャーレビュー、ガイド付きテスト、プロアクティブな最適化を提供し、重大なインシデントに対しては5分以内のコンテキストに応じた応答時間を実現します。
`AWS DevOps Agent` (プレビュー) を使用しているお客さまは、調査中にワンクリックで AWS Support に連絡でき、AWS のエキスパートに即座にコンテキストが提供されるため、より迅速な解決が可能になります。`AWS DevOps Agent` は、インシデントを解決しプロアクティブに防止するフロンティアエージェントであり、AWS、マルチクラウド、ハイブリッド環境におけるアプリケーションの信頼性とパフォーマンスを継続的に向上させます。
`Business Support+`、`Enterprise Support`、`Unified Operations` は、全ての商用 AWS リージョンで利用可能です。既存のお客さまは、現行プランを継続するか、パフォーマンスと効率を向上させる新しいプランを検討することができます。

AWS AI Factories を発表
AWS AI Factories が利用可能になり、お客さま自身のデータセンターに、迅速にデプロイ可能な高性能 AWS AI インフラストラクチャーを提供します。最新の AWS Trainium アクセラレータと NVIDIA GPU、専用の低遅延ネットワーク、高性能ストレージ、AWS AI サービスを組み合わせることで、AI Factories は、独自に構築する場合と比較して AI の構築を数カ月から数年単位で加速します。
AWS AI Factories は、約20年にわたる AWS のクラウドリーダーシップの専門知識を活用し、AI の取り組みを遅らせる原因となりがちな調達、セットアップ、最適化の複雑さを排除します。Amazon Bedrock や Amazon SageMaker のような統合された AWS AI サービスにより、個々のモデルプロバイダーと個別の契約を交渉することなく、主要な基盤モデルにすぐにアクセスできます。
AWS AI Factories は、お客さままたはお客さまが指定した信頼できるコミュニティー専用に構築された専用環境として動作し、幅広い AWS サービスと統合しながら、完全な分離と運用上の独立性を確保します。このアプローチは、政府や企業が AWS Cloud の比類のないセキュリティ、信頼性、機能の恩恵を受けながら、デジタル主権の要件を満たすのに役立ちます。お客さまはすでに確保しているデータセンターのスペースと電力を提供し、AWS がインフラストラクチャーのデプロイと管理を行います。
AWS AI Factories は、厳格なデータレジデンシー要件を持つ安全で隔離された環境を求める、あらゆる業界の企業や政府機関に高度な AI 技術を提供します。これらの専用環境は、パブリッククラウドリージョンで利用可能なものと同じ高度な技術へのアクセスを提供し、独自のデータを使用して AI を活用したアプリケーションを構築したり、大規模言語モデルをトレーニングおよびデプロイしたりすることができます。独自にキャパシティを構築するのに何年も費やすのではなく、AWS がデプロイのタイムラインを短縮するため、お客さまはインフラストラクチャーの複雑さではなくイノベーションに集中できます。

 

今週のWeekly AWSは、以上です。

最後までお読みいただき、ありがとうございました。

関連サービス

ソフトバンクはAWS アドバンストティアサービスパートナーです

「はじめてのAWS導入」から大規模なサービス基盤や基幹システムの構築まで、お客さまのご要望にあわせて最適なAWS環境の導入を支援します。

MSP(Managed Service Provider)サービスは、お客さまのパブリッククラウドの導入から運用までをトータルでご提供するマネージドサービスです。

おすすめの記事

条件に該当するページがございません