フォーム読み込み中
2025年7月22日掲載
Amazon Bedrock AgentCore が 利用可能に(プレビュー)
Amazon Bedrock AgentCore が発表されました。これは、開発者が実世界のアプリケーションに不可欠なスケール、信頼性、セキュリティを備えた AI エージェントをデプロイし運用できるようにするサービスです。主な特長は以下の通りです:
- エージェントを安全にスケールするための専用インフラストラクチャー
- エージェントの機能を強化するための強力なツール
- 信頼性の高い運用を確保するための重要な制御機能
- モジュール式で組み合わせ可能なサービス
- Amazon Bedrock 内外のあらゆるモデルとオープンソースのエージェントフレームワークに対応
AgentCore には、エージェントを概念実証から本番環境へ移行する際の障壁に対処するサービスとツールが含まれています:
- Runtime: 完全なセッション分離と低レイテンシを提供し、最大8時間の長時間ワークロードをサポート
- Memory: インフラ管理なしで短期・長期メモリを維持
- Gateway: ツールの統合と発見を簡素化
- Browser Tool: セキュアなクラウドベースのブラウザーランタイムを提供
- Code Interpreter: 複数の言語でコードを実行できるセキュアなサンドボックス環境
- Observability: Amazon CloudWatch を使用したエンドツーエンドのエージェント実行とメトリクスの可視化
- Identity: 既存の ID プロバイダーとの統合とリソースへのセキュアなアクセスを実現
AgentCore は現在、米国東部(バージニア北部)、米国西部(オレゴン)、アジアパシフィック(シドニー)、ヨーロッパ(フランクフルト)でプレビュー利用が可能です。
Amazon Redshift が Apache Iceberg テーブル上のマテリアライズドビューの自動更新をサポート
Amazon Redshift が、Amazon S3 データレイク内の外部 Apache Iceberg テーブルに定義されたマテリアライズドビューの自動更新をサポートするようになりました。
このアップデートにより、Amazon S3 データレイクのバケットに存在する Apache Iceberg テーブルに新しいデータが追加または削除された場合、Amazon Redshift は自動的にそのテーブルに定義されたマテリアライズドビューを更新します。
この新機能を使用することで、Amazon S3 データレイクでより複雑で柔軟な分析パイプラインを構築できます。
Amazon Q in QuickSight でトピックに対するカスタム指示機能の一般提供が開始
Amazon Q in QuickSight の Q&A トピックに対するカスタム指示機能が一般提供されました。
この機能により、Author Pro ユーザーは以下のことが可能になります:
- ドメイン固有の知識を追加し、Amazon Q の回答をキュレーションできる
- 同義語やセマンティックタイプなど、トピックのメタデータ設定では捉えられない情報を提供できる
- 特定の定義、設定、専門知識に沿った回答を得られるよう Amazon Q を誘導できる
これにより、ビジネスニーズにより適した正確で関連性の高い回答が可能になります。
カスタム指示機能は、サポートされている全てのリージョンの Amazon Q in QuickSight Pro Author および Pro Admin ユーザーが利用できます。
Amazon OpenSearch Service が Amazon RDS for MySQL および PostgreSQL との統合をサポート
Amazon OpenSearch Service が Amazon RDS for MySQL および PostgreSQL からのデータの円滑な取り込みをサポートするようになりました。これにより、リレーショナルデータベース内のデータに対して、全文検索、ハイブリッド検索、ベクトル検索などの高度な検索機能を利用できます。
Amazon RDS for MySQL および PostgreSQL のデータを Amazon OpenSearch Service に数秒以内に同期できるようになり、複雑なデータパイプラインを構築・維持するためのカスタムコードを書く必要がなくなりました。
この統合では、Amazon OpenSearch Ingestion を使用してデータを同期します。Amazon OpenSearch Ingestion は、RDS のテーブルデータ形式を自動的に理解し、最適な検索結果を得るためにインデックスマッピングテンプレートにデータをマッピングします。
複数のテーブルのデータを1つの Amazon OpenSearch マネージドクラスターまたはサーバーレスコレクションに同期し、複数のアプリケーションにわたる包括的な洞察を提供することも可能です。
この統合は、Amazon OpenSearch Ingestion が利用可能な16のリージョンで提供されています。これには米国東部(オハイオ)、米国東部(バージニア北部)、米国西部(オレゴン)、米国西部(カリフォルニア北部)、ヨーロッパ(アイルランド)、ヨーロッパ(ロンドン)、ヨーロッパ(フランクフルト)、アジアパシフィック(東京)、アジアパシフィック(シドニー)、アジアパシフィック(シンガポール)、アジアパシフィック(ムンバイ)、アジアパシフィック(ソウル)、カナダ(中部)が含まれます。
Amazon OpenSearch Service が Amazon Aurora MySQL および PostgreSQL との統合をサポート
Amazon OpenSearch Service が Amazon Aurora MySQL および PostgreSQL からのデータの円滑な取り込みを可能にしました。これにより、リレーショナルデータベース内のデータに対して、全文検索、ハイブリッド検索、ベクトル検索などの高度な検索機能を利用できるようになりました。
Amazon Aurora MySQL および PostgreSQL からのデータを、データが書き込まれてから数秒以内に Amazon OpenSearch Service に同期できます。複雑なデータパイプラインを構築・維持するためのカスタムコードを作成する必要はありません。
この統合では、Amazon OpenSearch Ingestion を使用して、Amazon Aurora MySQL および PostgreSQL データベースからのデータを OpenSearch Service に同期します。Amazon OpenSearch Ingestion は、Aurora MySQL および PostgreSQL テーブル内のデータ形式を自動的に理解し、最も効率的な検索結果を得るために Amazon OpenSearch Service のインデックスマッピングテンプレートにデータをマッピングします。
さらに、複数のテーブルからのデータを1つの Amazon OpenSearch マネージドクラスターまたはサーバーレスコレクションに同期し、複数のアプリケーションにわたる包括的な洞察を提供できます。
この機能は、Amazon OpenSearch Ingestion が利用可能な16のリージョンで利用できます。
Amazon MSK がモデルコンテキストプロトコル (MCP) サーバーを発表
Amazon MSK がモデルコンテキストプロトコル (MCP) ベースのサーバーを発表しました。これにより、お客さまは標準化された自然言語インターフェースとエージェンティックアプリケーションを使用して Amazon MSK クラスターと対話できるようになります。
Amazon MSK の MCP サーバーは、Anthropic のオープンソース MCP を使用しており、AI 支援エージェントが外部システムと対話する方法を標準化します。このサーバーは、AI エージェントにクラスターメトリクス、構成状態、運用コンテキストの集計ビューを提供し、クラスターのクォータ、容量制限、ベストプラクティスガイドライン、ワークロード特性に基づくコンテキスト推奨事項の組み込み理解を提供します。
この方式により、エージェントは制約と依存関係を完全に認識した上で、クラスターの変更に関する情報に基づいた決定を行うことができます。さらに、各対話はお客さまが定義したセキュリティポリシーによって管理され、目的の達成に必要な API への明示的な権限を持つエージェントのみにアクセスを制限します。
AWS Glue が大規模およびメモリ集約型ワークロード向けの新しいワーカーをサポート
AWS Glue に新しいワーカータイプが追加され、多様なデータ統合およびデータ処理のニーズに対応できるようになりました。
新しいワーカーには以下が含まれます:
1. 大規模な汎用コンピューティングワーカー:G.12X および G.16X
2. メモリ最適化ワーカー:R.1X、R.2X、R.4X、R.8X(メモリ集約型のワークロード向け)
これにより、AWS Glue のお客さまは以下が可能になります:
- より複雑な変換、集計、結合、クエリの処理
- Apache Spark を使用した大量データの高速処理
G.12X と G.16X ワーカーは、既存の G ワーカーサイズを拡張し、より多くのコンピューティング、メモリ、ストレージを提供します。
R シリーズのワーカーは、G ワーカーと比較して2倍のメモリを提供し、キャッシング、シャッフリング、集計などのメモリ集約型 Spark 操作に適しています。
これらの新しいワーカータイプは、AWS Glue Studio、ノートブック、Visual ETL、または Glue Job API を通じて選択できます。
AWS Glue が Amazon DynamoDB と8つのアプリケーションから Amazon S3 Tables へのゼロ ETL 統合をサポート
AWS Glue がゼロ ETL 統合(マネージド取り込み)機能を拡張しました。この機能により、Amazon DynamoDB と 8 つのアプリケーションから Amazon S3 テーブルへのデータ抽出と読み込みが自動化されます。対象アプリケーションには Salesforce、SAP、ServiceNow、Zendesk などが含まれます。
S3 テーブルは大規模な表形式データの保存に最適化され、Apache Iceberg をネーティブにサポートしています。AWS Lake Formation と連携することで、Amazon Athena、Amazon EMR、Amazon Redshift、AWS Glue などの分析サービスをサポートできます。
ゼロ ETL 統合は AWS によってフルマネージドで提供され、ETL データパイプラインの構築と管理の必要性を最小限に抑えます。この新機能により、DynamoDB テーブルや顧客サポート、関係管理、ERP アプリケーションからデータを効率的に抽出し、S3 テーブルベースのデータレイクに読み込んで分析できます。
ゼロ ETL 統合は、ユーザーの運用負担を軽減し、データパイプラインの設計、構築、テストに必要な数週間のエンジニアリング作業を省略できます。
この機能は、米国東部(バージニア北部)、米国東部(オハイオ)、米国西部(オレゴン)、アジアパシフィック(東京)、アジアパシフィック(香港)、アジアパシフィック(シンガポール)、アジアパシフィック(シドニー)、ヨーロッパ(ストックホルム)、ヨーロッパ(フランクフルト)、ヨーロッパ(アイルランド)、南米(サンパウロ)、アジアパシフィック(ソウル)、ヨーロッパ(ロンドン)、カナダ(中部)の AWS リージョンで利用可能です。
統合の作成と管理は、AWS Glue コンソール、AWS Command Line Interface(AWS CLI)、または AWS Glue API を使用して行えます。
AWS Clean Rooms ML が Parquet ファイル形式をサポート
AWS Clean Rooms が Parquet ファイル形式のデータを使用したカスタム ML モデルのトレーニングをサポートするようになりました。Parquet は、効率的なデータ圧縮とエンコーディングスキームを提供する、無料のオープンソースの列指向データストレージ形式です。
AWS Clean Rooms ML のカスタムモデリングにより、機密性の高い知的財産を共有することなく、集合的なデータセットを使用してカスタム ML モデルを大規模にトレーニングできます。Parquet ファイル形式で ML 入力チャンネルを作成することで、大量のデータをより効率的に処理し、テキスト以外のデータをエンコードできるため、画像やその他のバイナリエンコードされたデータ型でトレーニングを行うことができます。
AWS Clean Rooms ML は、お客さまとパートナーが生データやモデルを共有またはコピーすることなく、予測インサイトを生成しながら、プライバシー強化コントロールを適用して独自のデータと ML モデルを保護するのに役立ちます。
Amazon SNS がクロスリージョン配信機能を強化
Amazon Simple Notification Service (Amazon SNS) のクロスリージョン配信機能が拡張され、オプトインリージョンを利用するお客さまにより多くの柔軟性が提供されるようになりました。今回のアップデートでは、以下の3つの改善が行われています:
1. オプトインリージョン間の Amazon SNS から Amazon SQS への配信:あるオプトインリージョンの Amazon SNS トピックから、別のオプトインリージョンの Amazon SQS キューにメッセージを配信できるようになりました。
2. オプトインリージョン間の Amazon SNS から AWS Lambda への配信:あるオプトインリージョンの Amazon SNS トピックから、別のオプトインリージョンの AWS Lambda 関数へのメッセージ配信がサポートされました。
3. デフォルトリージョンからオプトインリージョンへの Amazon SNS から AWS Lambda への配信:デフォルトで有効なリージョンの Amazon SNS トピックから、オプトインリージョンの AWS Lambda 関数にメッセージを配信できるようになりました。
これらの機能強化により、AWS リージョン間での分散システムの設計がより柔軟になり、アーキテクチャーにオプトインリージョンを活用しやすくなりました。
この新機能を使用するには、アカウントで必要なオプトインリージョンを有効にする必要があります。オプトインリージョンを含むクロスリージョンサブスクリプションを設定する際は、リソースポリシーでリージョン固有のサービスプリンシパル(sns..amazonaws.com)を使用することを忘れないでください。
Amazon EventBridge が強化されたロギングをサポートし、可観測性を向上
Amazon EventBridge が Amazon CloudWatch Logs、Amazon Simple Storage Service (Amazon S3)、Amazon Kinesis Data Firehose へのログ記録をサポートするようになりました。これにより、イベント駆動型アプリケーションの可観測性が向上し、デバッグが簡素化されます。
イベントバスに対して、マッチしたルールの結果、エラー、ターゲット呼び出しのログを記録できるようになり、アプリケーションのイベント処理に関するより深い洞察が得られ、問題の根本原因をより迅速に特定できます。
3つのログレベル(エラー、情報、トレース)から選択してイベントのライフサイクルを追跡し、オプションでイベントペイロードを含めることができます。これにより、プライバシーとコストを制御できます。
EventBridge イベントバスのログは、AWS Management Console、AWS CLI、または SDK を通じて有効化でき、Amazon CloudWatch Logs のベンダーログ機能を使用してログの送信先を設定できます。
この機能は、全ての商用 AWS リージョンで利用可能です。ログのサポートは追加料金なしで提供されますが、ログストレージとデータ転送には標準料金が適用されます。
Amazon EventBridge Scheduler が全ての AWS リージョンで利用可能に
Amazon EventBridge Scheduler が、AWS GovCloud (US) リージョンを含む9つの追加リージョンへの拡張に続き、全ての AWS リージョンで利用可能になりました。このサーバーレススケジューラーを使用すると、インフラストラクチャーのプロビジョニングや管理を行うことなく、大規模なスケジュールタスクやイベントを作成・管理できます。
EventBridge Scheduler の主な特長:
1. 270以上のAWSサービスにわたる数十億のスケジュールイベントを作成可能
2. 1回限りまたは定期的なスケジュールの設定
3. タイムゾーンや夏時間に対応した柔軟なスケジューリングオプション
4. IT プロセスの自動化、アプリケーションのスケジューリング、グローバル組織のスケジュール管理などのユースケースに対応
5. AWS サービスとの事前構築された統合
6. 設定可能な再試行ポリシー
7. 中央でのスケジュール管理
これにより、1つの中央ロケーションで全てのスケジュールを簡単に作成、管理、維持でき、効率性が向上し、スケジューリングタスクの複雑さが軽減されます。
Amazon Connect のエージェントワークスペースにリアルタイムのエージェントパフォーマンス指標が追加
Amazon Connect のエージェントワークスペースに、エージェントの個人パフォーマンスに関するインサイトを提供する標準の分析ダッシュボードが追加されました。このダッシュボードでは以下の情報が表示されます:
- エージェントの個人パフォーマンス指標(処理したコンタクト数、平均処理時間など)
- 割り当てられたキューの指標(キュー内のコンタクト数、最長待ち時間など)
これらのインサイトにより、エージェントはパフォーマンスを向上させ、顧客体験を高める判断を行うことができます。例えば、キューの量が多いことを確認した場合、休憩を遅らせて顧客の待ち時間を短縮することができます。
この機能は、米国東部(バージニア北部)、米国西部(オレゴン)、カナダ(中部)、アフリカ(ケープタウン)、アジアパシフィック(ソウル、シンガポール、シドニー、東京)、ヨーロッパ(フランクフルト、ロンドン)のAWSリージョンで利用可能です。
AWS Price List 用の Model Context Protocol (MCP) サーバーを発表
AWS が AWS Price List 用の Model Context Protocol (MCP) サーバーをリリースし、AWS Labs GitHub リポジトリで利用可能になりました。
MCP サーバーは、AI エージェントに AWS 製品データ、可用性情報、オンデマンド、リザーブド、Savings Plans を含む価格詳細へのリアルタイムアクセスを提供します。
このリリースにより、Amazon Q Developer CLI や Claude Desktop などの AI アシスタントを活用して、自然言語での会話を通じて以下のことが可能になります:
- AWS 製品と価格情報の取得
- リージョン間での価格オプションの比較
- AWS サービス選択に関するデータ駆動型の意思決定
オープンソースのサーバーを、MCP 互換の AI アシスタントと統合できます。サーバーは標準的な AWS 認証情報を使用して AWS Price List に安全に接続し、最小限の設定で済みます。
AWS Price List API が4つの新しいクエリフィルターをサポート
AWS Price List Query API に4つの新しいフィルタータイプが追加され、製品データをより正確に検索できるようになりました。新しいフィルターにより、以下の検索が可能になりました:
- 属性の完全一致
- 部分文字列マッチング
- 包含/除外リストの作成
これらの新機能により、製品の検索が簡素化され、データ取得の効率が向上します。例えば、全ての m5 EC2 インスタンスタイプを、複雑なクエリを複数作成する代わりに、1つの合理化されたフィルターで簡単に見付けることができます。
この新しいフィルター機能は、AWS Price List API がサポートされている全てのリージョンで利用可能です。
AWS Free Tier が 200ドルのクレジットと6カ月間の無料プランを提供し、無料で AWS を探索可能に
AWS が Free Tier プログラムを強化し、以下の特長が追加されました:
- 新規のお客さまに最大 200 ドルの AWS クレジットを提供
- 200 以上のサービスを評価可能
- クラウド専門家、ソフトウェア開発者、学生、起業家などが AWS サービスを体験可能
- 新規のお客さまは、サインアップ時に 100 ドルのクレジットを受け取り、Amazon EC2 や Amazon Bedrock などのサービスを使用することで追加の 100 ドルのクレジットを獲得可能
- 30 以上の常時無料サービスにも引き続きアクセス可能
- AWS の Cloud Financial Management ツールと統合され、使用状況の監視と予測が容易
Free Tier プログラムの主な特長:
- サインアップ時に無料アカウントプランを選択して開始
- 無料アカウントプランは、サインアップから 6 カ月後または Free Tier クレジットが消費された時点で終了
- 有料プランへのアップグレードは 1 クリックで可能
この新しい AWS Free Tier 機能は、AWS GovCloud (US) リージョンと中国リージョンを除く全ての AWS リージョンで利用可能です。
AWS Cost Anomaly Detection がモデル強化により精度を向上
AWS Cost Anomaly Detection の機能が大幅に改善され、AWS の支出パターンの重要な変化をより正確に識別できるようになりました。このアップデートにより、過去のコスト変動をより適切に処理し、一貫性のある信頼性の高いコスト監視が可能になりました。
改善された Cost Anomaly Detection は、組織の典型的な支出パターンをより深く理解し、一時的なコストイベントと定期的なコストイベントを区別しつつ、注意が必要なコスト変化を正確に検出します。
これらの改善は、AWS GovCloud (US) リージョンと中国リージョンを除く全ての AWS リージョンで、全ての AWS Cost Anomaly Detection モニターに自動的に適用されます。
AWS Outposts の EC2 インスタンスが外部ストレージアレイからのブートに対応
AWS Outposts の Amazon EC2 インスタンスで、NetApp や Pure Storage FlashArray などのオンプレミスエンタープライズストレージアレイをブートボリュームとして使用できるようになりました。この機能は、認証済みおよび暗号化されたボリュームを含み、iSCSI SAN ブートと LocalBoot オプションの両方をサポートしています。LocalBoot は iSCSI と NVMe-over-TCP プロトコルの両方に対応しています。
この機能拡張により、Amazon EBS や Local Instance Store ボリュームに加えて、サードパーティーのストレージアレイからのブートボリュームもサポートされるようになり、お客さまは Outposts でのストレージ投資をより柔軟に活用できるようになりました。
お客さまは、オンプレミスのストレージ投資を最大限に活用しながら、Outposts のクラウド運用モデルを利用できます。互換性のあるエンタープライズストレージアレイをブートボリュームとデータボリュームの両方に使用でき、高度なデータ管理機能と高性能を活用できます。
外部ブートボリュームのサポートにより、集中管理されたブートボリューム管理を通じてOS (OS) の管理を効率化し、オンプレミスのストレージアレイを通じてデータレジデンシー要件を満たすことができます。AWS は AWS Samples を通じて自動化スクリプトを提供し、お客さまが Outposts 上の EC2 インスタンスで外部ブートボリュームを簡単にセットアップして使用できるようサポートしています。
この機能拡張は、AWS GovCloud リージョンを除く、Outposts が利用可能な全ての AWS リージョンの Outposts 2U サーバーと Outposts ラックで追加料金なしで利用できます。
AWS Lambda が VS Code との統合によりシームレスなサーバーレス開発体験を実現
AWS Lambda が、コンソールから Visual Studio Code (VS Code) IDE へのシームレスな移行を可能にしました。この新しい統合により、サーバーレスアプリケーションのクラウドとローカル開発環境間の摩擦が解消されます。
主な特長:
1. 1クリックで Lambda 関数を VS Code に移行でき、コードと設定が保持されます。
2. 外部依存関係管理、リンター、フォーマッターなどの高度な IDE 機能を、セットアップの手間なく利用できます。
3. VS Code IDE で、アプリケーションを AWS Serverless Application Model (AWS SAM) テンプレートに簡単に変換できる新機能が導入されました。
使用方法:
Lambda コンソールの「コード」タブまたは新規関数作成時の「はじめに」ポップアップで「Visual Studio Code で開く」ボタンをクリックします。
この機能は、AWS GovCloud (US) リージョンを除く、Lambda が利用可能な全ての商用 AWS リージョンで、追加料金なしで利用できます。
AWS Lambda が Kafka イベントの低レイテンシー処理をサポート
AWS Lambda が Amazon Managed Streaming for Apache Kafka (Amazon MSK) および自己管理型 Apache Kafka イベントソースに対して、低レイテンシー(100ミリ秒未満)のイベント処理をサポートするようになりました。これは、Kafka ESM のプロビジョニングモードで利用可能です。
主な特長:
1. Kafka ESM 設定で MaximumBatchingWindowInSeconds パラメーターを 0 に設定可能
2. Kafka イベントのリアルタイム処理が可能に
3. 時間に敏感なビジネスアプリケーションのエンドツーエンド処理レイテンシーが大幅に削減
この機能により、金融サービス、eコマース、ゲーミングなど、100ミリ秒未満の一貫したエンドツーエンド レイテンシーを必要とするミッションクリティカルなアプリケーションの構築が可能になります。
MaximumBatchingWindowInSeconds を 0 に設定すると、Kafka ESM は前回の呼び出しが完了した直後に Kafka イベントで関数を呼び出します。これにより、エンドツーエンド レイテンシーは関数の実行時間のみに依存し、クリティカルなリアルタイムアプリケーションで平均 50 ミリ秒のエンドツーエンド レイテンシーを実現できる可能性があります。
この機能は、AWS Lambda Kafka ESM が利用可能なほとんどの AWS コマーシャルリージョンで一般提供されています(イスラエル(テルアビブ)、アジアパシフィック(マレーシア)、カナダ西部(カルガリー)を除く)。
Amazon VPC CNI がポッド当たりの帯域幅とネットワークパフォーマンスを向上
Amazon VPC Container Network Interface (CNI) プラグインを使用して、ポッドに複数のネットワークインターフェースを接続できるようになりました。この機能強化により、複数のネットワークカードをサポートする Amazon EC2 インスタンスの帯域幅とネットワークパフォーマンスを最大限に活用できます。これは特に人工知能 (AI)、機械学習 (ML)、ハイパフォーマンスコンピューティング (HPC) のユースケースに有用です。
従来、Amazon VPC CNI プラグインは各ポッドに1つの Elastic Network Interface (ENI) を割り当てていましたが、Kubernetes ベースのワークロードのネットワークパフォーマンスを向上させたいお客さまは、ワーカーノード上の複数のネットワークカードと接続するマルチホームポッドを設定できるようになりました。ネットワークカードの容量を最大化することで、アプリケーショントラフィックが複数の同時 ENI 接続に分散され、ワークロードの帯域幅とパケットレートのパフォーマンスが向上します。
Amazon VPC CNI バージョン 1.20.0 以降、ポッドへの複数ネットワークインターフェース接続のサポートが、全ての商用 AWS リージョンと AWS GovCloud (US) リージョンで利用可能です。
Amazon EKS が1クラスター当たり最大100,000ワーカーノードをサポート
Amazon EKS が1つのクラスターで最大100,000のワーカーノードをサポートするようになりました。これにより、超大規模なAI/ML学習および推論ワークロードを単一クラスターで実行できます。
Amazon EC2の新世代の高速コンピューティングインスタンスタイプを使用すると、100,000のワーカーノードで以下をサポートできます:
- Trn2インスタンスで最大160万個のTrainiumチップ
- P5およびP6インスタンスで最大80万個のNVIDIA GPU
これにより、全ての計算アクセラレーターを単一クラスター内で利用可能にする必要がある超大規模AI/MLワークロードを実行できます。
最新のAIモデルは、コンテキスト理解、推論、複雑なタスク解決において大幅に強化された能力を示しています。これらの強力なモデルを構築・運用するには、単一クラスター内で膨大な数の計算アクセラレーターにアクセスする必要があります。
大規模な計算アクセラレータープールへの統合アクセスは以下の利点をもたらします:
1. これまでにない強力なAIモデルの構築と展開
2. 学習と推論ワークロード間で計算アクセラレーターを効率的に共有することによるコスト削減
3. クラスター間での動作を想定していない既存のAI/MLツールやフレームワークのシームレスな使用
Amazon ECS がビルトインのブルー/グリーンデプロイメントを可能に
Amazon Elastic Container Service (Amazon ECS) に、コンテナ化されたアプリケーションのソフトウェアアップデートをより安全に行える新機能が追加されました。これにより、カスタムデプロイメントツールを構築することなく、高い信頼性を持って迅速にソフトウェアをリリースできるようになりました。
主な新機能は以下の通りです:
1. ブルー/グリーンデプロイメント戦略の組み込みサポート
2. デプロイメントライフサイクルフック
これらの機能により、本番環境で新しいアプリケーションバージョンをテストし、失敗したデプロイメントを迅速にロールバックすることが可能になりました。
Application Load Balancer (ALB)、Network Load Balancer (NLB)、または ECS Service Connect からトラフィックを受けるAmazon ECSサービスに対して、ブルー/グリーンデプロイメント戦略を使用したソフトウェアアップデートが可能になりました。
ブルー/グリーンデプロイメント戦略を使用すると、Amazon ECSは新旧のアプリケーションバージョンを並行してプロビジョニングし、本番トラフィックをルーティングする前に新バージョンを検証できます。
デプロイメントライフサイクルフックを使用してカスタム検証ステップを実行し、検証が成功するまでデプロイメントをブロックすることができます。
また、本番トラフィックの移行後、新しいアプリケーションを事前に指定した期間「ベイク」させ、問題が検出された場合はダウンタイムなしで旧バージョンにロールバックすることができます。
Amazon CloudWatch AlarmsとECSデプロイメント回路ブレーカーを設定することで、デプロイメントを自動的に監視し、障害を検出することができます。
これらの機能により、ソフトウェアアップデートがより安全になり、新機能をより迅速にリリースできるようになります。
この新機能は、全ての商用AWSリージョンで利用可能で、AWS Management Console、SDK、CLI、CloudFormation、CDK、Terraformを使用して、新規および既存のAmazon ECSサービスに適用できます。
Amazon ECS がコンテナインスタンス当たりの最大タスク数の設定をサポート
AWS Lambda が Visual Studio Code (VS Code) でのリモートデバッグをサポートするようになりました。これにより、開発者はローカルの IDE からクラウド上で実行されている Lambda 関数を直接デバッグできるようになります。
この新機能により、開発者は既存の開発ワークフローを変更することなく、クラウドにデプロイされた関数に対してブレークポイント、変数検査、ステップスルーデバッグなどの馴染みのあるデバッグツールを使用できます。これにより、サーバーレス開発プロセスが加速します。
以前は、Lambda ランタイム環境とその他の AWS サービスとの相互作用をローカルで完全に再現するツールがなかったため、開発者は print 文、ログ、および複数の反復デプロイメントに頼って問題を診断し解決する必要がありました。
VS Code でのリモートデバッグにより、開発者は VPC リソースと IAM ロールへの完全なアクセスを持つクラウド上で実行される関数の実行環境をデバッグし、クラウド内の全サービスフローを通じて実行をトレースできるようになりました。また、関数をすばやく更新してテストすることも可能です。
この機能により、複雑なローカルデバッグセットアップと繰り返しのデプロイメントが不要になり、問題の特定と修正にかかる時間が数時間から数分に短縮されます。
この機能は、VS Code に AWS Toolkit (v3.69.0 以降) をインストールしている全ての開発者が、追加コストなしで利用できます。
PostgreSQL 18 Beta 2 が Amazon RDS Database Preview Environment で利用可能に
Amazon RDS for PostgreSQL 18 Beta 2 が Amazon RDS Database Preview Environment で利用可能になりました。これにより、Amazon RDS for PostgreSQL 上で PostgreSQL 18 のプレリリース版を評価できます。
PostgreSQL 18 Beta 2 は、フルマネージドデータベースの利点を持つ Amazon RDS Database Preview Environment にデプロイできます。
PostgreSQL 18 の主な特長:
- マルチカラム B-tree インデックスの「スキップスキャン」サポート
- OR および IN 条件の WHERE 句処理の改善
- 並列 GIN インデックスの構築と結合操作の更新
- クエリ実行中のバッファ使用量カウントとインデックス検索の表示
- 接続ごとの I/O 使用率メトリクスの導入
プレビュー環境のデータベースインスタンスは最大 60 日間保持され、その後自動的に削除されます。プレビュー環境で作成されたスナップショットは、同環境内でのみ使用可能です。PostgreSQL のダンプおよびロード機能を使用して、プレビュー環境との間でデータベースのインポート/エクスポートが可能です。
料金は US East (Ohio) リージョンの価格に準じます。
Amazon Redshift がネストされたマテリアライズドビューのカスケードリフレッシュをサポート
Amazon Redshift で、ローカルの Amazon Redshift テーブルや Amazon Kinesis Data Streams (KDS)、Amazon Managed Streaming for Apache Kafka (MSK)、Confluent Cloud などの外部ストリーミングソースで定義されたネストされたマテリアライズドビュー (MV) のカスケードリフレッシュがサポートされるようになりました。
このアップデートにより、'cascade' または 'restrict' オプションを指定して、ネストされた MV のカスケードリフレッシュを単一のオプションで実行できるようになりました。'restrict' オプションはリフレッシュを単一の対象 MV に限定し、'cascade' オプションは対象 MV 以下の全てのネストされた MV を単一のトランザクションでカスケードリフレッシュします。
カスケードリフレッシュにより、複数のネストされたマテリアライズドビューの手動リフレッシュを調整するために以前は必要だった複雑なロジックが不要になり、アプリケーション開発が大幅に簡素化されます。この新機能を使用して、より複雑で柔軟な分析パイプラインを構築できます。
Amazon RDS for SQL Server が SQL Server 2022 の Cumulative Update 19 をサポート
Amazon Relational Database Service (Amazon RDS) for SQL Server が SQL Server 2022 の Cumulative Update 19 (CU19 - 16.0.4185.3) をサポートするようになりました。この CU にはパフォーマンスの改善とバグ修正が含まれており、SQL Server Express、Web、Standard、Enterprise エディションで利用可能です。
パフォーマンスの改善とバグ修正の恩恵を受けるため、この最新の CU へのアップグレードが推奨されます。Amazon RDS マネジメントコンソール、AWS SDK、または CLI を使用して、数回のクリックでアップグレードできます。
この CU は、Amazon RDS for SQL Server が利用可能な全ての AWS リージョンで利用できます。
Amazon RDS for SQL Server が Oracle OLEDB ドライバーバージョン 21.16 を使用したリンクサーバーをサポート
Amazon RDS for SQL Server が Oracle OLEDB ドライバーバージョン 21.16 を使用したリンクサーバーをサポートするようになりました。リンクサーバーにより、Amazon RDS for SQL Server データベース内から外部データソースにアクセスできます。
Oracle OLEDB を使用したリンクサーバーは、SQL Server Standard または Enterprise エディションで利用可能で、SQL Server 2017、2019、2022 と組み合わせて使用できます。これにより、Oracle Database バージョン 18c、19c、21c のリモート Oracle データベースサーバーからデータを読み取り、コマンドを実行できます。
Oracle OLEDB ドライバーバージョン 21.16 は、パフォーマンスが向上し、Oracle データベースへのアクセスの信頼性が向上しています。
この機能は、Amazon RDS for SQL Server が利用可能な全ての AWS リージョンで利用できます。
Amazon RDS Custom for SQL Server が Change Data Capture をサポート
Amazon RDS Custom for SQL Server で Change Data Capture (CDC) がサポートされるようになりました。Microsoft SQL Server の CDC は、SQL Server Agent を使用してデータベーステーブルで発生する挿入、更新、削除を記録し、これらのデータ変更を履歴コンテキストを提供するためのリレーショナル形式でアプリケーションからアクセス可能にする機能です。
Amazon RDS Custom for SQL Server は、Microsoft SQL Server のライセンス持ち込み (BYOL) を可能にするマネージドデータベースサービスです。Amazon RDS Custom for SQL Server で CDC を設定すると、基盤となるハードウェアの交換が必要な場合や、より大きなデータベースインスタンスにスケールアップする際に、RDS が自動的に指定された設定を適用します。これにより、さまざまな運用状況での設定と検証の運用オーバーヘッドが削減されます。
CDC は、RDS Custom for SQL Server が利用可能な全ての AWS リージョンで利用できます。
Amazon MemoryDB がマルチリージョンクラスターのレプリケーション一時停止を行う AWS FIS アクションをサポート
Amazon MemoryDB で、マルチリージョンクラスターのレプリケーションを一時停止する AWS Fault Injection Service (FIS) アクションがサポートされるようになりました。
FIS は、アプリケーションのパフォーマンス、可観測性、および耐障害性を向上させるための制御された障害注入実験を実行するためのフルマネージドサービスです。
Amazon MemoryDB マルチリージョンは、最大99.999%の可用性とマイクロ秒単位の読み取りおよびミリ秒単位の書き込みレイテンシーを備えたマルチリージョンアプリケーションを構築できる、フルマネージドのアクティブ-アクティブマルチリージョンデータベースです。
新しい FIS アクションを使用して、リージョン間レプリケーションの中断に対するアプリケーションの応答を観察し、モニターリングと復旧プロセスを調整して耐障害性とアプリケーションの可用性を向上させることができます。
この新しい FIS アクションは、マルチリージョンクラスターのレプリケーションが中断および再開された場合の実際の動作を再現します。これにより、リージョンのリソースにアクセスできない場合にアプリケーションが意図した通りに応答することをテストし、確認できます。
FIS で実験テンプレートを作成して、継続的インテグレーションやリリーステストに実験を統合したり、ほかの FIS アクションと組み合わせたりすることができます。
MemoryDB マルチリージョンの一時停止レプリケーションは、MemoryDB マルチリージョンが利用可能な全ての AWS リージョンで利用できます。
Amazon DynamoDB local がバージョン 3.0.0 にメジャーアップデート
DynamoDB local(Amazon DynamoDB のダウンロード可能なバージョン)が AWS SDK for Java 2.x に移行しました。この移行により、開発者がローカルで DynamoDB アプリケーションを開発およびテストする際のセキュリティ、互換性、安定性が向上します。
新しい DynamoDB local バージョン 3.0.0 では、AWS SDK for Java 1.x への依存関係を完全に削除できます。以前のバージョンから DynamoDB local 3.0.0 にアップグレードするには、以下の更新が必要です:
1. com.amazonaws 名前空間を参照する全てのインポート文を、新しい software.amazon.dynamodb 名前空間に更新する
2. Apache Maven 依存関係として DynamoDB local を実行する場合、アプリケーションの Project Object Model (POM) ファイルで新しい DynamoDB Maven リポジトリを参照する
3. 組み込みモードで DynamoDB local を実行し、クライアントクラス名 AmazonDynamoDB を使用している場合、AWS SDK バージョン 1 から 2 への移行方法については「Client Changes」を参照する
Amazon DynamoDB Streams がストリームシャード検出の高速化と効率化を実現する新しい API 機能を導入
Amazon DynamoDB Streams に、ストリーミングデータの消費を簡素化・最適化する新しい ShardFilter パラメーターが DescribeStream API に追加されました。
主な特長:
- 親シャードが閉じられた後、子シャードを素早く発見可能
- DynamoDB Streams からのデータ処理の効率と応答性が大幅に向上
- イベント駆動型アプリケーション、データレプリケーション、監査、データ分析、機械学習などの多様なユースケースに対応
- 閉じたシャードから子シャードへの効率的な移行が可能
- シャード間の切り替え時のスムーズな移行と低レイテンシーを実現
- ストリーム処理アプリケーションの応答性とコスト効率が向上
この機能は全 AWS リージョンで利用可能で、AWS API、Kinesis Client Library (KCL) 3.0、Apache Flink コネクターを通じて利用できます。AWS Lambda を使用して DynamoDB Streams を消費する場合は、自動的に強化された API 機能の恩恵を受けられます。
Amazon DocumentDB (MongoDB 互換) がセカンダリーリージョンクラスターを最大10まで拡張可能に
Amazon DocumentDB (MongoDB 互換) のグローバルクラスターが、最大10のセカンダリーリージョンの追加をサポートするようになりました。これにより、グローバルに分散したアプリケーションのスケーラビリティと可用性が向上します。
Amazon DocumentDB グローバルクラスターは複数の AWS リージョンにまたがり、リージョン全体の障害からの災害復旧と、グローバルに分散したアプリケーションのための高速なローカル読み取りを可能にします。
今回のアップデートにより、グローバルクラスターに追加できるセカンダリーリージョンの数が、これまでの最大5リージョンから最大10リージョンに増加しました。これにより、アプリケーションの運用におけるグローバルフットプリントが拡大します。
Amazon DocumentDB (MongoDB 互換) は、フルマネージドのネーティブ JSON データベースで、インフラストラクチャーを管理することなく、ほぼあらゆる規模で重要なドキュメントワークロードを簡単かつコスト効率よく運用することができます。
Amazon Corretto の 2025年7月四半期アップデートを発表
Amazon Corretto の OpenJDK の長期サポート (LTS) 版および機能リリース (FR) 版に対する四半期ごとのセキュリティおよび重要なアップデートが発表されました。
Corretto 24.0.2、21.0.8、17.0.16、11.0.28、8u462 がダウンロード可能になりました。
Amazon Corretto は、無料でマルチプラットフォームに対応した、本番環境で利用可能な OpenJDK ディストリビューションです。
Linux システムでは、Corretto の Apt または Yum リポジトリを設定することでアップデートを入手できます。
Amazon AppStream 2.0 が GPU ベースのインスタンスのサポートを拡大
Amazon AppStream 2.0 が Graphics G6 インスタンスのサポートを発表しました。これは EC2 G6 ファミリーをベースにしており、グラフィックス集約型アプリケーション向けに設計されています。EC2 G6 インスタンスは NVIDIA L4 Tensor Core GPU と第3世代 AMD EPYC プロセッサーを搭載しています。
今回のローンチでは、AppStream 2.0 に 9 つの Graphics G6 インスタンスサイズが導入されました。システムメモリは 16 GB から 384 GB、vCPU は 4 から 96 まで用意されています。7 つの G6 インスタンスは 1:4 の vCPU とメモリ比を維持し、g6.12xlarge と g6.24xlarge を除いて完全な GPU 機能を備えています。これら 2 つのインスタンスは 4 つの GPU を搭載しています。また、4xlarge と 8xlarge サイズの 2 つの Gr6 インスタンスは、1:8 の vCPU とメモリ比を特長としています。
Graphics G6 インスタンスファミリーは、米国東部(バージニア北部、オハイオ)、米国西部(オレゴン)、カナダ(中部)、ヨーロッパ(パリ、フランクフルト、ロンドン)、アジアパシフィック(東京、ムンバイ、シドニー、ソウル)、南米(サンパウロ)、AWS GovCloud(米国西部)を含む 13 の AWS リージョンで利用可能です。
AppStream 2.0 は従量課金制を採用しています。イメージビルダーの起動やフリートの作成時に、AppStream 2.0 Graphics G6 インスタンスを選択することで利用を開始できます。AWS マネジメントコンソールまたは AWS SDK を使用して Graphics G6 インスタンスを起動できます。
TwelveLabs のマルチモーダル基盤モデルが Amazon Bedrock で利用可能に
TwelveLabs の Marengo 2.7 と Pegasus 1.2 マルチモーダル基盤モデルが Amazon Bedrock で利用可能になりました。
Marengo 2.7 は検索や分類などのタスクに優れたビデオ埋め込みモデルで、ビデオ理解を向上させます。Pegasus 1.2 はビデオデータに基づいてテキストを生成できるビデオ言語モデルです。
これらのAI機能を統合することで、組織は深い技術的専門知識なしにビデオライブラリの検索、分類、洞察の抽出が容易になります。
これらのモデルにより、コンテンツの発見、分析、ユーザー体験の向上など、新たな可能性が開かれ、さまざまな業界でビデオインテリジェンスがより身近になります。
メディアやエンターテインメント業界では、ビデオの瞬間を即座に見つけ、要約し、接続することで制作ワークフローを変革し、クリエイターは映像の検索ではなく創造性に集中できます。
広告業界では、AI駆動のビデオ理解によってコンテンツ分析とワークフローの効率を加速し、制作時間とコストを削減しながらブランドとオーディエンスのつながりを効果的に強化できます。
Marengo 2.7 は米国東部(バージニア北部)、欧州(アイルランド)、アジアパシフィック(ソウル)のAWSリージョンで利用可能です。Pegasus 1.2 は米国西部(オレゴン)と欧州(アイルランド)のAWSリージョンでクロスリージョン推論を介して利用可能です。
Luma AI の Ray2 が Amazon Bedrock で画像から動画生成をサポート
Luma AI の Ray2 モデルが Amazon Bedrock で画像から動画を生成する機能をサポートするようになりました。この新機能は、1月に導入されたテキストから動画を生成する機能を拡張し、開発者にさらに強力な動的ビデオコンテンツ作成ツールを提供します。
今回のアップデートにより、最大25MBの静止画(.jpegおよび.png)を、最先端の Ray2 モデルを使用して魅力的な動画に変換できるようになりました。これにより、コンテンツ制作やビジュアルストーリーテリングの新たな可能性が広がります。
この機能は、広告、エンターテインメント、eコマースなどの業界で特に有用です。AIを活用して画像から動画を生成することで、企業は時間とリソースを節約しながら、高品質で動的なコンテンツを大規模に制作できます。
Luma AI の Ray2 モデルは、米国西部(オレゴン)AWSリージョンで利用可能です。
Amazon SageMaker と Amazon QuickSight の統合を発表
Amazon SageMaker と Amazon QuickSight の統合が発表されました。主な特長は以下の通りです:
1. SageMaker プロジェクトのデータを使用して QuickSight でダッシュボードを構築可能
2. SageMaker Unified Studio から直接 QuickSight を起動し、手動設定なしでプロジェクトデータを可視化
3. ダッシュボードを SageMaker Catalog に公開し、広く発見・再利用可能に
4. SageMaker が自動的に QuickSight データセットを作成し、プロジェクトメンバーのみがアクセス可能な安全なフォルダーに整理
5. QuickSight で作成したダッシュボードは自動的に SageMaker プロジェクトのアセットとして追加
6. SageMaker Unified Studio 内でダッシュボードを企業ディレクトリーのユーザーやグループと共有可能
7. ダッシュボードの整理、発見、共有、管理が容易になり、チーム間のコラボレーションとアセットの再利用が促進
この統合は、AWS IAM Identity Center を使用する QuickSight ユーザーを対象に、SageMaker が利用可能な全 AWS リージョンで一般提供されています。
Amazon SageMaker が自動レイクハウスオンボーディングとメタデータ取り込みによるデータ管理の簡素化を発表
Amazon SageMaker に、データ管理とガバナンスを簡素化する2つの新機能が追加されました。
1. 自動レイクハウスオンボーディング:
- Glue Data Catalog テーブルなどのデータセットのメタデータを SageMaker Catalog に自動的に取り込みます。
- 新しい SageMaker Unified Studio ドメインの作成時や既存ドメインの更新時に実行されます。
- 手動での IAM 権限設定やメタデータ取り込みジョブ、スクリプトが不要になります。
- データセットを即座に検出可能にし、Amazon SageMaker Unified Studio でのガバナンス、分析、コラボレーションの準備が整います。
2. 直接共有:
- データ所有者が SageMaker Catalog 内のアセットへのアクセス権を、ほかの SageMaker Unified Studio プロジェクトに直接付与できます。
- サブスクリプションリクエストが不要になります。
- チーム間のコラボレーションを効率化し、プロジェクトを加速させ、引き継ぎを減らします。
- 堅ろうなガバナンスを維持しつつ、これらの利点を実現します。
これらの機能は、Amazon SageMaker がサポートされている全ての AWS リージョンで利用可能です。
Amazon SageMaker がビジュアルワークフロービルダーを導入
Amazon SageMaker に、ワークフローの作成と管理のためのビジュアルビルダー機能が追加されました。この機能は、SageMaker Unified Studio 内で利用可能です。
主な特長:
1. ドラッグアンドドロップインターフェースによるワークフロー構築
2. データエンジニアやデータサイエンティスト向けの作成・スケジューリングプロセスの簡素化
3. ローコードでのタスクシリーズの視覚的表現
4. ビジュアルでの作成後、必要に応じてコードでのカスタマイズが可能
5. Amazon Managed Workflows for Apache Airflow (MWAA) を使用したワークフロー実行
機能:
- ワークフローの作成と変更
- スケジュールの表示と調整
- スケジュールの一時停止と再開
- ワークフロー実行のステータスとログの監視
この新機能は、Amazon SageMaker が利用可能な全ての AWS リージョンで提供されています。
Amazon SageMaker が S3 Tables のワークフロー体験を合理化
Amazon SageMaker が S3 テーブルの作成、クエリ、結合プロセスを簡素化しました。主な特長は以下の通りです:
- Amazon S3 汎用バケット、Amazon Redshift データウェアハウス、サードパーティーのデータソースのデータを対象
- 複数の AWS コンソール間を移動せずに S3 テーブルバケットと関連カタログを作成可能
- SageMaker Unified Studio 内のクエリエディターまたは Jupyter Notebook を使用してテーブルの作成、データのロード、クエリの実行が可能
- 管理者は AWS アカウントの S3 分析統合を有効化し、カスタムプロファイルを作成可能
- プロジェクトオーナーは事前設定されたカタログと S3 テーブルサポートを持つプロジェクトを設定可能
この更新された S3 テーブル機能は、北米、南米、アジアパシフィック、ヨーロッパの複数のリージョンで利用可能です。
Amazon SageMaker Catalog が Amazon S3 の汎用バケットをサポート
Amazon SageMaker Catalog に Amazon S3 の汎用バケットを追加できるようになりました。これにより、以下の利点があります:
1. データサイエンティスト、エンジニア、ビジネスアナリストが Amazon S3 のデータセットを簡単に発見しアクセスできる
2. データプロデューサーが詳細なセキュリティ制御を維持できる
3. チームが S3 の適切なデータセットに効率的にアクセスでき、データガバナンスも維持される
SageMaker Catalog の新機能:
- S3 汎用バケット内の非構造化データを「S3 オブジェクトコレクション」として共有可能
- 事前定義されたフォームを使用してアセットをキュレーション
- データ所有者、分類用語などのビジネスメタデータを追加可能
- 公開された S3 オブジェクトコレクションは、SageMaker の検索・閲覧機能で発見可能
- ユーザーはサブスクライブしてデータへのアクセスと更新を受け取れる
この機能により、クロスチームでのデータ共有を効率化しつつ、大規模な権限管理とガバナンスが可能になります。
この統合は、Amazon SageMaker が利用可能な全ての AWS リージョンで利用できます。
Amazon SageMaker AI で Amazon Nova のカスタマイズが可能に
Amazon Nova が、独自のモデルファミリーとして最も包括的なモデルカスタマイズ機能スイートを導入しました。これらの機能は SageMaker AI ですぐに使用できるレシピとして提供され、Nova Micro、Nova Lite、Nova Pro をモデルトレーニングのライフサイクル全体で適応させることができます。
カスタマイズ技術には、継続的な事前トレーニング、教師ありファインチューニング(SFT)、直接選好最適化(DPO)、近傍方策最適化 (PPO)、知識蒸留が含まれます。SFT、DPO、蒸留では、パラメーター効率の良いオプションとフルモデルトレーニングオプションの両方がサポートされています。
Nova カスタマイズレシピは、SageMaker トレーニングジョブと SageMaker HyperPod で利用可能です。カスタマイズされたモデルは Amazon Bedrock にデプロイでき、オンデマンド推論またはプロビジョンドスループットを介して呼び出すことができます。
これらの機能は、US East (N. Virginia) リージョンで利用可能です。
Amazon Nova Sonic がフランス語、イタリア語、ドイツ語をサポート
Amazon Nova Sonic(音声対音声の基盤モデル)が、フランス語、イタリア語、ドイツ語をサポートするようになりました。これにより、既存の英語とスペイン語のカバレッジが拡大しました。このアップデートでは、6つの表現豊かな音声が追加され、男性的および女性的な音声オプションが提供されます。これにより、開発者はより自然で包括的な会話型AIエクスペリエンスを、より広範な言語で作成できるようになります。
さらに、Amazon Nova Sonic はオープンソースの WebRTC プラットフォームである LiveKit と、音声およびマルチモーダル AI エージェントを構築するためのオープンソースフレームワークである Pipecat と統合されました。これらの統合により、複雑な音声パイプラインやストリーミングインフラストラクチャーを管理する必要がなくなり、低遅延のリアルタイム音声アプリケーションの開発が簡素化されます。
新たな機能として、Nova Sonic は Vonage と Twilio との統合もサポートし、電話通信やコミュニケーションのユースケースに対する展開の柔軟性を拡大しました。
Amazon Nova Sonic は、リアルタイムで人間のような音声会話を低遅延で提供する音声対音声の基盤モデルです。Amazon Bedrock の双方向ストリーミング API を通じて利用可能で、さまざまな話し方のストリーミング音声を理解し、入力音声のプロソディに動的に適応する表現豊かな音声応答を生成します。
Amazon Nova Sonic は、3つの AWS リージョンで Amazon Bedrock を通じてグローバルに利用可能です。
Amazon Bedrock でカスタム Nova モデルのオンデマンドデプロイメントを発表
Amazon Bedrock で Nova モデルのオンデマンドデプロイメントオプションが利用可能になりました。このオプションは、Bedrock で微調整または蒸留されたモデル、あるいは SageMaker AI でカスタマイズされたモデルに適用されます。2025年7月16日以降にカスタマイズされたモデルが対象となります。
この機能により、Bedrock のお客さまは事前にプロビジョニングされたコンピューティングリソースを必要とせず、リアルタイムでリクエストを処理することでコストを削減できます。使用した分だけ支払うため、常時稼働するインフラストラクチャーの必要性を軽減できます。
Amazon Bedrock は、単一の API を通じて主要 AI 企業の高性能な基盤モデルを提供するフルマネージドサービスです。また、セキュリティ、プライバシー、責任ある AI を組み込んだジェネレーティブ AI アプリケーションを構築するために必要な幅広い機能セットを提供します。
AWS Knowledge MCP Server が利用可能に(プレビュー)
AWS Knowledge Model Context Protocol (MCP) Server のプレビューリリースが発表されました。これは、ドキュメント、ブログ記事、新機能のお知らせ、Well-Architected のベストプラクティスなど、信頼できる AWS の情報を LLM 互換形式で提供する新しいツールです。
AWS Knowledge MCP Server により、MCP をサポートするクライアントや基盤モデル (FM) は、信頼できる AWS のコンテキスト、ガイダンス、ベストプラクティスに基づいて応答を生成できます。これにより、正確な推論と一貫した実行に必要なガイダンスが提供され、手動でのコンテキスト管理が軽減されます。
お客さまは情報を手動で検索する代わりに、ビジネス課題に集中できるようになります。このサーバーは無料で公開されており、AWS アカウントは不要です。ただし、使用にはレート制限があります。
MCP クライアントを AWS Knowledge MCP Server エンドポイントを使用するように設定することで、開発者やエージェントに最新の AWS 情報へのアクセスを提供できます。セットアップ手順については、スタートガイドを参照してください。
AWS API MCP サーバーが利用可能に(プレビュー)
AWS が AWS API モデルコンテキストプロトコル (MCP) サーバーの開発者プレビューを発表しました。これは、基盤モデル (FM) が自然言語を通じて任意の AWS API と対話できるようにする新しいツールです。
AWS API MCP サーバーにより、MCP クライアントを使用するお客さまは、ホスト FM が API 呼び出しに変換できる自然言語リクエストを発行することで、以下のようなタスクを効率化できます:
- ワークロードのトラブルシューティング
- アプリケーションデプロイメントの管理
- AWS サービスと機能の探索
このサーバーは、MCP クライアントがサポートされている AWS API を発見し、ホスト FM を通じて呼び出すことを可能にします。これにより、AWS リソースの検査、作成、変更などのアクションが可能になります。
セキュアなアクセス制御は、AWS Identity and Access Management (IAM) 認証情報と事前設定された API 権限を通じて提供されます。これにより、FM が許可された AWS API に対してのみアクセスまたはアクションを実行できるようになります。
AWS API MCP サーバーはオープンソースプロジェクトとしてリリースされ、現在利用可能です。
AWS AI League を発表
AWS AI League が発表されました。これは、Amazon SageMaker AI や Amazon Bedrock などの AWS AI サービスを使用した実践的な学習と楽しい競争を組み合わせて、組織の従業員のスキルアップを支援するプログラムです。
主な特長:
1. 企業や開発者向けに、ファインチューニング、モデルカスタマイズ、プロンプトエンジニアリングの実践的なスキルを習得する機会を提供
2. 企業は内部の AWS AI League 競争を開催するための AWS クレジットを申請可能
3. 個人の開発者は、AWS サミットや AWS re:Invent で AWS AI League に参加可能
4. AWS は最大 200 万ドルの AWS クレジットと、2025 年の AWS re:Invent での 25,000 ドルの優勝賞金を提供
このプログラムは、従業員の AI スキル向上と生成 AI 分野のイノベーション加速に対する AWS のコミットメントを示しています。
Amazon CloudWatch が生成系 AI の可観測性を追加(プレビュー)
Amazon CloudWatch が生成系 AI アプリケーションとワークロードの監視機能を強化しました。主な特長は以下の通りです:
1. Amazon Bedrock AgentCore (プレビュー) で展開・運用されるエージェントを含む、AI のパフォーマンス、健全性、精度に関する洞察を提供
2. AI ワークロードのレイテンシー、使用状況、エラーの可視化により、モデル呼び出しやエージェントなどのコンポーネントの問題をより迅速に検出
3. ナレッジベース、ツール、モデルなどのコンポーネントのエンドツーエンドのプロンプトトレーシングによる問題の迅速な特定
4. Strands Agents、LangChain、LangGraph などの一般的な生成系 AI オーケストレーションフレームワークとの互換性
5. 生成系 AI アプリケーションのコンポーネント間のテレメトリーデータを分析し、エラーの原因を迅速に特定
6. エンドツーエンドのプロンプトトレーシング、キュレーションされたメトリクスとログを使用して、不正確な応答の原因を特定
7. コンポーネントの相互作用の連携ビューにより、開発者はワークロードを迅速に最適化し、高可用性、精度、信頼性、品質を実現
8. CloudWatch コンソールの「AgentCore」タブで、エージェントのフリートを一元的に監視・評価
9. CloudWatch のほかの機能(Application Signals、アラーム、ダッシュボード、機密データ保護、Logs Insights)と統合
この機能は、米国東部(バージニア北部)、米国西部(オレゴン)、欧州(フランクフルト)、アジアパシフィック(シドニー)の4リージョンでプレビュー利用可能です。収集・保存されたテレメトリーデータには CloudWatch の料金が適用されます。
AWS Deadline Cloud が Service-Managed Fleets で Unreal Engine をサポート
AWS Deadline Cloud が Service-Managed Fleets で Unreal Engine のサポートを拡大しました。AWS Deadline Cloud は、ゲーム、映画、テレビ、Web コンテンツなどの業界標準ツールを使用してコンピューター生成グラフィックスやビジュアルエフェクトを作成するチーム向けに、レンダリング管理を簡素化する完全マネージドサービスです。
この新機能により、コンピューティングインフラストラクチャーの設定や管理を行うことなく、Unreal Engine 5.4、5.5、または 5.6 プロジェクトを Deadline Cloud に送信してレンダリングできます。インストール後は、Unreal Engine の Movie Render Queue から直接ジョブを簡単に送信できます。AWS Deadline Cloud は、プロジェクトのレンダリングに必要なコンピューティングリソースのプロビジョニングと弾力的なスケーリングを自動的に処理します。
Deadline Cloud の Unreal Engine サポートは、Deadline Cloud が提供されている全ての AWS リージョンで利用可能です。
AWS Deadline Cloud が Chaos V-Ray の使用量ベースライセンスをサポート
AWS Deadline Cloud が Chaos V-Ray の使用量ベースのライセンス (UBL) をサポートするようになりました。これにより、クラウドを利用してレンダリングを行い、柔軟な V-Ray ライセンスにアクセスできるようになりました。
Deadline Cloud は、映画、テレビ、放送、Web コンテンツ、デザイン向けのコンピューター生成グラフィックスやビジュアルエフェクトを作成するチーム向けに、レンダリング管理を簡素化するフルマネージドサービスです。
AWS Deadline Cloud を使用すると、独自のレンダーファームインフラストラクチャーを管理することなく、スタンドアロンの V-Ray ジョブバンドルの送信と実行、および Autodesk Maya 内からの V-Ray ジョブの送信が可能です。V-Ray レンダリングワークロードを簡単にスケーリングでき、ローカルリソースの制限によるボトルネックを解消できます。
UBL 統合により、従量課金制のライセンスモデルが提供され、動的なワークロードを管理するスタジオに最適です。ワーカーインフラストラクチャーを自分でセットアップ、設定、管理することなく、3D グラフィックスやビジュアルエフェクトのパイプラインを構築できます。
クリエーティブチームは、Deadline Cloud が利用可能な全ての AWS リージョンで、V-Ray の使用量ベースのライセンスを今すぐ利用開始できます。
AWS Transform for mainframe がコードリファクタリングとビジネスロジック機能を強化
AWS Transform for mainframe に、メインフレームの最新化をさらに効率化する強化されたリフォージと業務ロジック抽出機能が追加されました。これらの新機能により、組織は最新化にかかる時間を短縮し、コード品質と保守性を向上させ、最新化と移行のコストを最適化できます。
AWS Transform for mainframe のリフォージ機能が一般提供となり、複雑なメソッドの再構築、説明的なコメントの追加、変数使用の最適化、コードフローの改善により、変換された Java コードを強化します。これにより、開発者にとってより読みやすく保守しやすいコードが実現します。
さらに、AWS Transform for mainframe の業務ロジック抽出機能が、アプリケーションレベルのインサイトを提供するようになりました。高レベルの概要から詳細な業務機能分析まで、既存のファイルレベルの業務ロジック抽出を補完し、ユーザーがレガシーアプリケーションをより深く理解できるようサポートします。
これらの機能は、AWS Transform が提供されている全ての AWS リージョンで利用可能です。
AWS DataSync が IPv6 をサポート
AWS DataSync が、ストレージリソースに対する IPv6 サポートを発表しました。
主な特長:
- オンプレミスやほかのクラウド上のストレージリソースに IPv4 または IPv6 アドレスで接続可能
- NFS、SMB、オブジェクトストレージサーバーとの間でデータ転送が可能
- デュアルスタック (IPv4 と IPv6) をサポート
- ネットワークを IPv4 から IPv6 に移行する際も継続して利用可能
この機能は、AWS DataSync が利用可能な全ての AWS リージョンで利用できます。
Amazon S3 コンソールが全てのバケットの外部アクセスサマリーを表示可能に
Amazon S3 コンソールから、AWS アカウント全体のバケットへの外部アクセスを許可するポリシーのグローバルサマリーを表示できるようになりました。このサマリーにより、各 AWS リージョンのポリシーを個別に確認することなく、パブリックアクセスやほかの AWS アカウントからのアクセスを許可している S3 バケットを任意の AWS リージョンで特定できます。
外部アクセスサマリーは AWS IAM Access Analyzer を利用しており、全ての AWS リージョンの S3 コンソールで追加コストなしで利用できます。
Amazon S3 が Apache Iceberg テーブルの Apache Avro および ORC フォーマットのコンパクションをサポート
Amazon S3 が Apache Iceberg テーブルの Apache Avro および ORC フォーマットに対するコンパクション機能をサポートしました。これは既存の Parquet フォーマット機能を補完するものです。この機能強化は、S3 テーブルと AWS Glue Data Catalog 最適化を使用する一般的な S3 バケットの両方で動作します。
Parquet が Iceberg テーブルのデフォルトフォーマットですが、特定のワークロードに対して Avro や ORC フォーマットでデータを書き込むこともできます。例えば、日次購入トランザクション、ストリーミングセンサーデータ、広告インプレッション収集などのデータ取り込みやストリーミングのユースケースで、書き込みパフォーマンスを向上させるために Avro を使用できます。
S3 テーブルは、スキャンするデータを最小限に抑え、クエリパフォーマンスを向上させ、コストを削減するために、小さなファイルを自動的に大きなファイルにコンパクト化します。デフォルトでは、コンパクション処理は Avro と ORC ファイルを Parquet に変換して読み取りパフォーマンスを最適化しますが、テーブルプロパティで希望するターゲットフォーマットを指定することもできます。
Apache Avro および ORC フォーマットのコンパクションサポートは、S3 テーブルまたは AWS Glue Data Catalog による最適化が利用可能な全ての AWS リージョンで利用できます。
Amazon S3 Tables のコンパクションコストが最大90%削減
Amazon S3 Tables の Apache Iceberg テーブルに対するコンパクション操作のコスト効率が向上し、処理料金が最大90%削減されました。S3 Tables は分析ワークロード向けに最適化されたストレージを提供し、コンパクションなどのメンテナンス操作を自動化してクエリパフォーマンスを継続的に改善し、ストレージコストを削減します。
今回の価格改定により:
- オブジェクト当たりの価格が50%低下
- バイト当たりの処理価格が、binpackコンパクションで90%、ソートおよびz-orderコンパクションで80%低下
S3 Tables は、異なるクエリパターン向けに3つの自動コンパクション戦略を提供します:
1. デフォルトのbinpack戦略: 基本的な最適化のためにファイルを結合
2. ソートコンパクション: 特定のカラムでデータを整理し、クエリ時のファイルスキャンを削減
3. Z-orderコンパクション: 複数のカラムを同時にクエリする際に有効
テーブルメタデータでソート順が定義されている場合、S3 Tables は自動的にコンパクション時に階層的ソートを適用します。Z-orderコンパクションは S3 Tables メンテナンス API を通じて利用可能です。
この価格改定は2025年7月1日から S3 Tables が利用可能な全ての AWS リージョンで適用され、AWS の請求書に自動的に反映されます。
Amazon S3 Tables が Model Context Protocol (MCP) Server をサポート
AWS が Amazon S3 Tables 用の Model Context Protocol (MCP) Server をリリースしました。この統合により、AI コードアシスタントに S3 Tables の機能と操作に関する文脈理解を提供し、AI 支援によるデータ管理を強化します。
S3 Tables MCP Server を使用すると、AI アシスタントに Amazon S3 Tables との正しい対話方法に関する最新のフレームワークへのアクセスを提供し、データプロジェクトを加速できます。開発者やデータエンジニアは、自然言語を使用してテーブルの作成、スキーマ定義、データのインポート/エクスポート、クエリ操作などを処理できるようになりました。
利用を開始するには、任意の AI クライアントソフトウェアで AWS MCP Servers の最新バージョンをインストールし、AWS アカウントと権限を設定して S3 Tables の操作を開始します。
Amazon EBS がボリューム初期化状態の可視化機能を提供開始
Amazon EBS に、EBS スナップショットから作成されたボリュームの初期化状態を確認できる機能が追加されました。主な特長は以下の通りです:
1. スナップショットからの復元時に、ボリュームが完全に初期化され、レイテンシーの影響を受けやすいアプリケーションをサポートできる状態になったかを判断できます。
2. 初期化プロセス中は I/O レイテンシーの増加とパフォーマンスの低下が発生する可能性がありますが、新機能により全てのブロックがダウンロードされ、ボリュームに書き込まれたタイミングを確認できます。
3. アプリケーションの起動タイミングをボリュームの初期化完了に合わせることができます。
4. 初期化の進捗をリアルタイムで監視し、ボリュームが完全に準備できた時点でアプリケーションを起動することで、最適なパフォーマンスを確保できます。
5. Provisioned Rate for Volume Initialization を使用してボリュームを作成する場合、初期化の推定完了時間を確認できます。
この機能は、全ての AWS リージョン(AWS GovCloud (US) リージョンと AWS China リージョンを含む)で利用可能で、AWS Management Console、AWS CLI、AWS SDK を通じて使用できます。
ソフトバンクはAWS アドバンストティアサービスパートナーです
「はじめてのAWS導入」から大規模なサービス基盤や基幹システムの構築まで、お客さまのご要望にあわせて最適なAWS環境の導入を支援します。
MSP(Managed Service Provider)サービスは、お客さまのパブリッククラウドの導入から運用までをトータルでご提供するマネージドサービスです。
条件に該当するページがございません