フォーム読み込み中
皆さま、こんにちは。
Weekly AWSでは、毎週 AWSプロダクトのアップデート情報をお届けしています。
それでは、先週 (2024/12/2~12/8)の主な AWS アップデート情報をお送りします。
AWS re:Invent 2024が開催
AWS re:Invent 2024 が 12 月 2 日 〜 12 月 6 日 (米国太平洋標準時) に米国ラスベガスで開催され、機械学習カテゴリーを中心に多数のアップデートが発表されました。
ぜひチェックしてみてください。
Amazon SageMaker Lakehouse と Amazon Redshift が 8 つのアプリケーションからのゼロ ETL 統合をサポート
Amazon SageMaker Lakehouse と Amazon Redshift が、アプリケーションからのゼロ ETL 統合をサポートするようになりました。これにより、Salesforce、SAP、ServiceNow、Zendesk を含む 8 つのアプリケーションからのデータ抽出と読み込みが自動化されます。
この新機能により、以下のメリットがあります:
1. ETL データパイプラインの構築の必要性を最小限に抑えます。
2. カスタマーサポート、お客さま関係管理、ERP アプリケーションからのデータをデータレイクとデータウェアハウスに効率的に抽出・読み込みできます。
3. ユーザーの運用負担を軽減し、データパイプラインの設計、構築、テストに必要な数週間のエンジニアリング作業を省略できます。
4. ノーコードインターフェースで設定を選択するだけで、ゼロ ETL 統合をすばやく設定できます。
5. データサイロの解消と運用効率の向上に役立ちます。
6. Apache Spark と Amazon Redshift を使用して、アプリケーションデータの分析や機械学習を強化できます。
この機能により、データ取り込みプロセスを最適化し、分析とインサイトの獲得に集中できるようになります。
AWS Glue コンソール、AWS Command Line Interface (AWS CLI)、または AWS Glue API を使用して、統合の作成と管理が可能です。
Amazon SageMaker Lakehouse と AWS Glue がデータ接続機能を拡張
Amazon SageMaker Lakehouse が統合データ接続機能を発表しました。これにより、データベース、データレイク、エンタープライズアプリケーション全体のデータソースへの接続の作成、管理、使用が効率化されます。
この機能は以下を提供します:
1. 接続設定テンプレート
2. 基本認証や OAuth 2.0 などの標準認証方式のサポート
3. 接続テスト
4. メタデータ取得
5. データプレビュー
接続は SageMaker Unified Studio(プレビュー)、AWS Glue コンソール、または AWS Glue の API を使用したカスタムアプリケーションで作成できます。
一度設定された接続は、SageMaker Unified Studio、AWS Glue、Amazon Athena でデータ統合、分析、データサイエンスのユースケースに再利用できます。接続テストによる認証情報の検証、メタデータ閲覧によるデータソース構造の理解、データプレビュー機能によるソースフィールドのマッピングやデータ変換の特定が可能になります。
Amazon Q in QuickSight のシナリオ分析機能を発表(プレビュー)
Amazon Q in QuickSight の新しいシナリオ分析機能がプレビューで利用可能になりました。この新機能は、AI 支援によるデータ分析体験を提供し、より迅速で適切な意思決定を支援します。Amazon Q in QuickSight は、ステップバイステップのガイダンスにより詳細な分析を簡素化し、手動でのデータ操作にかかる時間を節約し、組織全体でデータ駆動型の意思決定を可能にします。
Amazon Q in QuickSight を使用すると、ビジネスユーザーは複雑なシナリオ分析をスプレッドシートと比較して最大10倍速く実行できます。自然言語で質問や目標を述べると、Amazon Q in QuickSight が高度なデータ分析の各ステップをガイドし、分析アプローチの提案、自動データ分析、関連する洞察の提示、推奨アクションを含む結果の要約を行います。
このエージェントアプローチにより、データ分析が一連の理解しやすく実行可能なステップに分解され、専門的なスキルや面倒で誤りやすいスプレッドシートでのデータ操作なしに、複雑な問題の解決策を見付けることができます。広範な分析キャンバス上で、データとの直接的なインタラクション、分析ステップの改善、または複数の分析パスを並行して探索することで、直感的に解決策を反復できます。
このシナリオ分析機能は、Amazon QuickSight のダッシュボードからアクセス可能で、データの可視化からソリューションのモデリングへとシームレスに移行できます。Amazon Q in QuickSight を使用すると、以前の分析を簡単に修正、拡張、再利用でき、変化するビジネスニーズに迅速に適応できます。
Amazon Q in QuickSight が構造化・非構造化データからの統合インサイトを提供
Amazon Q in QuickSight が一般提供され、Amazon Q Business との統合により、構造化データと非構造化データソースからの統合されたインサイトをユーザーに提供します。従来のシステムで管理されている構造化データに加えて、ドキュメントライブラリ、Webページ、画像などの非構造化データも活用できるようになりました。
Amazon Q in QuickSight を使用することで、ビジネスユーザーは従来の BI データソース(データベース、データレイク、データウェアハウスなど)からのインサイトを、非構造化ソースからの文脈情報で補強できます。ユーザーは QuickSight の BI インターフェース内で、マルチビジュアル Q&A と Data Stories を通じて拡張されたインサイトを得ることができます。
マルチビジュアル Q&A では、自然言語で質問し、Amazon Q Business からの文脈的なインサイトで補強されたビジュアライゼーションとデータサマリーを取得できます。Data Stories 機能では、ドキュメントをアップロードしたり、Amazon Q Business から非構造化データソースに接続したりして、より豊かな説明やプレゼンテーションを作成できます。
この統合により、組織は手動での照合なしに全てのデータからインサイトを引き出すことができ、より適切な意思決定、時間の節約、データ駆動型ビジネス環境での競争優位性の獲得につながります。
この新機能は、US East (N. Virginia) と US West (Oregon) の AWS リージョンで、全ての Amazon QuickSight Pro ユーザーが利用できます。
Amazon DataZone と次世代 Amazon SageMaker でデータリネージ機能が一般提供開始
Amazon DataZone と次世代 Amazon SageMaker でデータリネージ機能が一般提供されました。この機能は、AWS Glue と Amazon Redshift からリネージを自動的に取得し、ソースから消費までのリネージイベントを可視化します。
OpenLineage 互換であるため、データプロデューサーは OpenLineage 対応システムや API を通じて取得したリネージイベントを自動化されたリネージに追加し、データコンシューマーに包括的なデータ移動ビューを提供できます。
この機能は、AWS Glue、Amazon Redshift、Spark 実行からのデータアセットとカラムのスキーマおよび変換のリネージ取得を自動化し、一貫性を維持しエラーを削減します。ドメイン管理者とデータプロデューサーは、ビジネスデータカタログでデータ共有用にデータが設定されたときに、リネージイベントの取得と保存を自動化できます。
データコンシューマーはアセットの包括的なリネージビューからその起源に確信を持つことができ、データプロデューサーはアセットの消費を理解することで変更の影響を評価できます。
さらに、データリネージ機能は各イベントでリネージをバージョン管理し、任意の時点でのリネージの可視化やアセットまたはジョブの履歴全体での変換の比較を可能にします。この履歴リネージにより、データアセットの整合性の検証、監査、トラブルシューティングに不可欠なデータの進化についての深い理解が得られます。
AWS Glue Data Catalog が新しいテーブルの統計情報を自動生成可能に
AWS Glue Data Catalog が新しいテーブルの統計情報を自動生成するようになりました。これらの統計情報は Amazon Redshift と Amazon Athena のコストベースオプティマイザー (CBO) と統合され、クエリパフォーマンスの向上とコスト削減の可能性をもたらします。
テーブル統計情報は、Amazon Redshift や Amazon Athena などのクエリエンジンがクエリを最も効率的に実行する方法を決定するために使用されます。以前は、AWS Glue Data Catalog の Apache Iceberg テーブルの統計情報を作成するには、テーブルの設定を継続的に監視し更新する必要がありました。
今回のアップデートにより、AWS Glue Data Catalog では、1回のカタログ設定で新しいテーブルの統計情報を自動生成できるようになりました。Lake Formation コンソールでデフォルトカタログを選択し、テーブル最適化設定タブでテーブル統計を有効にすることで開始できます。
新しいテーブルが作成されたり既存のテーブルが更新されたりすると、全ての列のサンプル行を使用して統計情報が生成され、定期的に更新されます。Apache Iceberg テーブルの場合、これらの統計情報には個別値の数 (NDV) が含まれます。Parquet などの他のファイル形式では、NULL の数、最大値と最小値、平均長などの追加統計情報が収集されます。
Amazon Redshift と Amazon Athena は、最適な結合順序やコストベースの集約プッシュダウンなどの最適化を使用して、更新された統計情報を利用してクエリを最適化します。Glue Catalog コンソールでは、更新された統計情報と統計情報生成の実行状況を確認できます。
AWS Glue 5.0 が一般提供開始
AWS Glue 5.0 が一般提供開始されました。主な特長は以下の通りです:
1. パフォーマンスの向上と強化されたセキュリティ
2. Amazon SageMaker Unified Studio と SageMaker Lakehouse のサポート
3. Apache Spark 3.5.2、Python 3.11、Java 17 へのエンジンのアップグレード
4. オープンテーブルフォーマットのサポート更新:Apache Hudi 0.15.0、Apache Iceberg 1.6.1、Delta Lake 3.2.0
5. AWS Lake Formation を使用した Spark ネーティブのきめ細やかなアクセス制御
6. Amazon S3 データレイクと Amazon Redshift データウェアハウス間のデータ統合
これらの機能により、データ統合ワークロードの開発、実行、スケーリングが容易になり、より迅速なインサイト取得が可能になります。AWS Glue は、複数のソースからのデータの検出、準備、移動、統合を簡素化するサーバーレスでスケーラブルなデータ統合サービスです。
AWS Clean Rooms が複数のクラウドとデータソースをサポート
AWS Clean Rooms が複数のクラウドやデータソースからのデータセットを使用したコラボレーションをサポートするようになりました。これにより、企業とそのパートナーは、Snowflake や Amazon Athena に保存されているデータを、基礎となるデータを移動したり共有したりすることなく、簡単にコラボレーションできるようになりました。
AWS Clean Rooms の拡張されたデータソースとクラウドサポートにより、組織は AWS と Snowflake にまたがるデータセットを活用する企業と、基礎となるデータセットを移動、公開、コピーすることなくシームレスにコラボレーションできます。
このアップデートにより、企業は最新のデータを使用して、ゼロ ETL(抽出、変換、ロード)でコラボレーションできるようになり、既存の環境からデータセットを移行する際のコストと複雑さが解消されます。
例えば、Amazon S3 にデータを保存しているメディアパブリッシャーと、Snowflake にデータを保存している広告主が、ETL データパイプラインを構築したり、基礎となるデータを互いに共有したりすることなく、広告主の支出を評価するために共同でデータセットを分析できます。
AWS Clean Rooms を使用することで、お客さまは数分で安全なデータクリーンルームを作成し、AWS や Snowflake 上の任意の企業とコラボレーションして、広告キャンペーン、投資判断、研究開発に関するユニークな洞察を得ることができます。
Amazon EventBridge と AWS Step Functions がプライベート API との統合を発表
Amazon EventBridge と AWS Step Functions が、AWS PrivateLink と Amazon VPC Lattice を利用したプライベート API との統合をサポートするようになりました。これにより、お客さまはオンプレミスとクラウドの両方で、パブリックおよびプライベートネットワーク全体で分散アプリケーションの革新を加速し、近代化を簡素化できるようになりました。
この機能により、お客さまは新規および既存のワークロードに AWS クラウドの機能をもたらし、より高いパフォーマンス、俊敏性、およびコスト削減を実現できます。
企業は成長の促進、コスト削減、イノベーションの促進のためにアプリケーションを近代化していますが、サイロ化された VPC やオンプレミス環境間でのアプリケーション統合には課題がありました。
完全マネージド型のプライベート HTTPS ベース API への接続により、お客さまはイベント駆動型アーキテクチャーとワークフロー オーケストレーションを使用して、レガシーシステムをクラウドネーティブアプリケーションと安全に統合できるようになりました。
これらの進歩により、カスタムネットワーキングや統合コードを作成・維持する必要がなくなり、開発者は拡張可能なシステムを構築し、新機能を容易に追加できるようになりました。
この機能は、AWS マネジメントコンソール、AWS CLI、SDK から利用できます。
Salesforce Contact Center with Amazon Connect を発表(プレビュー)
AWS は Salesforce Contact Center with Amazon Connect のプレビューを発表しました。これは、Salesforce Service Cloud にネーティブのデジタルおよび音声機能を統合し、エージェントに統一された合理化された体験を提供する画期的なサービスです。
Salesforce ユーザーは、Amazon Connect と Service Cloud の機能を使用して、音声、チャット、メール、ケース管理を統合およびルーティングできるようになり、運用効率とお客さまサービスの対話が向上します。
このサービスにより、企業は Salesforce CRM データとエージェント体験を Amazon Connect の音声、デジタルチャンネル、ルーティング機能とシームレスに統合できます。Salesforce ユーザーは、あらゆるタッチポイントでパーソナライズされた応答性の高いサービスを革新できます。
お客さまは、Amazon Connect の音声とチャットを通じて Amazon Lex を利用した AI 駆動のセルフサービス体験を受けられ、問題を迅速に解決できます。より複雑な問い合わせの場合、セルフサービスからエージェントによる支援へのシームレスな移行により、お客さまは適切なエージェントに接続されます。エージェントは Salesforce Service Cloud でお客さまのデータ、問題、対話履歴の統合ビューを持ちます。
統合されたデータと API により、エージェントは Contact Lens のリアルタイム音声トランスクリプトを利用でき、スーパーバイザーは Salesforce Service Cloud で通話モニターリングを行えます。Salesforce 管理者は、Amazon Connect の音声、チャット、Salesforce ケースのルーティングを使用して、統合されたコンタクトセンターソリューションを数分で迅速に展開および設定できます。
Amazon Connect が簡素化された会話型 AI ボットの作成機能をローンチ
Amazon Connect で、インタラクティブ音声応答 (IVR) やチャットボットのセルフサービス体験向けの会話型 AI ボットを、数回のクリックで簡単に作成、編集、継続的に改善できるようになりました。Amazon Lex を利用したボットを Connect の Web UI から直接設定・デザインできるため、お客さまの意図を理解し、フォローアップの質問をし、問題を自動的に解決する動的な会話型 AI 体験を提供できます。
Amazon Connect のドラッグアンドドロップ式ワークフローデザイナーを使用すると、Amazon Connect Customer Profiles と連携してボットを強化し、コーディング不要でパーソナライズされた体験を簡単に提供できます。例えば、タッチトーン式メニュー(「アカウントサポートは1を押してください」など)をボットにアップグレードし、お客さまを名前で呼んで挨拶し、今後の請求書の支払いを積極的に手伝い、追加のサポートオプションを提供することができます。
また、数回のクリックで Connect ウィジェットをカスタマイズして起動し、お客さまのデジタル体験をさらに向上させることができます。Amazon Connect の新しいボット構築機能により、複数のアプリケーションやカスタム統合を管理する必要性を減らし、ボットを活用したセルフサービス体験を簡単に作成・提供できます。
Amazon Connect が新しい日中予測ダッシュボードを発表
Amazon Connect に以下の新機能が追加されました:
1. 日中の予測と以前に公開された予測の比較
2. 予測される日次パフォーマンスの確認
3. 効果的な人員配置の予測
これらの機能は Amazon Connect Contact Lens のダッシュボードで利用できます。
日中の予測は15分ごとに更新され、以下の項目を予測します:
- その日の残りの問い合わせ量
- 平均キュー応答時間
- 平均処理時間
- 効果的な人員配置
これらの予測により、お客さまの待ち時間とサービスレベルを改善するための事前対策が可能になります。
例えば、コンタクトセンターのマネージャーはキューレベルでエージェントの稼働率を追跡できるようになり、待ち時間に影響が出る前に、潜在的な不均衡や人員不足を特定して対処することができます。
Amazon Connect が外部音声転送をサポート
Amazon Connect が他の音声システムと統合され、公衆電話網を使用せずに音声通話とメタデータを直接転送できるようになりました。Amazon Connect の電話機能とインタラクティブ音声応答 (IVR) を既存の音声システムと組み合わせることで、お客さま体験の向上とコスト削減を実現できます。
Amazon Connect IVR は、30 以上の言語で自然言語処理、自動音声認識、テキスト読み上げを活用した会話型音声ボットを提供します。これにより、カスタマーサービスのパーソナライズ、複雑なタスクのセルフサービス化、エージェントの対応時間短縮のための情報収集が可能になります。
この機能により、既存のコンタクトセンターや企業・支店の音声システムの IVR 体験を Amazon Connect で最新化できます。また、コンタクトセンターを Amazon Connect に移行する企業は、エージェントの移行に先立ち、Connect の電話機能と IVR を使用して即座に最新化を開始できます。
外部音声転送機能は、米国東部 (バージニア北部) と米国西部 (オレゴン) の AWS リージョンで利用可能です。
Amazon Connect がチャットでのシームレスな取引体験を向上
Amazon Connect で、チャット内での機密性の高いお客さまデータの収集と、シームレスな取引体験の提供が容易になりました。これにより、全体的なお客さま体験が向上します。
新機能により、以下のようなインラインチャットでのやりとりが可能になりました:
- 支払い処理
- お客さま情報の更新(住所変更など)
- お客さまデータの収集(アカウント詳細など)
これらの操作を行う際に、お客さまがチャンネルを切り替えたり、Webサイトの別のページに移動したりする必要がなくなりました。
この機能を利用するには、以下の手順を実行します:
1. Amazon Connect のノーコード UI ビルダーを使用して、フォーム付きのステップバイステップガイドを作成
2. Show view フローブロックで「This view has sensitive data」オプションを有効にし、データ保護とプライバシー基準への準拠を確保
3. Lambda 関数を使用して、収集したお客さまデータを任意のアプリケーション(決済処理システムなど)に送信
Amazon Connect がお客さまセグメント向け AI アシスタントとトリガーベースのキャンペーンを発表
Amazon Connect に、お客さまを個別化された方法でプロアクティブに関与させる新機能が追加されました。これらの機能により、技術的な知識を持たないビジネスユーザーでも、プロンプトを使用してお客さまセグメントを作成し、トリガーベースのキャンペーンを実行して、適切なタイミングで関連性の高いコミュニケーションを適切な対象者に届けることができます。
Amazon Connect Customer Profiles の新しいセグメント AI アシスタントを使用すると、自然言語クエリでオーディエンスを構築し、お客さまデータの傾向に基づいた推奨事項を受け取ることができます。簡単に使えるプロンプトを使用して、過去四半期にサポートケースが増加したお客さまや、先月の購入が減少したお客さまなどのセグメントを特定できます。
Amazon Connect アウトバウンドキャンペーンでは、リアルタイムのお客さまイベントに基づく新しいトリガーベースのキャンペーンを使用して、数回のクリックでプロアクティブにアウトバウンドコミュニケーションを実行できます。買い物かごの放棄や特定のヘルプページへの頻繁な訪問などの行動に即座に対応し、お客さまが好むチャンネルを通じてタイムリーで関連性の高いコミュニケーションを行うことができます。
Amazon Connect が WhatsApp Business メッセージングをサポート
Amazon Connect が WhatsApp Business メッセージングをサポートするようになりました。これにより、世界で最も人気のあるメッセージングプラットフォームの1つである WhatsApp を使用するお客さまにパーソナライズされたエクスペリエンスを提供し、お客さま満足度を向上させ、コストを削減することができます。
インライン画像や動画、リストメッセージ、クイックリプライなどのリッチメッセージング機能により、お客さまは商品のレコメンデーションを閲覧したり、注文状況を確認したり、予約をしたりすることができます。
Amazon Connect for WhatsApp Business メッセージングを使用すると、お客さまはWebサイトやモバイルアプリケーションに掲載された WhatsApp 対応の電話番号やチャットボタンをタップするか、QR コードをスキャンするだけで簡単に会話を開始できます。これにより、通話をチャットに転送することで通話量を減らし、運用コストを削減できます。
WhatsApp Business メッセージングは、Amazon Connect の音声、チャット、SMS、Apple Messages for Business、タスク、Webコール、メールと同じ生成系AI を活用したチャットボット、ルーティング、設定、分析、エージェントエクスペリエンスを使用するため、シームレスなオムニチャンネルのカスタマーエクスペリエンスを簡単に提供できます。
Amazon Connect が IVR やその他の自動対話での音声録音機能を提供開始
Amazon Connect に、お客さまがセルフサービスの自動音声応答 (IVR) やその他の自動化された対話を行う際の音声録音機能が追加されました。コンタクト詳細ページでは、録音を聞いたり、ボットの文字起こしやタッチトーン式メニューの選択などの情報を含むログを確認したりできます。
録音設定は、Amazon Connect のドラッグアンドドロップ式ワークフローデザイナーにある「Set recording and analytics behavior」ブロックを使用して設定できます。これにより、録音する対話の部分を簡単に指定できます。例えば、お客さまがクレジットカード番号や社会保障番号を共有する際など、機密情報のやりとりの前後で録音を一時停止したり再開したりすることができます。
これらの新機能により、セルフサービス体験の品質を監視・監査したり、コンプライアンスや方針のために対話を記録したりすることが容易になります。
Amazon Connect が Amazon Q を活用した生成系AI による自動応答サービスを開始
Amazon Q in Connect に、お客さま向けセルフサービス機能が追加されました。この機能は、音声自動応答(IVR)やデジタルチャンネルで利用できます。
生成系AI の機能を活用することで、既存のセルフサービス体験をより個別化し、動的なものにすることができます。これにより、お客さま満足度と初回解決率の向上が期待できます。
Amazon Q in Connect は、エンドカスタマーと直接会話し、曖昧なシナリオに対しても適切な回答を提供できます。例えば、旅行の予約、ローンの申し込み、医師の予約などのアクションを完了させることができます。
また、Q&A 機能もサポートしており、エンドカスタマーが必要な情報を得られるようサポートします。さらに、フォローアップの質問をすることで、より適切な回答を提供することができます。
追加のサポートが必要な場合、Amazon Q in Connect はお客さまサービスエージェントへのシームレスな移行を提供し、会話の全コンテキストを保持することで一貫したお客さま体験を確保します。
Amazon Connect が Amazon Q のための AI ガードレールを発表
Amazon Q in Connect で、カスタマーサービス向けの生成系AI 搭載アシスタントに、ユースケースと責任ある AI ポリシーに基づいて AI ガードレールをネーティブに設定できる機能が追加されました。コンタクトセンター管理者は、Amazon Q in Connect に企業固有のガードレールを設定し、有害で不適切な応答をフィルターリングし、機密性の高い個人情報を編集し、大規模言語モデル (LLM) の潜在的な幻覚による誤った情報を制限できます。
エンドカスタマーのセルフサービスシナリオでは、ガードレールを使用して Amazon Q in Connect の応答を企業関連のトピックのみに制限し、プロフェッショナルなコミュニケーション基準を維持できます。また、エージェントがお客さまの問題解決に Amazon Q in Connect を活用する際、これらのガードレールによってエージェントへの個人識別情報 (PII) の偶発的な露出を防ぐことができます。
コンタクトセンター管理者は、これらのガードレールを柔軟に設定し、異なるコンタクトタイプに選択的に適用できます。
Amazon Connect Contact Lens が生成系AI を使用してコンタクトを自動分類
Amazon Connect Contact Lens に、生成系AI を使用してコンタクトを自動的に分類する機能が追加されました。これにより、コンタクトの主要な要因、お客さま体験、エージェントの行動を簡単に特定できるようになりました。
自然言語でコンタクトを分類する基準を提供できます(例:お客さまが残高の支払いを試みたか)。Contact Lens は、基準に一致するコンタクトに自動的にラベルを付け、会話の関連ポイントを提供します。さらに、分類されたコンタクトに関するアラートの受信やタスクの生成、自動ラベルを使用したコンタクトの検索が可能です。
この機能により、スーパーバイザーは特定の製品に対するお客さまの関心の特定、お客さま満足度の評価、エージェントの通話時の専門的な行動の監視など、さまざまなシナリオでコンタクトを簡単に分類できます。
この機能は英語をサポートしており、US East (N. Virginia) と US West (Oregon) の 2 つの AWS リージョンで利用可能です。
Amazon Connect Contact Lens が生成系AI を使用してエージェントのパフォーマンス評価を自動化
Amazon Connect Contact Lens に、生成系AI を使用して自動的にエージェントのパフォーマンス評価を入力し提出する機能が追加されました。主な特長は以下の通りです:
1. マネージャーは自然言語で評価基準を指定可能
2. 生成系AI を使用してエージェントのお客さま対応を自動評価
3. 時間の経過とともにエージェントグループ全体のパフォーマンスインサイトを集計
4. 自動評価の根拠と、エージェントコーチングのための会話の特定のポイントへの参照を提供
5. エージェントの追加的な行動(お客さまの問題を解決できたかなど)の自動評価が可能
この機能により、マネージャーは規制遵守、品質基準への準拠、機密データ収集などを包括的に監視・改善できるようになり、エージェントのパフォーマンス評価にかかる時間を削減できます。
この機能は英語でサポートされており、東京リージョンを含む8つのAWSリージョンで利用可能です。
Amazon Connect Contact Lens が外部音声システムをサポート
Amazon Connect が他の音声システムとの統合を実現し、リアルタイムおよび通話後の分析が可能になりました。これにより、既存の音声システムで Amazon Connect Contact Lens を使用して、お客さま体験とエージェントのパフォーマンス向上を支援できます。
Amazon Connect Contact Lens は以下の機能を提供します:
- 通話録音
- 会話分析(通話トランスクリプト、機密データの編集、コンテンツ分類、テーマ検出、感情分析、リアルタイムアラート、通話後サマリーなど)
- エージェントのパフォーマンス評価(評価フォーム、自動評価、スーパーバイザーレビュー)
- お客さまとのやりとりを表示、検索、フィルターリングするためのリッチなユーザーエクスペリエンス
- データストリームとデータレイクへのプログラムによるアクセス
既存の Amazon Connect ユーザーは、Contact Lens の使用を他の音声システムに拡張し、単一のデータウェアハウスで一貫した分析を行うことができます。Amazon Connect への移行を検討している場合は、エージェントを移行する前に Contact Lens の分析機能とパフォーマンスインサイトを利用できます。
Amazon Connect Contact Lens が会話型 AI ボットのパフォーマンス分析用の組み込みダッシュボードを発表
Amazon Connect Contact Lens に、会話型 AI ボットのパフォーマンスを監視するための組み込みダッシュボードが追加されました。これにより、セルフサービスや自動化されたエクスペリエンスを簡単に分析し、継続的に改善することができます。
Contact Lens のフローパフォーマンスダッシュボードでは、Amazon Lex や Q in Connect ボットの分析情報を確認できます。これには、お客さまが問題をどのように伝えているか、最も一般的な問い合わせ理由、対話の結果などが含まれます。
ダッシュボードから数回クリックするだけで、ボット管理ページに移動してボットの精度を向上させるための更新を行うことができます。これらの新機能により、Connect の Web UI 内で会話型 AI エクスペリエンスのパフォーマンスを簡単に分析できるようになりました。
AWS が請求書設定機能を発表
AWS が請求書設定機能の一般提供を発表しました。この機能により、組織構造に基づいて個別の AWS 請求書を受け取るようにカスタマイズできます。
同じ AWS Organization 内で、法人、子会社、コストセンターなどの内部ビジネスエンティティに従って AWS アカウントをグループ化し、各ビジネスエンティティに対して個別の AWS 請求書を受け取ることができます。ビジネスエンティティごとに個別の請求書を発行することで、請求書を個別に追跡でき、エンティティレベルで AWS 請求書を手動で分割するプロセスを排除し、処理を迅速化できます。
請求書設定では、ビジネスエンティティを最もよく表すメンバーアカウントのグループである請求書ユニットを作成し、メンバーアカウントまたは管理アカウントをビジネスエンティティの請求書の受信者として指定できます。オプションで請求書ユニットごとに発注書を関連付け、Cost Explorer と Cost and Usage Report のコストカテゴリーを使用して請求書ユニットごとの料金を可視化できます。
請求書設定は、AWS 請求とコスト管理コンソールを通じて使用するか、AWS SDK または AWS CLI を通じてプログラムで請求書ユニットを作成および管理できます。
生成系AIとHPCに最適化されたAmazon EC2 P5enインスタンスが一般提供開始
Amazon EC2 P5en インスタンスが一般提供開始されました。これらのインスタンスは、最新の NVIDIA H200 Tensor Core GPU を搭載し、ディープラーニングと高性能コンピューティング (HPC) アプリケーション向けに Amazon EC2 で最高のパフォーマンスを提供します。
P5en インスタンスは、複雑な大規模言語モデル (LLM) や拡散モデルのトレーニングと展開、要求の厳しい生成系 AI アプリケーションに使用できます。また、製薬研究、地震解析、気象予報、金融モデリングなどの HPC アプリケーションの大規模展開にも適しています。
P5en インスタンスは最大 8 個の H200 GPU を搭載し、P5 インスタンスの H100 GPU と比較して GPU メモリサイズが 1.7 倍、GPU メモリ帯域幅が 1.5 倍になっています。高性能なカスタム第 4 世代 Intel Xeon スケーラブルプロセッサと組み合わせることで、CPU と GPU 間の Gen5 PCIe を実現し、CPU と GPU 間の帯域幅を最大 4 倍に向上させ、AI トレーニングと推論のパフォーマンスを向上させています。
Nitro v5 を使用した第 3 世代 EFA により、最大 3200 Gbps のスループットを実現し、前世代の EFA と Nitro を使用する P5 と比較してレイテンシーが最大 35% 改善されています。これにより、ディープラーニング、生成系 AI、リアルタイムデータ処理、HPC アプリケーションなどの分散トレーニングワークロードにおける集合通信のパフォーマンスが向上します。
P5en インスタンスは Amazon EC2 UltraClusters に展開され、分散トレーニングや密結合 HPC ワークロード向けに市場をリードするスケールアウト機能を提供します。
P5en インスタンスは、米国東部 (オハイオ)、米国西部 (オレゴン)、アジアパシフィック (東京) の AWS リージョン、および米国東部 (アトランタ) ローカルゾーン us-east-1-atl-2a で p5en.48xlarge サイズで利用可能です。
Amazon Elastic VMware Service を発表(プレビュー)
AWS が Amazon Elastic VMware Service (Amazon EVS) のプレビューを発表しました。Amazon EVS は、Amazon Virtual Private Cloud (Amazon VPC) 内で VMware Cloud Foundation (VCF) を実行するための新しいネーティブ AWS サービスです。
Amazon EVS は、デプロイメントを自動化・簡素化し、AWS 上で即座に使用可能な VCF 環境を提供します。これにより、オンプレミス環境ですでに使用している VCF ソフトウェアとツールを使用して、VMware ベースの仮想マシンを AWS に迅速に移行できます。
Amazon EVS を使用することで、AWS のスケール、耐障害性、パフォーマンスと、馴染みのある VCF ソフトウェアやツールを組み合わせて活用できます。EVS デプロイメントを自己管理するか、AWS パートナーを活用して管理・運用するかを選択できます。これにより、VMware アーキテクチャーを完全に制御し、アプリケーションの固有の要件に合わせてデプロイメントを最適化できます。Amazon EVS は、VMware ワークロードを AWS に移行・運用するための最速の手段を提供します。
Amazon EC2 が次世代の高密度ストレージ最適化 I7ie インスタンスを発表
Amazon Web Services は、次世代の高密度ストレージ最適化 I7ie インスタンスの一般提供を発表しました。
I7ie インスタンスは、大規模なストレージ I/O 集約型ワークロード向けに設計されており、第 5 世代 Intel Xeon スケーラブルプロセッサを搭載し、全コアターボ周波数 3.2 GHz を実現しています。既存の I3en インスタンスと比較して、最大 40% 優れたコンピューティング性能と 20% 優れた価格性能比を提供します。
I7ie インスタンスは、ストレージ最適化インスタンスとしてクラウドで最高のローカル NVMe ストレージ密度を持ち、前世代のインスタンスと比較して最大 2 倍の vCPU とメモリを提供します。第 3 世代 AWS Nitro SSD を搭載し、I3en インスタンスと比較して最大 65% 優れたリアルタイムストレージ性能、最大 50% 低いストレージ I/O レイテンシ、65% 低いストレージ I/O レイテンシの変動性を実現します。
I7ie インスタンスは、大規模なデータセットにアクセスするために、非常に低いレイテンシの一貫性で高いランダムリード/ライト性能を持つ高速ローカルストレージを必要とするワークロードに最適です。また、vCPU 当たりのストレージ密度を増やすことなく、より複雑なクエリを実行するための 40% 優れたコンピューティング性能を提供します。
さらに、16KB の torn write 防止機能により、パフォーマンスのボトルネックを解消できます。I7ie インスタンスは、最大 100Gbps のネットワーク帯域幅と 60Gbps の Amazon Elastic Block Store (EBS) 帯域幅を提供します。
これらのインスタンスは、オンデマンドおよび Savings Plan の購入オプションで利用できます。
Amazon EC2 が I8g インスタンスを発表
Amazon EC2 のストレージ最適化 I8g インスタンスが一般提供されました。I8g インスタンスは、ストレージ集約型ワークロードに対して Amazon EC2 で最高のパフォーマンスを提供します。
主な特長:
1. AWS Graviton4 プロセッサを搭載し、前世代の I4g インスタンスと比較して最大 60% 優れたコンピューティング性能を実現
2. 第3世代 AWS Nitro SSD を使用し、TB 当たり最大 65% 優れたリアルタイムストレージパフォーマンスを提供
3. ストレージ I/O レイテンシーを最大 50% 低減、ストレージ I/O レイテンシーの変動を最大 60% 低減
4. AWS Nitro System 上に構築され、CPU 仮想化、ストレージ、ネットワーク機能を専用のハードウェアとソフトウェアにオフロード
5. 最大 24xlarge のインスタンスサイズ、768 GiB のメモリ、22.5 TB のインスタンスストレージを提供
これらのインスタンスは、リレーショナルデータベース、非リレーショナルデータベース、ストリーミングデータベース、検索クエリ、データ分析などのリアルタイムアプリケーションに最適です。
Amazon EC2 が AMI ガバナンス強化のための Allowed AMIs を導入
Amazon EC2 が Allowed AMIs という新しいアカウント全体の設定を導入しました。この機能により、AWS アカウント内で使用可能な Amazon Machine Images (AMIs) の検出と使用を制限できます。
AMI 所有者アカウントまたは AMI 所有者エイリアスを指定するだけで、これらの所有者からの AMI のみが表示され、EC2 インスタンスの起動に使用できるようになります。
以前は、アカウントと明示的に共有された AMI や任意のパブリック AMI を、その出所や信頼性に関係なく使用できたため、組織のコンプライアンス要件を満たさない AMI を誤って使用するリスクがありました。
Allowed AMIs を使用することで、管理者は AWS 環境内で検出および使用を許可する AMI の所有者アカウントまたはエイリアスを指定できます。この合理化されたアプローチにより、非準拠または未承認の AMI の誤用リスクを軽減するガードレールが提供されます。
Allowed AMIs は、この設定で許可されていない AMI を使用して起動された EC2 インスタンスを特定する監査モード機能もサポートしています。これにより、設定を適用する前に非準拠インスタンスを特定できます。
AWS Organizations と組織単位全体でこの設定を適用するために、宣言型ポリシーを使用できます。これにより、大規模にこの設定を管理および適用できます。
Allowed AMI 設定は、パブリック AMI とアカウントと明示的に共有された AMI にのみ適用されます。デフォルトでは、全ての AWS アカウントでこの設定は無効になっています。AWS CLI、SDK、またはコンソールを使用して有効にできます。
Amazon EC2 Trn2 インスタンスが一般提供開始
AWS は、AWS Trainium2 チップを搭載した Amazon EC2 Trn2 インスタンスの一般提供と、Trn2 UltraServers のプレビューを発表しました。EC2 Capacity Blocks を通じて利用可能な Trn2 インスタンスと UltraServers は、ディープラーニングと生成系AI のトレーニングおよび推論に最適な EC2 コンピューティングソリューションです。
Trn2 インスタンスを使用して、大規模言語モデル(LLM)、マルチモーダルモデル、拡散トランスフォーマーなどの最も要求の厳しい基盤モデルをトレーニングおよびデプロイし、幅広い AI アプリケーションを構築できます。
Trn2 UltraServers は、NeuronLink と呼ばれる高帯域幅・低レイテンシーのファブリックを使用して、4つの Trn2 インスタンスにまたがる64個の Trainium2 チップを1つのノードに接続し、比類のないパフォーマンスを実現する新しい EC2 オファリングです。
Trn2 インスタンスは16個の Trainium2 チップを搭載し、最大20.8ペタフロップスの FP8 コンピューティング、1.5 TB の高帯域幅メモリ(メモリ帯域幅46 TB/秒)、3.2 Tbps の EFA ネットワーキングを提供します。
Trn2 UltraServers は64個の Trainium2 チップを搭載し、最大83.2ペタフロップスの FP8 コンピューティング、合計6 TB の高帯域幅メモリ(合計メモリ帯域幅185 TB/秒)、12.8 Tbps の EFA ネットワーキングを提供します。
両者とも EC2 UltraClusters にデプロイされ、分散トレーニングのためのノンブロッキングなペタビットスケールアウト機能を提供します。
Trn2 インスタンスは、米国東部(オハイオ)AWS リージョンで trn2.48xlarge サイズで一般提供されています。
AWS Outposts がサードパーティー製ブロックストレージアレイの利用を簡素化
AWS Outposts の Amazon EC2 インスタンスに、NetApp のオンプレミスエンタープライズストレージアレイと Pure Storage FlashArray によってバックアップされたブロックデータボリュームを、AWS マネジメントコンソールから直接接続できるようになりました。これにより、Outposts でサードパーティーのストレージを利用しやすくなります。
この機能強化により、Outposts のお客さまは、Outposts が提供するクラウド機能と、NetApp のオンプレミスエンタープライズストレージアレイおよび Pure Storage FlashArray が提供する高度なデータ管理機能、高密度ストレージ、高性能を組み合わせることができます。
これまでお客さまは、Amazon Elastic Block Store (Amazon EBS) とローカルインスタンスストアボリュームを使用してデータをローカルに保存・処理し、データレジデンシー要件に準拠していました。今回の機能強化により、互換性のあるサードパーティーストレージによってバックアップされた外部ボリュームを活用しながら、同様のことが可能になりました。
この新機能を活用することで、お客さまは既存のストレージ投資から最大限の価値を引き出しつつ、Outposts が実現するクラウド運用モデルのメリットを享受できます。
AWS マネジメントコンソールまたは CLI を使用して、サードパーティーのブロックデータボリュームを Outposts 上の Amazon EC2 インスタンスに接続できます。
AWS Marketplace が独立系ソフトウェアベンダーの EC2 Image Builder コンポーネントを提供開始
AWS Marketplace で、独立系ソフトウェアベンダー (ISV) が提供する EC2 Image Builder コンポーネントが利用可能になりました。これにより、Amazon Machine Image (AMI) のビルドプロセスを効率化できます。
AWS Marketplace または Image Builder コンソールで ISV のコンポーネントを見つけて購読し、Image Builder を通じてゴールデンイメージに組み込むことができます。AWS Marketplace は、組織の監視、セキュリティ、ガバナンス、コンプライアンスのニーズに対応するための ISV 提供の Image Builder コンポーネントカタログを提供しています。
これまでは、ISV のソフトウェアをゴールデンイメージに統合するには、時間のかかる調達プロセスとカスタムコードの作成が必要でした。AWS Marketplace に Image Builder コンポーネントが追加されたことで、ISV のソフトウェアコンポーネントを簡単に見つけ、購読し、AWS 上のゴールデンイメージに組み込むことができるようになりました。
Image Builder パイプラインを設定して、AWS Marketplace でリリースされた最新バージョンのコンポーネントでゴールデンイメージを自動更新することも可能です。これにより、システムを最新の状態に保ち、カスタムコードの必要性を排除できます。
購読したコンポーネントのエンタイトルメントを AWS アカウント間で配布することで、組織内でゴールデンイメージを共有し続けることができます。これにより、組織全体で同じゴールデンイメージを使用し、セキュリティとガバナンスの標準を維持できます。
Datadog、Dynatrace、Insight Technology, Inc.、Fortinet、OpenVPN Inc、SIOS Technology Corp.、Cisco、KeyFactor、Datamasque、Grafana、Kong、Wiz などの人気プロバイダーのソフトウェアを含む、サポートされている全ての EC2 Image Builder コンポーネントを AWS Marketplace で確認できます。
Amazon EKS Hybrid Nodes が一般提供開始
Amazon Elastic Kubernetes Service (Amazon EKS) の Hybrid Nodes が一般提供されました。この機能により、オンプレミスやエッジインフラストラクチャーを Amazon EKS クラスタのノードとして使用できます。
Amazon EKS Hybrid Nodes は、環境全体で Kubernetes 管理を統合し、オンプレミスやエッジアプリケーションの Kubernetes コントロールプレーン管理を AWS に委ねます。これにより、低レイテンシー、ローカルデータ処理、規制やポリシー要件を満たすために、オンプレミスやエッジ環境で実行される Kubernetes アプリケーションを、AWS クラウドで実行されるアプリケーションと同じ Amazon EKS クラスタ、機能、ツールを使用して管理できます。
Amazon EKS Hybrid Nodes は、あらゆるオンプレミスのハードウェアや仮想マシンと連携し、Amazon EKS の効率性、スケーラビリティ、可用性をアプリケーションの実行場所に関わらず提供します。Amazon EKS アドオン、EKS Pod Identity、クラスタアクセス管理、クラスタインサイト、拡張 Kubernetes バージョンサポートなど、幅広い Amazon EKS 機能を利用できます。
また、AWS Systems Manager、AWS IAM Roles Anywhere、Amazon Managed Service for Prometheus、Amazon CloudWatch、Amazon GuardDuty などの AWS サービスとネーティブに統合されており、一元的な監視、ログ記録、ID 管理が可能です。
Amazon EKS Hybrid Nodes は、新しい Amazon EKS クラスタ向けに提供されています。料金は、ハイブリッドノードが Amazon EKS クラスタに接続されている時間に応じて、vCPU リソースごとに時間単位で課金されます。
Amazon EKS Auto Mode を発表
AWS は Amazon Elastic Kubernetes Service (Amazon EKS) Auto Mode を発表しました。この新機能は、Kubernetes クラスタのコンピューティング、ストレージ、ネットワーキング管理を完全に自動化します。
EKS Auto Mode の主な特長は以下の通りです:
1. クラスタ運用を AWS に委ね、Kubernetes の実行を簡素化
2. アプリケーションのパフォーマンスとセキュリティを向上
3. コンピューティングコストの最適化を支援
新規または既存の EKS クラスタに対して、Kubernetes に準拠したマネージドコンピューティング、ネットワーキング、ストレージを提供します。
EKS Auto Mode は以下の機能を提供します:
- アプリケーションに最適な EC2 インスタンスを自動選択
- 需要に応じて EC2 インスタンスを動的にスケーリングし、コストを最適化しつつアプリケーションの可用性を維持
- AWS 管理のアクセスとライフサイクル管理を使用して EC2 インスタンスをプロビジョニング、運用、保護、アップグレード
- OS パッチと更新の処理
- エフェメラルコンピューティングによるセキュリティリスクの制限
EKS Auto Mode は、Kubernetes 1.29 以上を実行している EKS クラスタで利用可能です。
Oracle Database@AWS が限定プレビューを開始(プレビュー)
AWS と Oracle が共同で提供する新サービス「Oracle Database@AWS」の限定プレビューが開始されました。このサービスにより、お客さまは AWS データセンター内の OCI が管理する Exadata インフラストラクチャー上で Oracle Database サービスにアクセスできるようになります。
Oracle Real Application Clusters (RAC) ワークロードを含む Oracle Database ワークロードを、ほとんど変更なしで AWS 内の Oracle Exadata Database Service に簡単かつ迅速に移行できます。
Oracle データベースと AWS サービス間の低レイテンシーネットワーク接続により、ミッションクリティカルなアプリケーションの最新化や新しいインテリジェントアプリケーションの開発が可能になります。Oracle Database@AWS は、オンプレミス環境と同等の機能、アーキテクチャーの互換性、パフォーマンス、可用性を維持します。
このサービスは、購入、管理、運用、サポートにおいて Oracle と AWS 間で統一されたエクスペリエンスを提供します。Oracle Database@AWS の使用は、既存の AWS コミットメントや Oracle ライセンスの特典(Bring Your Own License (BYOL) や Oracle Support Rewards などの割引プログラムを含む)の対象となります。
お客さまは AWS Marketplace を通じて Oracle から Oracle Database@AWS のプライベートオファーをリクエストできます。サブスクライブ後は、AWS Management Console を使用して Oracle Database@AWS リソースのプロビジョニングと管理が可能です。
Amazon RDS Performance Insights のオンデマンド分析が東京など15の新しいリージョンで利用可能に
Amazon RDS Performance Insights の「オンデマンド分析」機能が15の新しいリージョンで利用可能になりました。この機能は Aurora MySQL、Aurora PostgreSQL、RDS for PostgreSQL エンジンで利用できます。
これにより、全ての商用リージョンでオンデマンド分析が利用可能になりました。この機能を使用すると、任意の期間の Performance Insights データを分析できます。選択した期間が通常とどのように異なるか、何が問題だったか、修正のためのアドバイスを得ることができます。
わかりやすいグラフと説明を通じて、パフォーマンス問題の主な要因を特定できます。また、これらの問題に対処するための次のステップに関するガイダンスも提供されます。これにより、データベースのパフォーマンス問題の平均診断時間を数時間から数分に短縮できます。
Amazon RDS Performance Insights は、データベースの負荷を視覚的に評価し、いつどこで対策を講じるべきかを判断できるデータベースのパフォーマンスチューニングおよび監視機能です。Amazon RDS マネジメントコンソールでワンクリックするだけで、Amazon RDS データベースに完全マネージドのパフォーマンス監視ソリューションを追加できます。
Amazon MemoryDB マルチリージョンが一般提供開始
Amazon MemoryDB Multi-Region が一般提供開始されました。これは完全マネージド型のアクティブ-アクティブなマルチリージョンデータベースで、最大99.999%の可用性とマイクロ秒単位の読み取りおよびミリ秒単位の書き込みレイテンシーを実現するマルチリージョンアプリケーションの構築を可能にします。
MemoryDB は、Valkey および Redis OSS 互換の完全マネージド型データベースサービスで、マルチAZ耐久性、マイクロ秒単位の読み取りとミリ秒単位の書き込みレイテンシー、高スループットを提供します。Valkey は Linux Foundation が管理するオープンソースの高性能キーバリューデータストアで、Redis OSS の代替として使用できます。
MemoryDB Multi-Region を使用すると、高可用性のマルチリージョンアプリケーションを構築し、回復性を向上させることができます。アクティブ-アクティブレプリケーションにより、お客さまに最も近いリージョンからローカルで読み取りと書き込みを行うことができます。リージョン間でデータを非同期的にレプリケートし、通常1秒以内にデータを伝播します。更新の競合を自動的に解決し、データの不一致を修正するため、アプリケーションの構築に集中できます。
MemoryDB Multi-Region は、AWS マネジメントコンソール、最新の AWS SDK、または AWS CLI を使用して開始できます。まず、データをレプリケートする AWS リージョンのセットを特定し、新しいマルチリージョンクラスタとリージョナルクラスタを作成する AWS リージョンを選択します。最初のリージョナルクラスタが作成されたら、マルチリージョンクラスタに最大4つの追加リージョンを追加できます。
MemoryDB Multi-Region は、Valkey 向けに複数の AWS リージョンで利用可能です。
Amazon DynamoDB グローバルテーブルがマルチリージョンの強力な整合性をサポート(プレビュー)
Amazon DynamoDB のグローバルテーブルが、マルチリージョンの強力な整合性をプレビューでサポートするようになりました。DynamoDB グローバルテーブルは、数万のお客さまが利用する、フルマネージド、サーバーレス、マルチリージョン、マルチアクティブなデータベースです。
この新機能により、リカバリーポイント目標(RPO)がゼロの高可用性マルチリージョンアプリケーションを構築し、最高レベルの回復力を実現できます。
マルチリージョンの強力な整合性により、アプリケーションはグローバルテーブル内のどのリージョンからでも常に最新バージョンのデータを読み取ることができます。これにより、複数のリージョン間で整合性を管理する煩雑な作業が不要になります。
この機能は、ユーザープロファイル管理、在庫追跡、金融取引処理など、厳密な整合性要件を持つグローバルアプリケーションの構築に役立ちます。
Amazon DynamoDB と Amazon SageMaker Lakehouse がゼロ ETL 統合を発表
Amazon DynamoDB と Amazon SageMaker Lakehouse のゼロ ETL 統合が発表されました。この機能により、DynamoDB テーブルからデータを抽出し、オープンで安全なデータレイクハウスである SageMaker Lakehouse に自動的にロードすることができます。
SageMaker Lakehouse を使用して、DynamoDB の本番ワークロードに影響を与えることなく、DynamoDB データに対する分析や機械学習ワークロードを実行できます。これにより、既存の Amazon OpenSearch Service や Amazon Redshift のゼロ ETL 統合に加えて、SageMaker Lakehouse を使用した分析ワークロードを有効にするオプションが追加されました。
ノーコードインターフェースを使用して、データのレプリケーションとレコードの更新を処理する統合を迅速にセットアップし、データレイク内の DynamoDB データの最新レプリカを維持できます。このゼロ ETL 統合により、データレプリケーションの複雑さと運用負荷が軽減され、データからの洞察に集中できます。
AWS Management Console、AWS Command Line Interface (AWS CLI)、または SageMaker Lakehouse API を使用して、統合の作成と管理が可能です。
Amazon Aurora が Amazon Bedrock Knowledge Bases のクイック作成ベクトルストアとして利用可能に
Amazon Aurora PostgreSQL が Amazon Bedrock Knowledge Bases のクイック作成ベクトルストアとして利用可能になりました。新しい Aurora クイック作成オプションにより、生成系AI アプリケーションを構築する開発者やデータサイエンティストは、ワンクリックで Aurora PostgreSQL をベクトルストアとして選択し、pgvector が事前設定された Aurora Serverless クラスタを数分で展開できます。
Aurora Serverless はオンデマンドの自動スケーリング構成で、アプリケーションの需要に基づいて容量が自動調整されるため、開発者向けベクトルストアに最適です。
Knowledge Bases は、Bedrock で実行される基盤モデル (FM) を企業のデータソースに安全に接続し、Retrieval Augmented Generation (RAG) を実現します。これにより、ビジネスに関するより関連性の高い、文脈に即した正確な回答を提供します。
RAG を実装するには、データをエンベディング(ベクトル)に変換し、生成系AI アプリケーションの類似性検索のためにベクトルストアに保存する必要があります。pgvector 拡張機能を持つ Aurora PostgreSQL は、既存の Aurora データベース用の Knowledge Bases のベクトルストアとしてサポートされてきました。
Knowledge Bases との新しいクイック作成統合により、Aurora を Bedrock 用のベクトルストアとしてより簡単にセットアップできるようになりました。
Amazon Aurora は、ハイエンドの商用データベースのパフォーマンスと可用性を、オープンソースデータベースのシンプルさとコスト効率の高さと組み合わせています。
Amazon Aurora DSQL を発表(プレビュー)
Amazon Aurora DSQL (分散 SQL) のプレビューが発表されました。これは、アクティブ-アクティブの高可用性を備えた新しいサーバーレスの分散 SQL データベースです。Aurora DSQL を使用すると、事実上無制限のスケーラビリティ、最高レベルの可用性、インフラストラクチャー管理不要で、常時利用可能なアプリケーションを構築できます。
主な特長:
1. アプリケーションのスケーリングと回復力を容易にする設計
2. 最速の分散 SQL 読み取りと書き込み
3. 読み取り、書き込み、コンピューティング、ストレージを独立してスケーリング可能
4. データベースのシャーディングやインスタンスのアップグレードなしで自動スケーリング
5. アクティブ-アクティブの分散アーキテクチャーにより、単一リージョンで 99.99%、マルチリージョンで 99.999% の可用性
6. 単一障害点がなく、自動障害回復機能を搭載
7. 全てのリージョンエンドポイントへの読み取りと書き込みが強力な一貫性と耐久性を保証
8. PostgreSQL 互換で、開発者にとって使いやすい
Aurora DSQL は現在、米国東部(バージニア北部)、米国東部(オハイオ)、米国西部(オレゴン)の AWS リージョンでプレビュー利用が可能です。
AWS DMS Schema Conversion が生成系 AI を活用
AWS Database Migration Service (AWS DMS) の Schema Conversion に生成系 AI 機能が追加されました。この機能は現在、Microsoft SQL Server などの商用エンジンから Amazon Aurora PostgreSQL 互換エディションや Amazon RDS for PostgreSQL へのデータベーススキーマ変換に利用できます。
生成系 AI によるレコメンデーションを使用することで、ストアドプロシージャ、関数、トリガーなど、通常は手動での変換が必要な複雑なコードオブジェクトの変換を含むデータベース移行プロジェクトを簡素化し、加速することができます。この機能により、スキーマの最大90%を変換できます。
この機能は AWS マネジメントコンソールまたは AWS CLI で利用可能です。スキーマ変換プロジェクトを開始する際に、ソースデータベースとして Microsoft SQL Server などの商用データベースを選択し、ターゲットとして Amazon Aurora PostgreSQL または Amazon RDS for PostgreSQL を選択します。適用可能なオブジェクトを変換する際に、生成系 AI を有効にするオプションが表示されます。
GitLab Duo と Amazon Q の統合を発表(プレビュー)
AWS は GitLab Duo と Amazon Q のプレビューを発表しました。これにより、ソフトウェア開発とワークロード変換のための高度なエージェント機能が GitLab のエンタープライズ DevSecOps プラットフォームに直接組み込まれます。
GitLab Duo with Amazon Q は、タスクやチーム間でシームレスな開発体験を提供し、ソフトウェア開発、セキュリティ、変換のための複雑な多段階タスクを自動化します。開発者は既存の GitLab ワークフローを使用できます。
開発者は GitLab Duo を使用して、クイックアクションで Amazon Q エージェントに問題を委任できます。これにより、新機能の迅速な構築、AI 支援のコードレビューによる品質とセキュリティの最大化、ユニットテストの作成と実行、レガシー Java コードベースのアップグレードが可能になります。
GitLab の統合データストアは、ソフトウェア開発ライフサイクル (SDLC) 全体にわたるプロジェクトコンテキストを Amazon Q に提供し、ソフトウェア開発のエンドツーエンドワークフローを加速および自動化します。
主な機能:
1. ソフトウェア開発の効率化:新機能のアイデアからマージ準備完了のコードまでを数分で実現
2. コードの最適化:新しいマージリクエストのユニットテスト生成
3. 品質とセキュリティの最大化:AI 駆動のコード品質、セキュリティレビュー、修正生成
4. エンタープライズワークロードの変換:Java 8 または 11 のコードベースを Java 17 にアップグレード
責任ある生成AIを推進するための新しいAWS AI Service Cardsを発表
AWS は、以下のサービスに対する新しい AWS AI Service Cards の提供を発表しました:
- Amazon Nova Reel
- Amazon Canvas
- Amazon Nova Micro, Lite, Pro
- Amazon Titan Image Generator
- Amazon Titan Text Embeddings
AI Service Cards は、AWS AI サービスの使用目的、制限事項、責任ある AI 設計の選択、パフォーマンス最適化のベストプラクティスなどの情報を1カ所で提供し、透明性を高めるためのリソースです。
これらのカードは、公平性、説明可能性、プライバシーとセキュリティ、安全性、制御可能性、真実性と堅ろう性、ガバナンス、透明性など、AI 開発と展開の重要な側面に焦点を当てています。
AWS は、お客さまや広範なコミュニティーからフィードバックを収集し、アプローチを継続的に改善していくことで、AI Service Cards を進化させ拡張していく予定です。
メインフレーム最新化のための Amazon Q Developer 変換機能が利用可能に(プレビュー)
Amazon Q Developer の生成系AI を活用した新機能がパブリックプレビューで発表されました。この機能は、メインフレームアプリケーションの大規模な評価と最新化を加速させることを目的としています。
Amazon Q Developer は、大規模な最新化、フェデレーテッドアイデンティティ、容易なコラボレーションに適した統合 Web エクスペリエンスを提供するエンタープライズ対応のツールです。
Amazon Q Developer エージェントは、コードベースの分析とドキュメント化、不足アセットの特定、モノリシックアプリケーションのビジネスドメインへの分解、最新化の計画、コードのリファクタリングを行います。自然言語でチャットを行い、高レベルの変換目標、ソースリポジトリへのアクセス、プロジェクトのコンテキストを共有できます。
エージェントは、アプリケーションアセットの分類と整理、包括的なコードドキュメントの作成を自律的に行い、組織の知識ベースを理解し拡張します。生成系AI と最新化の専門知識を組み合わせて、コードベースと変換目標に合わせたカスタマイズされた最新化計画を作成します。エージェントとの対話を通じて、計画を共同で確認、調整、承認できます。
計画が承認されると、Amazon Q Developer エージェントは COBOL コードをクラウド最適化された Java コードに自律的にリファクタリングし、ビジネスロジックを保持します。
面倒な作業を自律型エージェントに委託することで、チームは生成系AI 大規模言語モデルを使用して、より迅速な最新化、より大規模なプロジェクト、より優れた変換品質とパフォーマンスを実現できます。また、変換の決定に関する十分に文書化された説明可能な記録を維持することで、ガバナンスとコンプライアンスを強化できます。
SageMaker SDK がトレーニングと推論のワークフローを強化
SageMaker Python SDK に新しい ModelTrainer クラスが導入され、ModelBuilder クラスが強化されました。これらの更新により、トレーニングワークフローが効率化され、推論デプロイが簡素化されます。
ModelTrainer クラスにより、Amazon SageMaker 上で分散トレーニング戦略を簡単に設定・カスタマイズできるようになりました。この新機能は、効率的な並列処理によってモデルのトレーニング時間を短縮し、リソース利用を最適化し、コストを削減します。カスタムエントリーポイントとコンテナをローカル環境から SageMaker にスムーズに移行でき、インフラ管理が不要になります。ModelTrainer は、パラメーターを少数のコア変数に減らし、直感的な SageMaker サービスの操作のためのユーザーフレンドリーなクラスを提供することで、設定を簡素化します。
強化された ModelBuilder クラスでは、HuggingFace モデルの簡単なデプロイ、ローカル環境と SageMaker 間の開発の切り替え、前処理・後処理スクリプトを使用した推論のカスタマイズが可能になりました。また、ModelTrainer クラスからトレーニングされたモデルアーティファクトを ModelBuilder クラスに簡単に渡せるようになり、SageMaker 上でトレーニングから推論へのシームレスな移行が可能になりました。
PartyRockがアプリケーションの発見機能を改善し、今後は毎日無料で使用可能に
PartyRock が検索を使用したアプリケーション発見機能を強化し、生成系AI を使った探索と構築がさらに容易になりました。また、2025年には新しい改良された日次無料利用モデルが現在の無料トライアルに代わり、PartyRock で AI アプリケーションを構築する機会がさらに広がります。
2025年からは、無料トライアルクレジットを使い切る心配なく、PartyRock アプリケーションにアクセスし実験できるようになります。2023年11月の立ち上げ以来、PartyRock ユーザーによって50万以上のアプリケーションが作成されています。これまでは、リンクやプレイリストの共有、または PartyRock の Discover ページでフィーチャーされたアプリケーションを閲覧することでアプリケーションを発見していましたが、ホームページの検索バーを使用して、公開されている全ての PartyRock アプリケーションを探索できるようになりました。
日々の個人の生産性向上に役立つアプリケーションを構築し、これらの新機能を試すには、PartyRock をお試しください。
GenAI Index が Amazon Kendra で利用可能に
Amazon Kendra は、組織がインテリジェントな検索エクスペリエンスと生成系AI アプリケーションを強化する検索拡張生成(RAG)システムを構築できる AI 搭載の検索サービスです。
新しい「GenAI Index」が RAG とインテリジェント検索用に導入されました。このインデックスは、最新の情報検索技術とセマンティックモデルを活用し、高精度な検索結果を提供します。
Kendra GenAI Index は、Amazon Bedrock Knowledge Base や Amazon Q Business などの AWS 生成系AI サービス間でのモビリティをサポートし、さまざまなユースケースで柔軟に利用できます。Bedrock Knowledge Bases ではマネージドリトリーバーとして利用可能で、Kendra GenAI Index を基盤とした Knowledge Base の作成が可能です。
また、ガードレール、Prompt Flows、Agents などの他の Bedrock サービスと統合して、高度な生成系AI アプリケーションを構築できます。GenAI Index は 43 の異なるデータソース用のコネクターをサポートし、多様なソースからのコンテンツの取り込みを容易にします。
Amazon SageMaker の次世代版を発表
AWS は、データ、分析、AI のための統合プラットフォームである Amazon SageMaker の次世代版を発表しました。この新バージョンは、広く採用されている AWS の機械学習と分析機能を統合し、データへの統一アクセスと組み込みのガバナンスを備えた分析と AI の統合エクスペリエンスを提供します。
チームは、モデル開発、生成系AI アプリケーション開発、データ処理、SQL 分析のための馴染みのある AWS ツールを使用して、単一の開発環境からより迅速に協力して構築できます。これらは、ソフトウェア開発のための最も高性能な生成系AI アシスタントである Amazon Q Developer によって加速されます。
SageMaker の次世代版では、以下の新機能が導入されています:
1. Amazon SageMaker Unified Studio (プレビュー)
2. Amazon SageMaker Lakehouse
3. Amazon SageMaker Data and AI Governance
SageMaker Unified Studio では、ユーザーがデータを発見し、データと AI のユースケースに最適なツールを使用して作業できます。Amazon EMR、AWS Glue、Amazon Redshift、Amazon Bedrock、既存の Amazon SageMaker Studio で現在利用可能なスタンドアロンのスタジオ、クエリエディター、ビジュアルツールの機能とツールを統合しています。
SageMaker Lakehouse は、データサイロを削減し、Amazon S3 データレイク、Amazon Redshift データウェアハウス、サードパーティーおよびフェデレーテッドデータソース全体でデータを統合するオープンデータアーキテクチャーを提供します。Apache Iceberg 互換のツールやエンジンでデータにアクセスし、クエリを実行する柔軟性を提供します。
Amazon DataZone 上に構築された Amazon SageMaker Catalog を含む SageMaker Data and AI Governance は、ユーザーがデータと AI ワークフローを安全に発見、管理、コラボレーションできるようにします。
Amazon SageMaker が生成系 AI 推論のスケーリングを加速する新機能を発表
SageMaker Inference に、生成系AI モデルのデプロイとスケーリングを大幅に強化する2つの新機能が追加されました:Container Caching と Fast Model Loader です。
Container Caching は、コンテナイメージを事前にキャッシュすることで、生成系AI モデルのスケーリングに必要な時間を大幅に短縮します。これにより、スケールアップ時のダウンロードが不要になり、生成系AI モデルエンドポイントのスケーリング時間が大幅に削減されます。
Fast Model Loader は、モデルの重みを Amazon S3 から直接アクセラレータにストリーミングし、従来の方法と比較してモデルの読み込みを大幅に高速化します。
これらの機能により、より応答性の高い自動スケーリングポリシーを作成できます。SageMaker は、定義されたしきい値に達したときに新しいインスタンスやモデルコピーを迅速に追加できるようになり、トラフィックスパイク時に最適なパフォーマンスを維持しながら、コストを効果的に管理できます。
Amazon SageMaker がパートナー AI アプリケーションを発表
Amazon Web Services (AWS) は、Amazon SageMaker パートナー AI アプリケーションの一般提供を発表しました。この新機能により、お客さまは最高クラスの機械学習 (ML) および生成系AI (GenAI) 開発アプリケーションを、Amazon SageMaker AI 内で簡単に発見、デプロイ、使用できるようになります。
これまで、特定のモデル開発タスク向けの専門機能を提供する GenAI および ML 開発アプリケーションの統合には、多大な労力が必要でした。既存のソリューションの評価に時間と労力を費やすだけでなく、アプリケーションのデプロイ、管理、アップグレード、スケーリングにも多くの作業が必要でした。また、厳格なセキュリティとコンプライアンスプロトコルを遵守するため、組織はデータを SaaS アプリケーションなどに移動せず、セキュリティ境界内に保持する必要がありました。
SageMaker パートナー AI アプリケーションを使用すると、パートナーソリューションにすばやくサブスクライブし、SageMaker 開発環境とシームレスに統合できます。これらのアプリケーションは完全にマネージドされ、お客さまの SageMaker 環境内でプライベートかつセキュアに実行されるため、データとモデルの流出リスクが軽減されます。
提供開始時点で、以下の機能を利用できます:
1. Comet: AI モデル開発の実験を追跡、視覚化、管理
2. Deepchecks: AI モデルの品質とコンプライアンスを評価
3. Fiddler: 本番環境の AI モデルを検証、監視、分析、改善
4. Lakera: プロンプト攻撃、データ損失、不適切なコンテンツなどのセキュリティ脅威から AI アプリケーションを保護
これにより、チームの生産性向上と市場投入までの時間短縮が可能になります。
Amazon SageMaker Unified Studio を発表(プレビュー)
AWS は Amazon SageMaker の次世代版を発表しました。これには Amazon SageMaker Unified Studio のプレビュー版が含まれています。
SageMaker Unified Studio は、統合されたデータと AI 開発環境で、チームの協力を促進し、データ製品の構築を迅速化します。AWS のアナリティクスと AI/ML サービスの使い慣れたツールを統合し、データ処理、SQL 分析、機械学習モデル開発、生成系AI アプリケーション開発を可能にします。
SageMaker Unified Studio からアクセス可能な Amazon SageMaker Lakehouse は、オープンソースとの互換性を提供し、Amazon S3 データレイク、Amazon Redshift データウェアハウス、サードパーティーおよびフェデレーテッドデータソースに保存されたデータへのアクセスを可能にします。
SageMaker Unified Studio では、組織全体のデータと AI アセットを検索、アクセス、クエリできます。また、プロジェクト内で協力して、データ、モデル、生成系AI アプリケーションなどのアナリティクスと AI 成果物を安全に構築・共有できます。
新しい統合 Jupyter Notebooks により、異なるコンピューティングリソースとクラスタ間でシームレスに作業できます。また、統合 SQL エディターを使用して、単一の協力環境内でさまざまなソースに保存されたデータにクエリを実行できます。
以前の Amazon Bedrock Studio である Amazon Bedrock IDE が SageMaker Unified Studio に統合され、生成系AI アプリケーションの迅速な構築とカスタマイズが可能になりました。
ソフトウェア開発用の高性能生成系AI アシスタントである Amazon Q Developer が SageMaker Unified Studio に統合され、開発ライフサイクル全体のタスクを加速・効率化します。
Amazon SageMaker Lakehouse の統合アクセス制御が Amazon Athena のフェデレーテッドクエリで利用可能に
Amazon SageMaker が、Amazon Athena を使用してデータをクエリする際に、フェデレーテッドソースへの接続、検出、クエリ、およびきめ細やかなデータアクセス制御の適用をサポートするようになりました。Athena は、ETL スクリプトを使用せずに SQL を使用してデータレイクやフェデレーテッドデータソース(Amazon Redshift、Amazon DynamoDB、Snowflake など)を分析することを可能にするクエリサービスです。
SageMaker Lakehouse 内でこれらのデータソースを統合し、メタデータを一元化できるようになりました。これにより、きめ細やかなポリシーを1カ所で適用し、分析ワークフローの合理化とデータのセキュリティ強化が可能になります。
Amazon SageMaker Unified Studio にログインし、SageMaker Lakehouse でフェデレーテッドデータソースに接続し、列ベースおよびタグベースの権限を使用してデータを管理できます。これらの権限は、Athena でフェデレーテッドデータソースをクエリする際に適用されます。
新しいユーザーエクスペリエンスにより、データソースへの接続の作成と管理が容易になり、コネクターのセットアップの自動化と合理化が可能になります。
これにより、組織はデータの保存場所に関わらず、統合されたデータソースセットから洞察を抽出しながら、セキュリティ体制を強化できるようになりました。
Amazon SageMaker Lakehouse が発表
Amazon SageMaker Lakehouse が発表されました。これは、分析と人工知能(AI)を簡素化する、統合されたオープンで安全なデータレイクハウスです。
SageMaker Lakehouse は、Amazon S3 データレイクと Amazon Redshift データウェアハウス全体のデータを統合し、単一のデータコピーで強力な分析と AI/ML アプリケーションの構築を支援します。Apache Iceberg オープン標準を使用して、データにアクセスしてクエリを実行する柔軟性が提供されます。
SageMaker Lakehouse のデータは、SageMaker Unified Studio(プレビュー)や Amazon EMR、AWS Glue、Amazon Redshift、Apache Spark などのエンジンからクエリできます。きめ細やかな権限を定義することで、全ての分析および ML ツールとエンジンで一貫して適用されるセキュリティを確保できます。
既存の投資を活用でき、Redshift データウェアハウスのデータを分析や AI/ML に利用できます。また、Redshift Managed Storage(RMS)を活用してデータレイクを作成できるようになりました。
データレイクハウスへのデータ取り込みは簡単で、ゼロ ETL を使用して運用データベース、ストリーミングサービス、アプリケーションからデータを取り込んだり、フェデレーテッドクエリを介してインプレースデータにクエリを実行したりできます。
SageMaker Lakehouse は SageMaker Unified Studio から直接アクセスできるほか、AWS Console、AWS Glue API、CLI からもアクセスできます。
Amazon SageMaker HyperPod レシピを発表
Amazon SageMaker HyperPod レシピにより、最先端のパフォーマンスで公開されている基盤モデル(FM)のトレーニングと微調整を数分で開始できるようになりました。SageMaker HyperPod は、組み込みの回復性とパフォーマンス最適化により、数百から数千の AI アクセラレータにわたる生成系AI モデル開発のスケーリングを支援し、モデルのトレーニング時間を最大 40% 短縮します。
SageMaker HyperPod レシピを使用することで、あらゆるスキルレベルのお客さまが、Llama 3.1 405B、Mixtral 8x22B、Mistral 7B などの人気の公開 FM のトレーニングと微調整を迅速に開始しながら、最先端のパフォーマンスを享受できます。これらのレシピには AWS がテストしたトレーニングスタックが含まれており、異なるモデル構成の実験に伴う数週間の面倒な作業を省略できます。
また、1行のレシピ変更で GPU ベースと AWS Trainium ベースのインスタンス間を素早く切り替えることができ、トレーニングの回復性を向上させるための自動モデルチェックポイントを有効にすることもできます。最後に、選択した SageMaker AI トレーニングサービス上で本番環境のワークロードを実行できます。
Amazon SageMaker HyperPod のタスクガバナンス機能が一般提供開始
Amazon SageMaker HyperPod が生成系 AI 開発タスク全体の一元的なガバナンスを提供するようになりました。これにより、以下の機能が利用可能になります:
1. コンピューティングリソースの割り当てを完全に可視化・制御
2. 重要タスクの優先順位付けとリソース利用の最適化
3. モデル開発コストを最大40%削減
HyperPod のタスクガバナンス機能により、管理者は以下のことが可能になります:
- タスクの優先順位の定義
- チームごとのコンピューティングリソース使用制限の設定
- ビジュアルダッシュボードを通じたタスクの監視と監査
データサイエンティストが作成したタスクは、定義されたリソース制限と優先順位に従って HyperPod が自動的に実行します。例えば、高優先度のモデルトレーニングが必要な場合、低優先度タスクのリソースを解放して対応します。
また、HyperPod が Amazon SageMaker Studio と統合されたことで、Studio 環境内でタスクガバナンスなどの HyperPod 機能を利用できるようになりました。データサイエンティストは Studio から直接 HyperPod クラスタと連携し、強力なアクセラレーターを備えたクラスタ上で機械学習ジョブの開発、送信、監視が可能になりました。
Amazon SageMaker HyperPod が柔軟なトレーニングプランを提供開始
Amazon SageMaker HyperPod に柔軟なトレーニングプランが導入されました。この新機能により、予算と期間内で生成系AI モデルのトレーニングが可能になります。SageMaker HyperPod の特長である回復力、パフォーマンス最適化された分散トレーニング、強化された可観測性とモニターリングを活用しながら、予測可能なモデルトレーニングのタイムラインを得て、予算要件内でトレーニングワークロードを実行できます。
数ステップで、希望するコンピューティングインスタンス、必要なコンピューティングリソース量、ワークロードの期間、生成系AI モデルトレーニングの希望開始日を指定できます。SageMaker は最もコスト効率の高いトレーニングプランを作成し、モデルのトレーニング時間を数週間短縮します。
トレーニングプランを作成し購入すると、SageMaker は自動的にインフラストラクチャーをプロビジョニングし、手動介入なしでこれらのコンピューティングリソース上でトレーニングワークロードを実行します。また、プランがあるキャパシティブロックから別のブロックに切り替わる際、コンピューティングの可用性のギャップ間でトレーニングの一時停止と再開を自動的に処理します。
インフラストラクチャー管理の負担を全て取り除きたい場合は、SageMaker の完全マネージドトレーニングジョブを使用してトレーニングプランを作成および実行することもできます。
Amazon SageMaker Data and AI Governance が発表
Amazon SageMaker Data and AI Governance が発表されました。これは、レイクハウス、AI モデル、アプリケーション全体のデータと AI の発見、ガバナンス、コラボレーションを簡素化する新機能です。Amazon DataZone 上に構築されたこの機能により、エンジニア、データサイエンティスト、アナリストは、生成系AI で作成されたメタデータを使用したセマンティック検索により、承認されたデータとモデルを安全に発見しアクセスできます。
この新機能は、きめ細やかなアクセス制御を備えた単一の権限モデルを使用して、アクセスポリシーを一貫して定義および適用するのに役立ちます。データと AI の発見とコラボレーションを大規模に加速させることができます。生成系AI を使用してデータとメタデータにビジネスコンテキストを自動的に追加することで、全てのユーザーがデータを見つけ、理解し、使用しやすくなります。
テーブル名や列名、ビジネス用語集の用語でフィルターリングしながら、データ、AI モデル、プロンプト、その他の生成系AI アセットを共有できます。また、組み込みのモデルモニターリングにより、バイアスを検出し、特徴がモデルの予測にどのように寄与しているかを報告することで、データパイプラインと AI プロジェクトの信頼性と透明性を確立するのに役立ちます。
Amazon Q インデックスがソフトウェアベンダーの AI エクスペリエンスを強化
Asana、Miro、PagerDuty、Zoom などの独立系ソフトウェアベンダー (ISV) が、Amazon Q インデックスを自社アプリケーションに統合し、複数のアプリケーションにまたがる企業知識とユーザーコンテキストを活用して生成系AI エクスペリエンスを強化しています。エンドカスタマーは、どのアプリケーションがデータにアクセスできるかを制御でき、インデックスはユーザーレベルの権限を保持します。
Amazon Q インデックスは、40 以上のサポートされたコネクターからのデータを統合したコンテンツとデータの正規ソースです。Amazon Q Business のお客さまは、企業データに基づいてインデックスを作成し、生成される回答、インサイト、アクションを従業員にとって最も関連性の高いものにします。
ソフトウェアプロバイダーは Amazon Q Business にアプリケーションを登録し、お客さまはインデックス化されたデータへのアクセスを許可します。接続後、ソフトウェアベンダーは追加データを使用してネーティブの生成系AI 機能を強化し、よりパーソナライズされた回答をお客さまに提供します。
この新機能は Amazon Q Business と同じセキュリティ、プライバシー、ガードレールを継承しており、ISV の生成系AI ロードマップを加速し、エンドユーザー向けの革新的で差別化された機能開発に注力できるようにします。
Amazon Q Developer が運用調査機能を追加(プレビュー)
Amazon Q Developer が AWS 環境全体の運用調査を大幅に高速化する新機能を提供開始しました。主な特長は以下の通りです:
1. AWS クラウド環境とリソースを深く理解し、異常を検出
2. 関連するシグナルを表示し、潜在的な根本原因の仮説を特定
3. 問題の迅速な修復のための次のステップを提案
この機能は、問題の検出からトリアージ、修復まで、運用のトラブルシューティングプロセス全体をサポートします。
調査は以下の方法で開始できます:
- AWS マネジメントコンソールの Amazon CloudWatch データウィジェットで「調査」アクションを選択
- CloudWatch アラームがトリガーされたときに自動的に調査を開始するよう Amazon Q を設定
調査開始時、Amazon Q Developer は以下を含むさまざまなシグナルを分析します:
- CloudWatch テレメトリ
- AWS CloudTrail ログ
- デプロイメント情報
- リソース設定の変更
- AWS Health イベント
CloudWatch に新しく追加された専用の調査エクスペリエンスでは、チームが協力して以下の作業を行えます:
- 調査結果の追加
- 関連するシグナルと異常の確認
- 潜在的な根本原因の仮説の検討
また、この新機能は以下を提供することで、一般的な運用問題の修復を支援します:
- 関連する AWS Systems Manager Automation ランブック
- AWS re:Post の記事
- ドキュメント
さらに、AWS Chatbot を介して Slack などの既存の運用ワークフローとも統合されています。
Amazon Q Developer が機能開発を加速する自動ユニットテスト生成を発表
Amazon Q Developer は、ユニットテストの生成プロセスを自動化する新しいエージェントの一般提供を発表しました。このエージェントは、「/test」という簡単なプロンプトで起動できます。プロンプトが与えられると、Amazon Q はプロジェクトの知識を使用して自動的にテストを生成し、プロジェクトに追加します。これにより、コード品質を迅速に向上させることができます。
Amazon Q Developer は、テストを追加する前にユーザーの同意を求めるため、意図しない変更が行われることはありません。この自動化により、包括的なユニットテストを作成するための時間と労力を節約し、革新的な機能の開発に集中できます。ユニットテストを迅速に追加し、コードのカバレッジを向上させる機能により、組織はより安全かつ確実にコードをリリースでき、ソフトウェア開発ライフサイクル全体で機能開発を加速できます。
自動ユニットテスト生成は、Visual Studio Code と JetBrains の統合開発環境(IDE)で一般提供されています。また、新しい GitLab Duo with Amazon Q の一部としてパブリックプレビューで利用可能です。
Amazon Q Developer がソースコード内のドキュメント生成機能を追加
Amazon Q Developer に、コードを自動的にドキュメント化する新機能が追加されました。この機能により、プロジェクト内で readme ファイルやデータフローダイアグラムを自動生成できます。
開発者は平均して1日のうち1時間程度しかコーディングに費やしておらず、大半の時間をコードベースの学習、ドキュメントの作成・レビュー、テスト、デプロイ管理、トラブルシューティング、脆弱性の発見・修正などの単調で差別化されていないタスクに費やしているとされています。
Q Developer は、ソフトウェアの設計、構築、テスト、デプロイ、保守を支援する生成系AI ベースのアシスタントです。コード全体を深く理解し、コーディング以外の多くのタスクを加速させることができます。
この新機能により、既存のコードベースの理解や新機能のドキュメント化を迅速に行うことができ、お客さま向けの機能開発に集中できるようになります。
この機能は、統合開発環境 (IDE) 内で新しいチャットコマンド「/doc」を使用して利用できます。Visual Studio Code や IntelliJ IDEA の IDE で、Amazon Q Developer の無料利用枠または Pro プランのサブスクリプションを使用してドキュメント生成を開始できます。
Amazon Q Developer がコードレビューの自動化機能を追加
Amazon Q Developer に新たにコードレビュー機能が追加されました。この機能により、以下のことが可能になります:
- IDE 内でコードに対する自動コメントの提供
- 疑わしいコードパターンのフラグ付け
- 利用可能な場合はパッチの提供
- デプロイメントリスクの評価
Amazon Q Developer は、ソフトウェアの設計、構築、テスト、デプロイ、保守を支援する生成系AI ベースのアシスタントです。コードリポジトリ全体を深く理解しているため、コーディング以外の多くのタスクを加速できます。
この新機能により、コードレビューの第一段階を自動化し、レビューの一貫性を向上させることで、コード作成者はより迅速に問題を修正でき、作成者とレビュアーの両方にとってプロセスが効率化されます。
この機能は、Visual Studio Code と IntelliJ IDEA の IDE で利用可能で、新しいチャットコマンド「/review」を通じてアクセスできます。Amazon Q Developer の無料利用枠または Pro プランのサブスクリプションで利用できます。
Amazon Q Developer が VMware 向け変換機能を発表(プレビュー)
Amazon Q Developer の VMware 向け変換機能のプレビューが発表されました。これは、VMware ワークロードの Amazon Elastic Compute Cloud (EC2) への移行と最新化を簡素化・加速化する、生成系 AI を活用した初のアシスタントです。
この新機能は、複雑な VMware 変換タスクを効率化し、クラウドへの移行に必要な時間と労力を削減します。高度な AI 技術を使用して移行プロセスの重要なステップを自動化し、クラウド移行の加速、コスト削減、イノベーションの促進を支援します。
Amazon Q Developer の変換エージェントは、オンプレミスアプリケーションのデータ検出、ウェーブプランニング、ネットワーク変換とデプロイ、全体的な移行プロセスのオーケストレーションなど、VMware 変換タスクを簡素化・自動化します。VMware 変換の中でも特に困難な「ウェーブプランニング」と「ネットワーク変換」が、VMware ドメインエキスパートエージェントと大規模言語モデル (LLM) を使用して自動化されました。
これらの AI ツールは、VMware のネットワーク設定とファイアウォールルールをネーティブな AWS ネットワーク構成に変換し、複雑さと潜在的なエラーを大幅に削減します。Amazon Q Developer は自動化と人間による監視のバランスを保ち、重要な決定ポイントでユーザーの入力を積極的に促すことで、移行と最新化プロセス全体の精度と制御を確保します。
Amazon Q Developer が SageMaker Canvas ユーザーの ML 開発をガイド可能に(プレビュー)
Amazon SageMaker Canvas に Amazon Q Developer が プレビュー版として追加されました。これにより、自然言語を使用して ML モデルを構築できるようになりました。
Amazon Q Developer は、データ準備からモデルのデプロイまで、ML ライフサイクル全体で生成系AI を活用した支援を提供します。スキルレベルに関係なく、自然言語を使用して専門家のガイダンスにアクセスし、高品質な ML モデルを構築できるため、イノベーションと市場投入までの時間を加速できます。
Amazon Q Developer は、目的を具体的な ML タスクに分解し、適切な ML 問題タイプを定義し、データに対してデータ準備技術を適用します。さらに、カスタム ML モデルの構築、評価、デプロイのプロセスをガイドします。
SageMaker Canvas で Amazon Q Developer を使用して作成された ML モデルは本番環境で使用可能で、SageMaker Studio に登録でき、コードをデータサイエンティストと共有して下流の MLOps ワークフローに統合できます。
Amazon Q Developer は、アジアパシフィック (東京) を含む複数のリージョンで利用可能です。
Amazon Q Developer が .NET 移行のための変換機能を提供開始(プレビュー)
AWS は、Amazon Q Developer の新しい生成系AI を活用した変換機能のパブリックプレビューを発表しました。この機能により、.NET Framework アプリケーションをクロスプラットフォームの .NET に移行する作業を加速できます。
主な特長:
1. Windows .NET アプリケーションを Linux 対応に最大 4 倍速く近代化
2. ライセンスコストを最大 40% 削減
3. Windows 上で動作する数百の .NET Framework アプリケーションを Linux 対応のクロスプラットフォーム .NET に移行可能
4. 自然言語でのチャットを通じて変換目標を設定し、ソースコードリポジトリに接続
5. アプリケーションコードを評価し、.NET バージョン、サポートされるプロジェクトタイプ、依存関係を特定
6. 評価されたアプリケーションコードとユニットテストをクロスプラットフォーム .NET に移行
7. チームでの共同レビュー、調整、承認プロセスをサポート
8. 詳細な作業ログを提供し、変換の決定を記録
この変換機能は、Web インターフェースと Visual Studio IDE を通じてパブリックプレビューで利用可能です。
Amazon Q Business が一般的なビジネスアプリケーションやプラットフォーム向けに50以上のアクションを導入
Amazon Q Business(Amazon Q Appsを含む)が、50以上のアクションを含む使用準備の整ったライブラリで機能を拡張しました。このライブラリは、一般的なビジネスアプリケーションやプラットフォーム向けのプラグインを網羅しています。
この強化により、Amazon Q Businessユーザーは、インターフェースを離れることなく他のアプリケーションでタスクを完了できるようになり、ユーザー体験と運用効率が向上します。
新しいプラグインは、PagerDuty、Salesforce、Jira、Smartsheet、ServiceNowなど、広く使用されているビジネスツールをカバーしています。これらの統合により、ユーザーはAmazon Q Business内から直接チケットの作成や更新、インシデント管理、プロジェクト情報へのアクセスなどのタスクを実行できます。
Amazon Q Appsを使用すると、目的に特化したアプリケーション内で新しく導入されたアクションを直接活用し、日常的なタスクをさらに自動化できます。
Amazon Q Business がドキュメント内の視覚要素からの洞察抽出をサポート
Amazon Q Business は、企業システム内のデータと情報に基づいて質問に答え、要約を提供し、コンテンツを生成し、タスクを安全に完了できる、完全マネージド型の生成系AI 搭載アシスタントです。
今回のアップデートにより、Amazon Q Business は文書に埋め込まれた視覚要素から質問に答え、洞察を抽出する機能を提供するようになりました。この新機能により、ユーザーは図表、インフォグラフィック、チャート、画像ベースのコンテンツなど、さまざまな種類の視覚情報に埋め込まれた情報を照会できます。
お客さまは、PDF、Microsoft PowerPoint、Word、Google Docs、Google Slides などの文書に埋め込まれた視覚的なコンテンツから貴重な洞察を得ることができます。Amazon Q Business は、回答の生成に使用された特定の画像を表示することで透明性を提供し、ユーザーが抽出された情報を文脈化できるようにします。
Amazon Q Business がデータベースとデータウェアハウスからのインサイトを提供(プレビュー)
Amazon Q Business と Amazon QuickSight の統合のパブリックプレビューが発表されました。この統合により、構造化データソース(データベース、ウェアハウス)と非構造化データ(ドキュメント、Wiki、メール)からの回答を単一のアプリケーションで統合する革新的な機能が提供されます。
Amazon Q Business は、企業システム内のデータと情報に基づいて質問に答え、要約を提供し、コンテンツを生成し、タスクを安全に完了できる生成系AI 搭載のアシスタントです。Amazon QuickSight は、インタラクティブなダッシュボード、リポート、分析を通じて構造化データを視覚化し理解するのに役立つビジネスインテリジェンス(BI)ツールです。
この統合により、お客さまは QuickSight の豊富なデータソースコネクターを通じて、構造化ソースを Amazon Q Business にリンクできるようになりました。Amazon Q Business はリアルタイムで応答し、構造化ソースからの QuickSight の回答とドキュメントで見つかった他の関連情報を組み合わせます。
例えば、ユーザーが収益比較について質問すると、Amazon Q Business は PDF の財務リポートからの回答と、QuickSight からのリアルタイムのチャートとメトリクスを返します。この統合により、ナレッジソース全体のインサイトが統合され、組織はより情報に基づいた意思決定を行うことができ、従来インサイトを収集するのに必要だった時間と複雑さを軽減できます。
この統合は、米国東部(バージニア北部)と米国西部(オレゴン)の AWS リージョンで、Amazon Q Business Pro、Amazon QuickSight Reader Pro、および Author Pro のユーザーが利用できます。
Amazon Bedrock の基盤モデルに対するレイテンシー最適化推論を発表(プレビュー)
Amazon Bedrock の基盤モデルに対するレイテンシー最適化推論がパブリックプレビューで利用可能になりました。これにより、AI アプリケーションの応答時間と応答性が向上します。
現在、この新しい推論オプションは Anthropic の Claude 3.5 Haiku モデルと Meta の Llama 3.1 405B および 70B モデルをサポートしており、精度を損なうことなく標準モデルと比較してレイテンシーが削減されます。Anthropic の検証によると、Amazon Bedrock のレイテンシー最適化推論を使用することで、Claude 3.5 Haiku は AWS 上で他のどこよりも高速に動作します。また、Bedrock のレイテンシー最適化推論により、Llama 3.1 405B および 70B は他の主要クラウドプロバイダーよりも AWS 上で高速に動作します。
生成系 AI アプリケーションを本番環境に移行するお客さまが増えるにつれ、エンドユーザーエクスペリエンスの最適化が重要になります。特に、リアルタイムのカスタマーサービスチャットボットやインタラクティブなコーディングアシスタントなど、レイテンシーに敏感なアプリケーションにおいて重要です。
AWS Trainium2 のような専用 AI チップと Amazon Bedrock の高度なソフトウェア最適化を使用することで、お客さまは特定のユースケースに合わせて推論を最適化するためのより多くのオプションにアクセスできます。これらの機能にアクセスするために追加のセットアップやモデルの微調整は必要ありません。既存のアプリケーションの応答時間を即座に向上させることができます。
レイテンシー最適化推論は、クロスリージョン推論を通じて米国東部 (オハイオ) リージョンで Anthropic の Claude 3.5 Haiku と Meta の Llama 3.1 405B および 70B に利用可能です。
Amazon Bedrock のモデル評価に LLM-as-a-judge 機能が追加(プレビュー)
Amazon Bedrock Model Evaluation に、新しい評価機能である LLM-as-a-judge がプレビューで追加されました。これにより、Amazon Bedrock 上の複数の LLM から評価者を選択し、適切な評価モデルと被評価モデルの組み合わせを確保できます。
正確性、完全性、プロフェッショナルなスタイルとトーンなどの品質指標や、有害性や回答拒否などの責任ある AI 指標を選択できます。また、独自のプロンプトデータセットを使用してカスタマイズされた評価を行い、評価ジョブ間で結果を比較して迅速な意思決定を行うことができます。
従来の人間による評価や、厳密な文字列マッチングなどの自動評価手法と比較して、LLM-as-a-judge は人間に近い評価品質を低コストで提供し、評価にかかる時間を大幅に短縮します。組み込みの指標を使用して、客観的な事実の評価や、データセットの文章スタイルやトーンの主観的な評価を行うことができます。
Amazon Bedrock のナレッジベースが自動生成クエリフィルターを導入し検索精度を向上
Amazon Bedrock のナレッジベースが、完全マネージドのエンドツーエンド Retrieval-Augmented Generation (RAG) ワークフローを提供するようになりました。これにより、データソースからのコンテキスト情報を組み込んで、高精度で低レイテンシー、安全でカスタマイズされた生成系AI アプリケーションを作成できます。
自動生成されるクエリフィルターが導入され、検索結果の精度が向上しました。この機能は、既存の手動メタデータフィルターリング機能を拡張し、複雑なフィルター式を手動で構築することなく検索結果を絞り込むことができます。
RAG アプリケーションは、大量のドキュメントを検索してユーザーのクエリを処理します。自動生成クエリフィルターを有効にすると、ドキュメントのメタデータに基づいてフィルターリングされた検索結果を取得できます。例えば、「ワシントンで請求を提出する方法」というクエリに対して、「ワシントン」という州が自動的にフィルターとして適用され、その特定の州に関連するドキュメントのみが取得されます。
Amazon Bedrock のナレッジベースが構造化データの取得をサポート
Amazon Bedrock のナレッジベースが、データソースから構造化データを取得するための自然言語クエリをサポートするようになりました。
この機能により、Bedrock のナレッジベースは、さまざまな構造化・非構造化データソースからコンテキスト情報にアクセスし、それを組み込むことができるカスタム生成系AI アプリケーションを構築するためのエンドツーエンドのマネージドワークフローを提供します。
高度な自然言語処理を使用して、Bedrock のナレッジベースは自然言語クエリを SQL クエリに変換し、ユーザーがデータを移動や前処理することなく、直接ソースからデータを取得できるようにします。
Bedrock のナレッジベースは、マネージドな自然言語から SQL への変換(NL2SQL)モジュールを提供することで、これらの課題を解決します。例えば、小売アナリストは「先月のトップ5の売れ筋商品は何でしたか?」と簡単に質問でき、Bedrock のナレッジベースがそのクエリを自動的に SQL に変換し、データベースに対してクエリを実行して結果を返す、あるいは要約された説明を提供することができます。
正確な SQL クエリを生成するために、Bedrock のナレッジベースはデータベーススキーマ、過去のクエリ履歴、およびデータソースに関して提供されるその他のコンテキスト情報を活用します。
現在、Bedrock のナレッジベースは Amazon Redshift と Amazon SageMaker Lakehouse からの構造化データの取得をサポートしています。
Amazon Bedrock のナレッジベースがストリーミングレスポンスをサポート
Amazon Bedrock のナレッジベースに、RetrieveAndGenerateStream API のサポートが追加されました。
この新しいストリーミング API により、ユーザーは大規模言語モデル (LLM) が生成している途中の応答をリアルタイムで受け取ることができます。これにより、完全な応答を待つ必要がなくなります。
Retrieval-Augmented Generation (RAG) ワークフローには、データストアのクエリ、関連コンテキストの収集、LLM への応答要約のためのクエリ送信など、複数のステップが含まれます。応答生成の最終ステップには、使用されるモデルに応じて数秒かかる場合があります。
RetrieveAndGenerateStream API は、モデルが生成中の応答をストリームとして提供することで、レイテンシーの影響を受けやすいアプリケーションの構築におけるレイテンシーを削減します。これにより、最初の応答までの時間が短縮され、ユーザーは Bedrock のナレッジベースとのやりとりにおいて、よりシームレスで応答性の高い体験を得ることができます。
Amazon Bedrock のナレッジベースがカスタムコネクターとストリーミングデータの取り込みをサポート
Amazon Bedrock のナレッジベースが、カスタムコネクターとストリーミングデータの取り込みをサポートするようになりました。これにより、開発者は API 呼び出しを通じてナレッジベースのデータを追加、更新、削除できるようになりました。
Amazon Bedrock のナレッジベースは、完全マネージド型のエンドツーエンド Retrieval-Augmented Generation (RAG) ワークフローを提供し、企業のデータソースからコンテキスト情報を取り込むことで、高精度で低レイテンシー、安全でカスタマイズ可能な生成系AI アプリケーションの作成を可能にします。
この新機能により、お客さまはカスタムデータソースや Amazon S3 から特定のドキュメントを完全同期なしで簡単に取り込むことができ、中間ストレージを必要とせずにストリーミングデータを取り込むことができます。これにより、お客さまはあらゆるカスタムデータソースから特定のドキュメントを取り込み、ストリーミングデータの取り込み時に中間ストレージのレイテンシーと運用コストを削減できます。
例えば、金融サービス企業は最新の市場データでナレッジベースを常に更新し、生成系AI アプリケーションがエンドユーザーに最も関連性の高い情報を提供できるようになります。時間のかかる完全同期とストレージのステップを排除することで、お客さまはデータへのアクセスを高速化し、レイテンシーを削減し、アプリケーションのパフォーマンスを向上させることができます。
お客さまは、コンソールまたは API を通じてプログラムでこの機能を使用できます。コンソールでは、カスタムコネクターをデータソースとして選択し、ドキュメント、テキスト、または base64 エンコードされたテキスト文字列を追加できます。
Amazon Bedrock の Model Distillation が利用可能に(プレビュー)
Amazon Bedrock Model Distillation により、お客さまは Amazon Bedrock の最も高性能なモデルと同等の精度を持ちながら、より小規模で高速、かつコスト効率の良いモデルを特定のユースケースに合わせて利用できるようになりました。
従来、お客さまのユースケースに合わせて小規模なコスト効率の良いモデルの精度を向上させるファインチューニングは、プロンプトと応答の作成、トレーニングデータセットの改良、多様な例の確保、トレーニングパラメーターの調整など、反復的なプロセスが必要でした。
Amazon Bedrock Model Distillation は、教師モデルから合成データを生成し、生徒モデルのトレーニングと評価を行い、最終的な蒸留モデルを推論用にホストするプロセスを自動化します。反復作業の負担を軽減するため、Model Distillation はユースケースに最適なデータ合成方法を選択し、特定のユースケースに対して高度なモデルとほぼ同等の蒸留モデルを作成します。
例えば、Bedrock は類似のプロンプトを生成してトレーニングデータセットを拡張したり、お客さまが提供したプロンプトと応答のペアをゴールデンサンプルとして使用し、高品質な合成応答を生成したりする場合があります。
Amazon Bedrock の Knowledge Bases が GraphRAG をサポート(プレビュー)
Amazon Bedrock Knowledge Bases に GraphRAG という新機能が追加されました。この機能は、RAG 技術とグラフデータを組み合わせることで、より包括的で関連性が高く、説明可能な応答を提供し、生成系AI アプリケーションを強化します。
Amazon Bedrock Knowledge Bases は、企業のデータソースからコンテキスト情報を取り込むことで、高精度で低レイテンシーのカスタム生成系AI アプリケーションを作成するための、フルマネージドのエンドツーエンド Retrieval-Augmented Generation (RAG) ワークフローを提供します。
今回、Amazon Neptune Analytics を使用したフルマネージドの GraphRAG 機能が追加されました。これにより、ドキュメント間の主要なエンティティを特定し、データ内の関係性を活用したインサイトを提供することで、エンドユーザーへの応答が改善されます。
開発者は、ナレッジベースの作成時にデータソースを指定し、ベクトルストアとして Amazon Neptune Analytics を選択するだけで、数クリックで GraphRAG を有効にできます。これにより、Amazon Neptune Analytics にベクトル埋め込みが自動的に生成・保存され、エンティティとその関係性のグラフ表現も作成されます。
Amazon Neptune を使用した GraphRAG は Amazon Bedrock Knowledge Bases に組み込まれており、追加のセットアップや料金なしで統合された体験を提供します。
Amazon Bedrock の Intelligent Prompt Routing が利用可能に(プレビュー)
Amazon Bedrock の Intelligent Prompt Routing 機能が発表されました。この機能は、モデルファミリー内の異なる基盤モデルにプロンプトをルーティングし、応答の品質とコストを最適化します。
高度なプロンプトマッチングとモデル理解技術を使用して、各リクエストに対する各モデルのパフォーマンスを予測し、最も適切な応答を最低コストで提供できると予測されるモデルに動的にルーティングします。
プレビュー段階では、Claude Sonnet 3.5 と Claude Haiku 間、または Llama 3.1 8B と Llama 3.1 70B 間でリクエストをルーティングする2つのプロンプトルーターが選択可能です。
Amazon Bedrock は、単一の API を通じて主要 AI 企業の高性能基盤モデルを提供するフルマネージドサービスです。セキュリティ、プライバシー、責任ある AI 機能が組み込まれており、さまざまな業界や用途に合わせたアプリケーションの構築を支援します。
Intelligent Prompt Routing を使用することで、複数の基盤モデルを組み合わせて、単一のモデルよりも低コストで高性能な生成系AI アプリケーションを構築できます。
Amazon Bedrock で Amazon Nova 基盤モデルが利用可能に
Amazon Nova という新世代の最先端基盤モデル (FM) が発表されました。これらのモデルは、最高レベルのインテリジェンスと業界をリードする価格性能比を提供します。Amazon Bedrock で現在利用可能な Amazon Nova モデルは以下の通りです:
1. Amazon Nova Micro: テキストのみのモデルで、非常に低コストで最小のレイテンシーを実現
2. Amazon Nova Lite: 非常に低コストのマルチモーダルモデルで、画像、動画、テキスト入力の処理が高速
3. Amazon Nova Pro: 高性能なマルチモーダルモデルで、幅広いタスクに対して精度、速度、コストのバランスが最適
4. Amazon Nova Canvas: 最先端の画像生成モデル
5. Amazon Nova Reel: 最先端の動画生成モデル
Amazon Nova Micro、Lite、Pro は、それぞれのインテリジェンスクラスで最速かつ最もコスト効率の高いモデルの一つです。これらのモデルは RAG やエージェントアプリケーションで使いやすく効果的になるよう最適化されています。Amazon Bedrock のテキストおよびビジョンファインチューニング機能を使用して、Micro、Lite、Pro をカスタマイズし、ニーズに最適なインテリジェンス、速度、コストを実現できます。
Amazon Nova Canvas と Amazon Nova Reel では、ウオーターマークやコンテンツモデレーションなど、安全で責任ある AI 使用のための組み込みコントロールを備えた本番グレードのビジュアルコンテンツにアクセスできます。
Amazon Nova 基盤モデルは、Amazon Bedrock の米国東部 (バージニア北部) リージョンで利用可能です。Amazon Nova Micro、Lite、Pro モデルは、クロスリージョン推論を通じて米国西部 (オレゴン) および米国東部 (オハイオ) リージョンでも利用可能です。
Amazon Bedrock コンソールから Amazon Nova 基盤モデルの使用を開始できます。
Amazon Bedrock がマルチエージェント連携をサポート
Amazon Bedrock が複数エージェントの連携をサポートし、組織が複雑なワークフローを解決するために協力して動作する複数の AI エージェントを構築・管理できるようになりました。この機能により、開発者は財務データ収集、調査、意思決定などの特定のビジネスニーズに合わせた専門的な役割を持つエージェントを作成できます。シームレスなエージェント連携を可能にすることで、Amazon Bedrock は金融、カスタマーサービス、ヘルスケアなどの業界全体でパフォーマンスを最適化する機会を組織に提供します。
Amazon Bedrock 上での複数エージェントの連携により、組織は複雑なワークフローを容易に習得し、多様なアプリケーションにわたって高精度でスケーラブルな結果を達成できます。例えば金融サービスでは、専門化されたエージェントが連携してデータを収集し、トレンドを分析し、実行可能な推奨事項を提供します。これらのエージェントは並行して動作し、応答時間と精度を向上させます。この連携機能により、企業は複数エージェントのセットアップを迅速に構築、展開、スケーリングでき、開発時間を短縮しながら、進化するニーズへのシームレスな統合と適応性を確保できます。
Amazon Bedrock がプロンプトキャッシュ機能を発表(プレビュー)
Amazon Bedrock にプロンプトキャッシュ機能が追加されました。この機能により、サポートされているモデルで、頻繁に使用されるプロンプトを複数の API コール間でキャッシュすることで、コストを最大 90%、レイテンシーを最大 85% 削減できます。
プロンプトキャッシュを使用すると、長いシステムプロンプトやモデルの応答を導く一般的な例など、繰り返し入力される内容をキャッシュし、コンテキストの再処理を回避できます。キャッシュを使用することで、出力生成に必要な計算リソースが削減され、リクエスト処理の高速化とコスト削減が実現します。
現在、この機能は Claude 3.5 Haiku、Claude 3.5 Sonnet v2(US West (Oregon) および US East (N. Virginia) でクロスリージョン推論を介して)、Nova Micro、Nova Lite、Nova Pro モデル(US East (N. Virginia))で利用可能です。ただし、現時点では限られた数のお客さまのみがこの機能にアクセスできます。
Amazon Bedrock は、単一の API を通じて主要 AI 企業の高性能な基盤モデルを提供する完全マネージドサービスです。セキュリティ、プライバシー、責任ある AI 機能が組み込まれており、さまざまな業界や用途に合わせたアプリケーションの構築を支援します。これにより、組織は生成系 AI から持続的な成長を引き出しつつ、お客さまの信頼とデータガバナンスを構築するためのツールを提供します。
Amazon Bedrock が RAG アプリケーションの精度向上のための Rerank API をサポート
Amazon Bedrock が Rerank API を通じてリランカーモデルのサポートを発表しました。これにより、開発者は Retrieval-Augmented Generation (RAG) アプリケーションでのレスポンスの関連性を向上させることができます。リランカーモデルは、ユーザーのクエリに対する関連性に基づいて取得した文書セットをランク付けし、レスポンス生成のために基盤モデル(FM)に渡す最も関連性の高いコンテンツの優先順位付けを支援します。
Amazon Bedrock のナレッジベースは、さまざまなデータソースからコンテキスト情報を取り込むことで、カスタムの生成系AI アプリケーションを作成するための完全マネージド型のエンドツーエンド RAG ワークフローを提供します。Amazon Bedrock のナレッジベースユーザーは、Retrieve および RetrieveAndGenerate API で利用可能な設定を通じてリランカーを有効にできます。
RAG システムのセマンティック検索は文書検索の関連性を向上させますが、複雑または曖昧なクエリには苦戦する可能性があります。例えば、オンライン購入の返品について尋ねられたカスタマーサービスチャットボットが、返品ポリシーと配送ガイドラインの両方に関する文書を取得する場合があります。適切なランク付けがなければ、生成されたレスポンスは返品ではなく配送に焦点を当て、ユーザーの意図を見逃す可能性があります。
Amazon Bedrock は、ユーザークエリとの関連性に基づいて取得した文書を並べ替えるリランキングモデルへのアクセスを提供します。これにより、最も有用な情報が基盤モデルに送られ、コンテキストウィンドーの使用が最適化され、潜在的にコストが削減されます。
Rerank API は、Amazon Rerank 1.0 と Cohere Rerank 3.5 モデルをサポートしています。これらのモデルは、米国西部(オレゴン)、カナダ(中部)、欧州(フランクフルト)、アジアパシフィック(東京)で利用可能です。
Amazon Bedrock Marketplace が 100 以上のモデルを Amazon Bedrock に追加
Amazon Bedrock Marketplace が、100 以上のパブリックおよびプロプライエタリな基盤モデル (FM) へのアクセスを提供するようになりました。これは Amazon Bedrock の業界をリードするサーバーレスモデルに加えてのものです。
お客さまは、これらのモデルを SageMaker エンドポイントにデプロイし、必要なインスタンス数とタイプを選択できます。Amazon Bedrock Marketplace のモデルは Bedrock の統一 API を通じてアクセスでき、Bedrock の Converse API と互換性のあるモデルは、エージェント、ナレッジベース、ガードレールなどの Amazon Bedrock のツールとともに使用できます。
Amazon Bedrock Marketplace は、生成系 AI 開発者がさまざまなタイプやサイズの新興、人気、主要な FM を迅速にテストし、組み込むことを可能にします。お客さまは、独自の要件に合わせた多様なモデルから選択でき、生成系 AI ワークフローの市場投入までの時間短縮、精度向上、コスト削減に役立ちます。例えば、金融や医療に特化したモデル、アジア言語の翻訳モデルなどを単一の場所から組み込むことができます。
Amazon Bedrock Knowledge Bases がマルチモーダルデータの処理に対応
Amazon Bedrock Knowledge Bases が、テキストデータと視覚的データ(画像、チャート、図表、表など)の両方を分析し、洞察を活用できる生成系AI アプリケーションの構築を可能にしました。
Bedrock Knowledge Bases は、エンドツーエンドのマネージド Retrieval-Augmented Generation (RAG) ワークフローを提供し、お客さま独自のデータソースからコンテキスト情報を取り込むことで、高精度で低レイテンシー、安全でカスタマイズ可能な生成系AI アプリケーションの作成を実現します。
今回のアップデートにより、Bedrock Knowledge Bases はテキストと視覚的データの両方からコンテンツを抽出し、選択された埋め込みモデルを使用して意味的埋め込みを生成し、選択されたベクトルストアに保存します。これにより、ユーザーはテキストだけでなく視覚的データからも質問に対する回答を取得・生成できるようになりました。
また、取得された結果には視覚的データのソース属性が含まれるようになり、生成された出力の透明性と信頼性が向上しました。
お客さまは、マルチモーダルデータからコンテンツを自動的に抽出する Amazon Bedrock Data Automation(現在プレビュー中)か、Claude 3.5 Sonnet や Claude 3 Haiku などの基盤モデルを選択でき、デフォルトのプロンプトをカスタマイズする柔軟性も備えています。
Amazon Bedrock Knowledge Bases が RAG 評価機能をサポート(プレビュー)
Amazon Bedrock Knowledge Bases に RAG 評価機能が追加されました。この機能により、Amazon Bedrock Knowledge Bases 上に構築された検索拡張生成(RAG)アプリケーションを評価できます。情報検索のみ、または検索とコンテンツ生成の両方を評価することが可能です。
評価は LLM-as-a-Judge 技術によって行われ、お客さまは複数の判定モデルから選択できます。検索評価では、コンテキストの関連性やカバレッジなどの指標を選択できます。検索と生成の評価では、正確性、完全性、忠実性(ハルシネーション検出)などの品質指標や、有害性、回答拒否、ステレオタイプ化などの責任ある AI 指標を選択できます。
また、チャンキング戦略やベクトル長、異なるコンテンツ生成モデルなど、設定の異なる Knowledge Bases を比較するために、評価ジョブ間で比較することもできます。
Amazon Bedrock Knowledge Bases の RAG 評価ツールを使用することで、お客さまはデータと LLM がすでに存在する場所で、Knowledge Base を利用したアプリケーションを便利かつ迅速に評価できます。さらに、Amazon Bedrock Guardrails を評価に直接組み込むことで、より徹底したテストが可能になります。
Amazon Bedrock の RAG 評価ツールを使用することで、完全なオフラインの人間ベースの評価と比較して、コストと数週間の時間を節約でき、アプリケーションの改善をより迅速かつ容易に行うことができます。
Amazon Bedrock IDE が Amazon SageMaker Unified Studio の一部としてプレビュー版を発表
Amazon Bedrock IDE のプレビュー版が発表されました。これは Amazon SageMaker Unified Studio (プレビュー) に統合された管理された共同作業環境で、開発者が迅速に生成系 AI アプリケーションを構築およびカスタマイズできるようにします。
Amazon Bedrock IDE は、さまざまなスキルレベルの開発者向けに直感的なインターフェースを提供し、Amazon Bedrock の高性能な基盤モデル (FM) と高度なカスタマイズ機能にアクセスして、共同で生成系 AI アプリケーションを構築することができます。
Amazon SageMaker Unified Studio への統合により、生成系 AI 開発におけるデータ、ツール、開発者間の障壁が取り除かれます。チームは、好みの分析および ML ツールとともに、生成系 AI アプリケーション構築のための Amazon Bedrock IDE の専門ツールにアクセスできるようになりました。
開発者は、Retrieval Augmented Generation (RAG) を活用して独自のデータソースからナレッジベースを作成し、複雑なタスク自動化のためのエージェントを利用し、責任ある AI 開発のためのガードレールを設定できます。この統合されたワークスペースにより複雑さが軽減され、ビジネスニーズに合った本番環境対応の責任ある生成系 AI アプリケーションの試作、反復、デプロイメントが加速します。
Amazon Bedrock IDE は現在、Amazon SageMaker Unified Studio で利用可能で、5つのリージョンでサポートされています。
Amazon Bedrock Guardrails が自動推論チェックをサポート(プレビュー)
Amazon Bedrock Guardrails に自動推論チェックのセーフガードが導入され、AWS は主要クラウドプロバイダーとして初めて生成系 AI サービスに自動推論を統合しました。自動推論チェックは、大規模言語モデル (LLM) の応答の正確性を検証可能な形で証明し、ハルシネーションを検出するのに役立ちます。
自動推論ツールは精度を推測や予測するのではなく、専門家が作成した自動推論ポリシーへの準拠を数学的手法で検証し、透明性を向上させます。
組織は LLM を活用して、関連性の高い文脈に沿った情報への対話型アクセスを可能にし、ユーザーエクスペリエンスの向上と運用コストの削減を図っています。しかし、LLM はハルシネーションを起こしやすく、その説得力のある回答のため、検出が困難です。このハルシネーションの可能性と、その原因の説明困難さが、精度が重要なユースケースでの生成系 AI の採用を遅らせています。
自動推論チェックにより、ドメインエキスパートは運用ワークフローや人事ポリシーなどの分野の知識をカプセル化した自動推論ポリシーを容易に構築できます。Amazon Bedrock Guardrails のユーザーは、生成されたコンテンツを自動推論ポリシーと照合して不正確な点や暗黙の前提を特定し、検証可能な方法で回答の正確性を説明できます。
例えば、複雑な人事ポリシー(従業員の勤続年数、所在地、業績などの制約を含む)に基づいて回答を検証し、裏付けとなる証拠を示しながら回答の正確性を説明するように自動推論チェックを設定できます。
Amazon Bedrock Guardrails が画像コンテンツのマルチモーダル有害性検出をサポート(プレビュー)
Amazon Bedrock Guardrails に、画像コンテンツのマルチモーダル有害性検出機能が追加されました。これにより、組織は画像にコンテンツフィルターを適用できるようになりました。
この新機能により、お客さまは画像データに対する独自の保護機能を構築したり、手動で評価する手間を省くことができます。Bedrock Guardrails は、医療、製造、金融サービス、メディア、広告、交通、マーケティング、教育など、幅広い業界での責任ある生成系AIアプリケーションの構築とスケーリングを支援します。
Amazon Bedrock Guardrails は、望ましくない潜在的に有害な画像コンテンツを検出・フィルターリングしながら、安全で関連性の高い画像を保持する包括的なソリューションを提供します。お客さまは、テキストと画像データの両方に対して、設定可能なしきい値を持つコンテンツフィルターを単一のソリューションで使用できるようになりました。
この新機能は、画像をサポートする Amazon Bedrock 上の全ての基盤モデル(ファインチューニングされたモデルを含む)で利用可能です。
Amazon Bedrock Data Automation を発表(プレビュー)
Amazon Bedrock Data Automation (BDA) のプレビュー版が発表されました。これは Amazon Bedrock の新機能で、開発者が非構造化マルチモーダルコンテンツ(文書、画像、動画、音声など)から価値ある洞察を自動生成し、生成系AI ベースのアプリケーションを構築できるようにします。
BDA の主な特長:
1. 動画の重要な瞬間の要約、不適切な画像コンテンツの検出、複雑な文書の自動分析などの洞察を生成
2. 開発者のシステムやアプリケーションに必要な特定の洞察を一貫したフォーマットでカスタマイズ可能
3. 開発時間と労力を削減し、インテリジェントな文書処理、メディア分析、その他のマルチモーダルデータ中心の自動化ソリューションの構築を容易化
4. 代替ソリューションよりも低コストで高精度を実現
5. 説明可能性のための視覚的根拠付けと信頼度スコア、組み込みのハルシネーション軽減機能を提供
開発者は Bedrock コンソールで BDA を開始でき、サンプルデータを使用して出力を設定およびカスタマイズできます。その後、BDA の統合マルチモーダル推論 API をアプリケーションに組み込み、非構造化コンテンツを大規模に処理できます。
また、BDA は Bedrock のナレッジベースと統合されており、開発者が非構造化マルチモーダルコンテンツから意味のある情報を生成し、検索拡張生成(RAG)のためのより関連性の高い応答を提供することが容易になります。
Amazon CloudWatch と Amazon OpenSearch Service が統合分析エクスペリエンスを開始
Amazon CloudWatch と Amazon OpenSearch Service の間に新しい統合分析エクスペリエンスとゼロETL統合が導入されました。これにより、両サービスの利点を最大限に活用できます。
主な特長:
1. CloudWatch ユーザーは OpenSearch の Piped Processing Language (PPL) と OpenSearch SQL を利用可能
2. CloudWatch ユーザー向けに、Amazon VPC、AWS CloudTrail、AWS WAF などのベンダーログ用の事前構成されたダッシュボードを提供
3. OpenSearch ユーザーはデータの複製なしに CloudWatch Logs を分析可能
4. CloudWatch Logs ユーザーは、既存の CloudWatch Logs Insights QL に加えて、2つの新しいクエリ言語を使用可能
5. SQL を使用したデータ分析、JOIN やサブクエリによるログの相関付け、JSON、数学、日時、文字列関数の使用が可能
6. OpenSearch PPL を使用したデータのフィルターリング、集計、分析が可能
7. CloudWatch Logs ユーザーは、VPC、WAF、CloudTrail ログ用の OpenSearch ダッシュボードを簡単に作成可能
8. OpenSearch ユーザーは、CloudWatch からログをコピーしたり ETL パイプラインを作成したりする必要がなくなり、OpenSearch Discover を使用して CloudWatch ログをその場で分析可能
この統合により、ログ分析の効率性と柔軟性が向上し、トラブルシューティングが加速されます。
Amazon CloudWatch がフローモニターを使用した AWS ワークロードのネットワークパフォーマンス監視を追加
Amazon CloudWatch Network Monitoring に、フローモニターを使用して AWS ワークロードのネットワークパフォーマンスを監視する機能が追加されました。この新機能により、Amazon EC2 や Amazon EKS などのコンピューティングインスタンス間、および Amazon S3、Amazon RDS、Amazon DynamoDB などの AWS サービス間のワークロードのネットワークパフォーマンスをほぼリアルタイムで可視化できます。これにより、ワークロードのネットワーク起因の障害を迅速に検出し、原因を特定できます。
CloudWatch Network Monitoring は、フローモニターを使用して、パケットロスとレイテンシーの TCP ベースのパフォーマンスメトリクスと、AWS ワークロードのネットワーク健全性指標を提供します。これにより、問題の根本原因を素早く特定できます。フローモニターは、問題がアプリケーションスタックによるものか、基盤となる AWS インフラストラクチャーによるものかを判断するのに役立ち、エンドユーザーエクスペリエンスを事前に監視できます。
CloudWatch Network Monitoring は、フローモニター、合成モニター、インターネットモニターを含むようになりました。フローモニターは AWS ワークロードのネットワークパフォーマンスを受動的に監視し、合成モニターはハイブリッドネットワークセグメントを能動的に監視し、インターネットモニターはインターネットセグメントを監視するために使用します。
Amazon CloudWatch がテレメトリ設定の一元的な可視性を提供開始
Amazon CloudWatch が、Amazon VPC Flow Logs、Amazon EC2 詳細メトリクス、AWS Lambda トレースなどの重要な AWS サービステレメトリ設定の一元的な可視性を提供するようになりました。この強化された可視性により、中央の DevOps チーム、システム管理者、サービスチームはインフラストラクチャー監視設定の潜在的なギャップを特定できます。
テレメトリ設定の監査機能は、AWS Config と連携して AWS リソースを検出し、Amazon CloudWatch と AWS Organizations の新しい統合機能を使用して組織全体で有効にできます。
テレメトリ設定の可視性により、現在の設定で見落とされている可能性のある監視ギャップを特定できます。例えば、EC2 詳細メトリクスのギャップを特定し、短期的なパフォーマンススパイクを容易に検出し、応答性の高いオートスケーリングポリシーを構築できます。
テレメトリ設定のカバレッジは、リソースタイプレベルと個別リソースレベルの両方で監査でき、特定のアカウント、リソースタイプ、リソースタグでフィルターリングして重要なリソースに焦点を当てることができます。
この機能は、Amazon CloudWatch コンソールのナビゲーションパネルにある「Telemetry config」をクリックするか、API/CLI を使用してプログラムで開始できます。
Amazon CloudWatch が Database Insights を発表
Amazon CloudWatch Database Insights が Amazon Aurora PostgreSQL と Amazon Aurora MySQL をサポートし、一般提供を開始しました。Database Insights は、DevOps エンジニア、アプリケーション開発者、データベース管理者 (DBA) 向けに設計された、データベースのトラブルシューティングを迅速化し、データベースフリートの健全性を包括的に把握するための可観測性ソリューションです。
Database Insights は、アプリケーション、データベース、およびそれらが実行されるOSからのログとメトリクスを、コンソール上の統合ビューに集約します。事前構築されたダッシュボード、推奨アラーム、自動化されたテレメトリ収集を使用して、データベースフリートの健全性を監視し、ガイド付きのトラブルシューティングで個々のインスタンスまで掘り下げて根本原因分析を行うことができます。
アプリケーション開発者は、Amazon CloudWatch Application Signals のアプリケーションパフォーマンスビューから、Database Insights の特定の依存データベースまで掘り下げることができるため、データベースの依存関係がビジネスクリティカルなアプリケーションのパフォーマンスと可用性に与える影響を関連付けることができます。
Database Insights は、Aurora サービスコンソール、AWS API、SDK を使用して Aurora クラスタで有効にすることで利用を開始できます。フリートレベルで集約されたデータベースの健全性監視と、詳細なデータベースおよび SQL クエリ分析のためのインスタンスレベルのダッシュボードを提供します。
Database Insights は新しい vCPU ベースの価格設定を適用しています。
Amazon CloudWatch Container Insights が Amazon ECS の可観測性を強化
Amazon CloudWatch Container Insights が Amazon Elastic Container Service (ECS) の可観測性を強化しました。Amazon EC2 と Amazon Fargate 上で動作する ECS に対して、クラスタレベルからコンテナレベルまでの詳細なメトリクスを提供し、問題の特定とトラブルシューティングを迅速化します。
強化された可観測性により、お客さまはさまざまなコンテナレイヤーを視覚的に上下に掘り下げ、個々のコンテナのメモリリークなどの問題を直接特定できるようになり、平均解決時間が短縮されます。
お客さまはクラスタ、サービス、タスク、コンテナをリソース消費量で並べ替えて表示し、異常を素早く特定し、エンドユーザーの体験に影響が出る前にリスクを事前に軽減できます。
Container Insights の新しいランディングページでは、複数のアカウントにまたがるクラスタの全体的な健全性とパフォーマンスを簡単に理解し、高負荷で動作しているクラスタを特定し、関連する詳細なダッシュボードビューを直接参照することで根本原因を特定できます。
強化された可観測性は、Amazon ECS コンソールで「Enhanced」ラジオボタンを選択するか、AWS CLI、CloudFormation、CDK を使用して、クラスタレベルまたはアカウントレベルで開始できます。また、Container Insights が有効なクラスタで CloudWatch エージェントをデーモンサービスとして起動することで、EC2 からインスタンスレベルのメトリクスを収集することもできます。
AWS Organizations が宣言型ポリシーを発表
AWS Organizations に新しい管理ポリシータイプとして、宣言型ポリシーが一般提供されました。これにより、組織内の AWS サービスの基本設定など、永続的な意図の適用が簡素化されます。
主な特長:
1. EC2 インスタンスの起動を特定のプロバイダーが提供する AMI に制限したり、VPC のパブリックアクセスをブロックしたりするなどの設定が、組織全体に対して簡単に行えます。
2. ポリシーに準拠しないアクションを防止するように設計されています。
3. サービスに新しい API や機能が追加された場合や、組織に新しいプリンシパルやアカウントが追加された場合でも、宣言型ポリシーで定義された設定が維持されます。
4. ガバナンスチームは、アカウントステータスリポートにアクセスして、組織全体の AWS サービスの現在の設定を把握できます。
5. 管理者は、カスタムエラーメッセージを設定して、エンドユーザーを内部 Wiki やチケットシステムにリダイレクトできます。
宣言型ポリシーは、AWS Organizations コンソール、AWS Control Tower、AWS CLI、または CloudFormation テンプレートを使用して作成・適用できます。現在は EC2、EBS、VPC の設定をサポートしており、他のサービスのサポートも近日中に追加される予定です。
AWS Control Tower が宣言型ポリシーを使用したマネージドコントロールを発表
AWS Control Tower に、宣言型ポリシーを使用したマネージド予防コントロールが一般提供されました。これらのポリシーは、サービスの望ましい構成を一貫して適用するのに役立つ新しいオプションのコントロールセットです。
例えば、Amazon Machine Images (AMI) のパブリック共有を禁止する宣言型ポリシーベースの予防コントロールをデプロイできます。宣言型ポリシーにより、新しい API の導入や新しいプリンシパルやアカウントの追加に関係なく、設定されたコントロールが常に適用されることが保証されます。
今回、Amazon EC2、Amazon VPC、Amazon EBS 向けの宣言型ポリシーベースの予防コントロールがリリースされました。これらのコントロールは、ネットワークアクセスの制限、最小権限の適用、脆弱性の管理などのコントロール目標の達成に役立ちます。
新しい宣言型ポリシーベースの予防コントロールは、AWS Control Tower の既存のコントロール機能を補完し、ポリシー違反につながるアクションを禁止することができます。
予防、事前対応、検出のコントロールを組み合わせることで、マルチアカウントの AWS 環境がセキュアで、ベストプラクティスに従って管理されているかどうかを監視できます。
AWS Config がサービスリンクレコーダーをサポート
AWS Config に新しいタイプのレコーダーである、サービスリンクレコーダーのサポートが追加されました。これは AWS サービスによって管理され、サービス固有のリソースの設定データを記録できます。例えば、新しい Amazon CloudWatch テレメトリ設定の監査などが含まれます。
Amazon CloudWatch でサービスリンクレコーダーを有効にすると、Amazon VPC Flow Logs、Amazon EC2 詳細メトリクス、AWS Lambda トレースなど、重要な AWS サービステレメトリ設定の一元的な可視性が得られます。
サービスリンクレコーダーにより、AWS サービスはお客さまに代わって AWS Config レコーダーをデプロイおよび管理し、リソースを検出して設定データを活用し、差別化された機能を提供できます。例えば、Amazon CloudWatch が管理するサービスリンクレコーダーは、組織内の特定の重要なリソースのモニターリングギャップを特定し、テレメトリ設定ステータスの一元化された単一ビューを提供します。
サービスリンクレコーダーは不変であるため、一貫性の確保、設定ドリフトの防止、簡素化された体験が保証されます。既存の AWS Config レコーダーが有効な場合、サービスリンクレコーダーはそれとは独立して動作します。これにより、特定のユースケースに対して AWS Config レコーダーを独自に管理しながら、認可された AWS サービスが機能固有の要件に対してサービスリンクレコーダーを管理できます。
Amazon CloudWatch が管理するサービスリンクレコーダーは、米国東部(バージニア北部)、米国西部(オレゴン)、米国東部(オハイオ)、アジアパシフィック(東京)、アジアパシフィック(シンガポール)、アジアパシフィック(シドニー)、ヨーロッパ(フランクフルト)、ヨーロッパ(アイルランド)、ヨーロッパ(ストックホルム)リージョンで利用可能です。
AWS Transfer Family が Web アプリケーションを発表
AWS Transfer Family に Web アプリケーションが新たに追加されました。これにより、Amazon S3 のデータに Web ブラウザーからアクセスするためのシンプルなインターフェースを作成できます。Transfer Family の Web アプリケーションを使用すると、完全マネージド型で、ブランド化され、セキュアなポータルをエンドユーザーに提供し、S3 のデータの閲覧、アップロード、ダウンロードが可能になります。
Transfer Family は SFTP、FTPS、FTP、AS2 を介したファイル転送を完全マネージドで提供し、サードパーティーのクライアントやその設定を変更することなく、ワークロードの移行をシームレスに行えます。今回のアップデートにより、組織内の非技術者向けに、ユーザーフレンドリーなインターフェースを通じてブラウザーベースの転送を可能にしました。
Transfer Family の Web アプリケーションは AWS IAM Identity Center および S3 Access Grants と統合されており、既存のディレクトリー内の企業 ID を S3 データセットに直接マッピングする、きめ細やかなアクセス制御を実現します。Transfer Family コンソールで数回クリックするだけで、Web アプリケーションの共有可能な URL を生成できます。認証されたユーザーは、Web ブラウザーを通じて許可されたデータにアクセスを開始できます。
AWS Data Transfer Terminal が高速データアップロード向けに発表
AWS Data Transfer Terminal が発表されました。これは、ストレージデバイスを持ち込んで AWS ネットワークに直接接続し、高スループット接続を使用してデータを Amazon S3 や Amazon EFS などの AWS サービスにアップロードできる、安全な物理的な場所です。
現在、Data Transfer Terminal はロサンゼルスとニューヨークに設置されており、最寄りの施設の利用時間を予約してデータをアップロードできます。
この新サービスは、大量のデータを迅速かつ安全に AWS クラウドに転送する必要があるお客さまに適しています。用途はさまざまな業界にわたり、メディア・エンターテインメント業界での動画制作データ処理、自動車業界での先進運転支援システム(ADAS)のトレーニングデータ、金融サービス業界でのレガシーデータ移行、産業・農業分野での機器センサーデータのアップロードなどが含まれます。
Data Transfer Terminal を使用することで、大量のデータのアップロード時間を大幅に短縮し、数日や数週間ではなく数分でデータを処理できるようになります。アップロードされたデータは、Amazon Athena での大規模データセット分析、Amazon SageMaker での機械学習モデルのトレーニングと実行、Amazon EC2 を使用したスケーラブルなアプリケーションの構築などに活用できます。
VPC Lattice が VPC リソースで TCP サポートを追加
VPC Resources for Amazon VPC Lattice が導入され、VPC Lattice サービスネットワークを通じて全てのアプリケーション依存関係にアクセスできるようになりました。これにより、異なる VPC、アカウント、およびオンプレミスでホストされているアプリケーション依存関係に、TLS、HTTP、HTTPS、そして新たに TCP を含む追加のプロトコルを使用して接続できます。
この新機能は既存の HTTP ベースのサービスサポートを拡張し、組織全体でより幅広いリソースを共有できるようにします。VPC Resource サポートにより、Amazon RDS データベース、カスタム DNS、IP エンドポイントなどの TCP リソースを VPC Lattice サービスネットワークに追加できます。
これにより、HTTP API や TCP データベースなど、全てのアプリケーション依存関係を数千の VPC 間で共有および接続できるようになり、ネットワーク管理が簡素化され、組み込みのアクセス制御による一元的な可視性が提供されます。
AWS Verified Access が非 HTTP(S) プロトコルを使用したリソースへの安全なアクセスをサポート(プレビュー)
AWS Verified Access の新機能のプレビューが発表されました。この機能は、TCP、SSH、RDP などのプロトコルを使用するリソースへの安全なアクセスをサポートします。
この機能により、AWS のゼロトラストの原則を使用して、VPN を使用せずに企業のアプリケーションやリソースへの安全なアクセスを提供できます。AWS 上の非 HTTP(S) リソース用に個別のアクセスと接続ソリューションを管理する必要がなくなり、セキュリティ運用が簡素化されます。
Verified Access は、きめ細やかなポリシーを使用して、ユーザーのアイデンティティとデバイスの状態に基づいて各アクセスリクエストをリアルタイムで評価します。この機能により、既存の Verified Access ポリシーを拡張して、Git リポジトリ、データベース、EC2 インスタンスのグループなどの非 HTTP(S) リソースへの安全なアクセスを可能にします。
例えば、システム管理チームの認証されたメンバーのみに EC2 フリート全体への SSH アクセスを許可し、準拠デバイスからの接続のみを許可する一元管理されたポリシーを作成できます。これにより、類似のセキュリティ要件を持つアプリケーションやリソースのアクセスポリシーを単一のインターフェースから作成、グループ化、管理できるため、セキュリティ運用が簡素化されます。
AWS PrivateLink を介して VPC リソースへのアクセスが可能に
AWS PrivateLink のお客さまは、VPC エンドポイント(AWS PrivateLink を利用)を使用して、VPC リソースにプライベートかつ安全にアクセスできるようになりました。これらのリソースには、データベースやクラスタなどが含まれ、自社の VPC やオンプレミスネットワーク内に配置でき、ロードバランシングの必要がなく、組織内の他のチームや外部の独立系ソフトウェアベンダー(ISV)パートナーと共有することができます。
AWS PrivateLink は、VPC が VPC エンドポイントサービス(サポートされている AWS サービスや AWS Marketplace サービスを含む)や VPC リソースへのプライベートな単方向接続を可能にする、高可用性でスケーラブルな技術です。
このアップデート以前は、お客さまは Network Load Balancer または Gateway Load Balancer を使用するサービスにのみアクセスまたは共有できました。今回のアップデートにより、AWS Resource Access Manager (AWS RAM) を使用して任意の VPC リソースを共有できるようになりました。このリソースは、RDS データベース、ドメイン名、または別の VPC やオンプレミス環境の IP アドレスなどの AWS ネーティブリソースです。
共有後、対象ユーザーは VPC エンドポイントを使用してこれらのリソースにプライベートにアクセスできます。リソース VPC エンドポイントを使用して1つのリソースにアクセスしたり、Amazon VPC Lattice サービスネットワークで複数のリソースをプールし、サービスネットワーク VPC エンドポイントを使用してサービスネットワークにアクセスしたりできます。
Amazon OpenSearch Service が Amazon Security Lake とのゼロ ETL 統合を発表
Amazon OpenSearch Service が Amazon Security Lake とのゼロ ETL 統合を提供開始しました。これにより、OpenSearch を通じてセキュリティデータをその場で直接クエリおよび分析できるようになりました。この統合により、以前はコスト面で分析が困難だった大量のデータソースを効率的に探索できるようになり、セキュリティ調査の合理化とセキュリティ状況の包括的な可視化が可能になります。
データを選択的に取り込む柔軟性を提供し、複雑なデータパイプラインの管理が不要になったことで、効果的なセキュリティ運用に集中でき、分析コストを潜在的に削減できます。
OpenSearch Service の強力な分析および可視化機能を使用して、より深い調査、脅威ハンティングの強化、セキュリティ体制の積極的な監視が可能になります。Open Cybersecurity Schema Framework (OCSF) を使用した事前構築されたクエリとダッシュボードにより、分析をさらに加速できます。組み込みのクエリアクセラレータはパフォーマンスを向上させ、ダッシュボードの高速ロードを可能にし、全体的なエクスペリエンスを向上させます。
この統合により、最小限のデータ移行で調査を加速し、以前はアクセスできなかったデータソースから洞察を得て、分析の効率性とコストを最適化できます。
アジアパシフィック (東京) を含む、13のリージョンで一般提供が開始されました。
Amazon GuardDuty が GuardDuty Extended Threat Detection を発表
Amazon GuardDuty Extended Threat Detection の一般提供が開始されました。この新機能により、AWS アカウント、ワークロード、データを標的とする高度な多段階攻撃を特定できます。
新しい攻撃シーケンス検出機能は、複数のリソースとデータソースを長期間にわたって分析し、重要度の高い脅威への対応に集中できるようになります。
GuardDuty Extended Threat Detection は、AWS スケールで訓練された AI と機械学習アルゴリズムを使用し、AWS サービス全体からのセキュリティシグナルを自動的に相関分析して重大な脅威を検出します。認証情報の侵害とそれに続くデータ流出などの攻撃シーケンスを特定し、単一の重大度の高い検出結果として表示します。
検出結果には、インシデントの概要、詳細なイベントタイムライン、MITRE ATT&CK® タクティクスとテクニックへのマッピング、修復の推奨事項が含まれます。
この新機能は、新規および既存の GuardDuty ユーザーに対して自動的に有効化されます。全ての GuardDuty 保護プランを有効にする必要はありませんが、追加の保護プランを有効にすることで、より包括的な脅威分析と攻撃シナリオのカバレッジが可能になります。
GuardDuty コンソール、AWS Security Hub、Amazon EventBridge との統合を通じて、検出結果に基づいたアクションを実行できます。
AWS Security Incident Response が一般提供を開始
AWS が新サービス「AWS Security Incident Response」の一般提供を開始しました。このサービスは、セキュリティイベントへの準備、対応、復旧を支援します。主な特長は以下の通りです:
1. セキュリティ調査の自動化により、ルーチンタスクからリソースを解放
2. 対応調整を効率化するコミュニケーションと連携機能
3. AWS Customer Incident Response Team (CIRT) への24時間365日のアクセス
Amazon GuardDuty や AWS Security Hub を通じたサードパーティーツールとの統合により、セキュリティアラートの迅速なレビュー、重要度の高い問題のエスカレーション、お客さまの許可を得た上での封じ込め対策の実施が可能です。
チームが分析する必要のあるアラート数を削減し、セキュリティ担当者が戦略的な取り組みに集中できるようにします。
インシデント関連のコミュニケーション、文書化、アクションを一元化し、内部および外部の関係者間での調整時間を大幅に短縮します。
事前にインシデント対応チームメンバーの設定、自動通知の設定、ケース権限の管理が可能で、セキュリティイベント発生時にはビデオ会議やコンソール内メッセージングなどのコミュニケーションツールを利用できます。
AWS マネジメントコンソールの一元化されたダッシュボードでは、アクティブなケースの監視、解決済みのセキュリティインシデントケースのレビュー、トリアージされたイベント数や平均解決時間などの主要指標のリアルタイム追跡が可能です。
専門知識が必要な場合は、1ステップで AWS CIRT に24時間365日接続できます。
Storage Browser for Amazon S3 が一般提供開始
Amazon S3 が Storage Browser for S3 の一般提供を発表しました。これは、Web アプリケーションに追加できるオープンソースコンポーネントで、エンドユーザーに S3 に保存されたデータのシンプルなインターフェースを提供します。Storage Browser for S3 を使用すると、お客さま、パートナー、従業員などの認可されたエンドユーザーが、独自のアプリケーションから直接 S3 のデータを簡単に閲覧、ダウンロード、アップロードできるようになります。
Storage Browser for S3 は、AWS Amplify React および JavaScript クライアントライブラリで利用可能です。一般提供により、エンドユーザーはファイル名でデータを検索し、アクセス権のあるデータをコピーおよび削除できるようになりました。さらに、エンドユーザーがアップロードするデータのチェックサムを自動的に計算し、耐久性チェックに合格しないリクエストをブロックします。
Storage Browser for S3 は AWS サポートによってバックアップされており、AWS ビジネスおよびエンタープライズサポートプランのお客さまは、24時間365日クラウドサポートエンジニアにアクセスできます。
Amazon S3 がデフォルトのデータ整合性保護を強化
Amazon S3 がオブジェクトアップロードリクエストのデフォルト動作を更新し、S3 の既存の耐久性体制に基づいた新しいデータ整合性保護を導入しました。
最新の AWS SDK は、ネットワーク経由でデータが送信される際に CRC ベースのチェックサムを自動的に計算するようになりました。S3 はこれらのチェックサムを独立して検証し、パブリックインターネット経由の転送中にデータの整合性が維持されたことを確認した後にオブジェクトを受け入れます。
さらに、S3 は現在、マルチパートアップロードの場合でも、オブジェクトメタデータに CRC ベースの全オブジェクトチェックサムを保存します。これにより、S3 に保存されているオブジェクトの整合性をいつでも検証できます。
S3 は常に、MD5 チェックサムを計算することで、S3 API からストレージへのオブジェクトアップロードの整合性を検証してきました。また、お客さまが事前に計算した MD5 チェックサムを提供して整合性検証を行うことも可能でした。
S3 は、アップロードとダウンロード時の整合性検証のために、CRC64NVME、CRC32、CRC32C、SHA-1、SHA-256 の 5 つの追加チェックサムアルゴリズムもサポートしています。
データ検証にチェックサムを使用することはデータ耐久性のベストプラクティスであり、この新しいデフォルト動作により、アプリケーションを変更することなく、追加コストなしで、データ整合性保護が強化されます。
デフォルトのチェックサム保護は、今後数週間で全ての AWS リージョンに展開される予定です。
Amazon S3 が AWS Dedicated Local Zones 向けのストレージクラスを発表
Amazon S3 Express One Zone と S3 One Zone-Infrequent Access ストレージクラスが、AWS Dedicated Local Zones で利用可能になりました。Dedicated Local Zones は、AWS が完全に管理し、お客さままたは特定のコミュニティーが専用で使用するために構築され、規制要件への準拠を支援するために指定された場所やデータセンターに配置される AWS インフラストラクチャーの一種です。
Dedicated Local Zones では、これらのストレージクラスは特定のデータ境界内にデータを保存するように設計されており、データの分離とデータレジデンシーのユースケースをサポートします。
Amazon S3 Tables - 分析ワークロード向けに最適化された完全マネージド型 Apache Iceberg テーブルを発表
Amazon S3 Tables が発表されました。これは、Apache Iceberg サポートを組み込んだ初のクラウドオブジェクトストアであり、大規模な表形式データを保存する最も簡単な方法です。S3 Tables は分析ワークロード向けに最適化されており、自己管理テーブルと比較して最大3倍のクエリスループットと最大10倍の1秒当たりのトランザクション数を実現します。
Apache Iceberg 標準のサポートにより、表形式データを AWS や他社の一般的なクエリエンジンで簡単に照会できます。S3 Tables は、データレイクが拡大・進化しても、クエリ効率とストレージコストを自動的に最適化するために継続的なテーブルメンテナンスを行うように設計されています。
S3 Tables と AWS Glue Data Catalog の統合がプレビュー段階に入り、Amazon Data Firehose、Athena、Redshift、EMR、QuickSight などの AWS 分析サービスを使用してデータのストリーミング、クエリ、可視化が可能になりました。
S3 Tables は、表形式データの保存に特化した新しいバケットタイプである「テーブルバケット」を導入しています。テーブルバケットを使用すると、テーブルをすばやく作成し、テーブルレベルの権限を設定してデータレイクへのアクセスを管理できます。標準 SQL を使用してテーブル内のデータをロードおよびクエリし、Apache Iceberg の高度な分析機能(行レベルのトランザクション、クエリ可能なスナップショット、スキーマ進化など)を活用できます。
テーブルバケットはポリシー駆動のテーブルメンテナンスも提供し、圧縮、スナップショット管理、参照されていないファイルの削除などの運用タスクの自動化を支援します。
Amazon S3 Metadata - メタデータを管理する最も簡単で高速な方法を発表(プレビュー)
Amazon S3 Metadata は、S3 データを即座に発見し理解するための最も簡単で高速な方法です。自動化された、簡単にクエリ可能なメタデータをほぼリアルタイムで更新します。これにより、ビジネス分析やリアルタイム推論アプリケーションなどのために S3 データをキュレーション、識別、使用することができます。
S3 Metadata は、オブジェクトメタデータとカスタムメタデータをサポートしています。オブジェクトメタデータには、サイズやオブジェクトのソースなどのシステム定義の詳細が含まれます。カスタムメタデータでは、製品 SKU、トランザクション ID、コンテンツ評価などの情報でオブジェクトに注釈を付けるためのタグを使用できます。
S3 Metadata は、バケットにアップロードされたオブジェクトからメタデータを自動的に取得し、読み取り専用テーブルでクエリ可能にするように設計されています。バケット内のデータが変更されると、S3 Metadata は数分以内にテーブルを更新して最新の変更を反映します。これらのメタデータテーブルは、表形式データに最適化された新しい S3 ストレージオファリングである S3 Tables に保存されます。
S3 Metadata は Amazon Bedrock と統合されており、AI 生成ビデオに AI 起源、作成タイムスタンプ、生成に使用された特定のモデルを指定するメタデータで注釈を付けることができます。
Amazon S3 Access Grants が AWS Glue と統合
Amazon S3 Access Grants が AWS Glue と統合され、AWS での分析、機械学習 (ML)、アプリケーション開発ワークロードをサポートするようになりました。S3 Access Grants は、Entra ID や Okta などの Identity Provider (IdP) や AWS Identity and Access Management (IAM) プリンシパルからの ID を Amazon S3 に保存されたデータセットにマッピングします。
この統合により、Glue 5.0 以降でジョブを実行するエンドユーザーの S3 権限を、バケットポリシーや個別の IAM ロールを作成・維持する必要なく管理できるようになりました。
AWS Glue は、S3 を含む複数のソースからのデータ探索、準備、統合を簡素化するデータ統合サービスです。S3 Access Grants を使用すると、既存の企業ディレクトリー内のユーザーやグループ、または IAM ユーザーやロールに対して、S3 のバケットやプレフィックスへの権限を付与できます。
適切なユーザーグループのエンドユーザーが Glue ETL for Apache Spark を使用して S3 にアクセスする際、データの読み書きに必要な権限が自動的に付与されます。また、S3 Access Grants は、IdP のユーザーグループにユーザーが追加または削除された際に、S3 の権限を自動的に更新します。
この機能は AWS Glue 5.0 以降で利用可能で、AWS Glue 5.0 と AWS IAM Identity Center が利用可能な全ての商用 AWS リージョンで使用できます。
Amazon FSx が新しいストレージクラス Intelligent-Tiering を発表
Amazon FSx Intelligent-Tiering が一般提供開始されました。これは Amazon FSx の新しいストレージクラスで、以下の特長があります:
- FSx SSD ストレージクラスと比べて最大 85% のコスト削減
- オンプレミスの従来の ハードディスクベース NAS ストレージと比べて最大 20% のコスト削減
- ネットワーク接続ストレージ (NAS) に完全な弾力性とインテリジェントな階層化を提供
この新しいストレージクラスは、Amazon FSx for OpenZFS で利用可能です。
Amazon FSx を使用すると、ポイントインタイムスナップショット、データクローン、ユーザークォータなどの一般的な NAS 機能を備えた、フルマネージドのクラウドファイルシステムを起動・実行できます。
FSx Intelligent-Tiering ストレージクラスにより、お客さまは以下のことが可能になります:
- 低コストのストレージを利用
- ストレージのプロビジョニングや管理が不要
- データアクセスパターンの変化に応じて自動的にストレージコストを最適化
このストレージクラスの使用に際して、前払いコストやコミットメントは不要で、使用したリソースに対してのみ料金が発生します。
FSx Intelligent-Tiering は、新しい FSx for OpenZFS ファイルシステムの作成時に利用できます。
今週のWeekly AWSは、以上です。最後までお読みいただき、ありがとうございました。
ソフトバンクはAWS アドバンストティアサービスパートナーです
「はじめてのAWS導入」から大規模なサービス基盤や基幹システムの構築まで、お客さまのご要望にあわせて最適なAWS環境の導入を支援します。
MSP(Managed Service Provider)サービスは、お客さまのパブリッククラウドの導入から運用までをトータルでご提供するマネージドサービスです。
条件に該当するページがございません