Weekly AWS アップデート情報 - 2024/7/16~Amazon Bedrock の Prompt Management と Prompt Flows が利用可能に(プレビュー)~

2024年7月16日掲載

キービジュアル

皆さま、こんにちは。

先週 (2024/7/8~14) の主な AWS アップデート情報をお送りいたします。

目次

今週の注目アップデート

  • Amazon Bedrock の Prompt Management と Prompt Flows が利用可能に(プレビュー)
    Amazon Bedrock の新機能として、Prompt Management と Prompt Flows のプレビュー版が発表されました。
    Amazon Bedrock Prompt Management は、プロンプトの作成、評価、バージョン管理、共有を簡素化し、開発者やプロンプトエンジニアがユースケースに最適な基盤モデルの応答を得られるよう支援します。主な特長は以下の通りです:
    1. Prompt Builder を使用して、複数の基盤モデル、モデル設定、プロンプトメッセージを試すことができます。
    2. デプロイなしで Prompt Builder 内でプロンプトのテストと比較が可能です。
    3. 下流のアプリケーションで使用するためのプロンプト共有は、バージョンを作成し API 呼び出しでプロンプトを取得するだけで済みます。
    また、Bedrock Prompt Flows は直感的なビジュアルビルダーを通じて、ワークフローの作成、テスト、デプロイを加速します。 開発者はビジュアルビルダーを使用して、プロンプト、ナレッジベース、Lambda 関数などの異なるコンポーネントをドラッグ&ドロップしてワークフローを自動化できます。
    これらの新機能により、Amazon Bedrock 上での基盤モデルの活用がより効率的になり、開発プロセスが簡素化されます。

分析

  • Amazon QuickSight が SPICE JOIN の上限を20倍に引き上げ
    Amazon QuickSight が SPICE データセットの結合におけるテーブルサイズ制限を1GBから20GBに引き上げたことを発表しました。主な更新点は以下の通りです:
    1. 制限の拡大:
      - 以前は、SPICE を含むさまざまなソースからテーブルを結合する際、結合される二次テーブルの合計サイズが1GB未満に制限されていました。
      - 新しい制限では、二次テーブルのサイズが20GBまで拡大されました。
    2. メリット:
      - ユーザは以前の20倍の容量で SPICE テーブルを結合できるようになりました。
      - QuickSight のデータ準備機能が大幅に強化されました。
      - SPICE の取り込みを活用した大規模なクロスソース結合タスクが可能になりました。
    3. 影響:
      - 以前は、大規模データセットを扱う際に上流のデータパイプラインで回避策を見付ける必要がありましたが、その必要性が軽減されます。
      - 複雑なデータモデルの構築がより容易になります。
    この更新により、QuickSight ユーザはより大規模で複雑なデータセットを効率的に処理できるようになり、データ分析と可視化の可能性が大幅に拡大しました。
  • Amazon OpenSearch Service がログ分析のための Natural Language Query Generation を発表
    Amazon OpenSearch Service が OpenSearch Dashboards Log Explorer に AI を活用した Natural Language Query Generation 機能を追加しました。主な特長は以下の通りです:
    1. ユーザは平易な英語でログ探索の質問を行うことができ、それが自動的に関連する Piped Processing Language (PPL) クエリに変換され、実行されます。
    2. PPL に精通していなくても、ログ分析をすぐに開始できます。
    3. より広範なチームメンバーがログデータを簡単に探索できるようになります。例えば、以下のような質問が可能です:
      - "show me the count of 5xx errors for each of the pages on my website"
      - "show me the throughput by hosts"
    4. 上級ユーザにとっても、自然言語の質問と生成された PPL の両方を反復的に改善することで、複雑なクエリの構築に役立ちます。
    この新機能により、ログ分析の効率が向上し、より多くのユーザがデータ探索を行えるようになります。技術的な専門知識がなくても、自然言語でログデータにアクセスし、インサイトを得ることが可能になります。
  • Amazon OpenSearch Serverless が最大30TBまでの時系列ワークロードをサポート
    Amazon OpenSearch Serverless が時系列コレクションで最大30TBのデータをサポートするようになりました。主な特長は以下の通りです:
    1. インフラストラクチャ管理を考慮せずに検索と分析ワークロードを実行できるサーバレスデプロイメントオプションです。
    2. より大規模なデータセットをサポートすることで、以下のようなデータ集約型のユースケースが可能になりました:
      - ログ分析
      - セキュリティ分析
      - リアルタイムアプリケーション監視
      - その他
    3. インデックス作成と検索に使用されるコンピューティング容量は OpenSearch Compute Units (OCUs) で測定されます。
    4. より大規模なデータセットに対応するため、インデックス作成と検索操作を独立してスケーリングし、最大500 OCUsまで使用できるようになりました。
    5. 新しいデータハイドレーションメカニズムにより、スケーリングが改善され、クエリのレイテンシが低下しました。
    6. コスト管理のため、検索とインデックス作成の最大 OCU 制限を個別に設定できます。
    7. CloudWatch メトリクスを使用してリアルタイムの OCU 使用状況を監視し、ワークロードのリソース消費をより良く把握できます。
    この機能強化により、OpenSearch Serverless はより大規模で複雑なデータ分析ワークロードに対応できるようになり、ユーザはインフラストラクチャ管理の負担なく高度な分析を行えるようになります。
  • AWS Glue Studio がノーコードのデータ準備オーサリング機能を提供開始
    AWS Glue Studio Visual ETL が、データ準備オーサリングが一般公開されました。主な特長は以下の通りです:
    1. ビジネスユーザやデータアナリスト向けのノーコードデータ準備ユーザエクスペリエンスを提供します。
    2. スプレッドシートスタイルの UI を持ち、AWS Glue for Spark 上でデータ統合ジョブを大規模に実行します。
    3. データアナリストやデータサイエンティストが、分析や機械学習(ML)のためのデータクリーニングと変換を容易に行えるようになります。
    4. コードを書く必要なく、数百の事前構築された変換から選択してデータ準備タスクを自動化できます。
    5. ビジネスアナリストとデータエンジニアが協力してデータ統合ジョブを構築できるようになりました。
    6. データエンジニアは Glue Studio のビジュアルフローベースビューを使用してデータ接続とデータフロープロセスの順序を定義し、ビジネスアナリストはデータ準備エクスペリエンスを使用してデータ変換と出力を定義できます。
    7. DataBrew のお客さまは既存のデータクレンジングと準備の「レシピ」を新しい AWS Glue データ準備エクスペリエンスにインポートし、AWS Glue Studio で直接オーサリングを続けることができます。
    8. ペタバイト規模のデータ処理にレシピをスケールアップでき、AWS Glue ジョブのより低価格なポイントで利用できます。
    この新機能により、データ準備プロセスの効率化と、より幅広いユーザによるデータ統合ジョブの作成が可能になります。
  • AWS Glue Data Catalog が Apache Iceberg テーブルの統計情報生成をサポート
    AWS Glue Data Catalog が Apache Iceberg テーブルの列レベル集計統計の生成をサポートするようになりました。主な特長は以下の通りです:
    1. 生成された統計が Amazon Redshift Spectrum のコストベースオプティマイザー(CBO)と統合され、クエリパフォーマンスの向上とコスト削減の可能性をもたらします。
    2. 個別値の数(NDV)などの集計統計が Apache Iceberg テーブルの列に収集され、Iceberg Puffin ファイルに保存されます。
    3. Amazon Redshift はこれらの統計を使用してクエリを最適化し、早い段階で最も制限の厳しいフィルタを適用します。これによりメモリ使用量と読み込まれるレコード数が制限されます。
    4. AWS Glue コンソールまたは API を使用して Apache Iceberg テーブルの統計を生成できます。
    5. 実行ごとに、Glue Catalog は現在の Iceberg テーブルスナップショットの統計を計算し、Iceberg Puffin ファイルと Glue カタログに保存します。
    6. Amazon Redshift Spectrum からのクエリ実行時、Apache Iceberg との組み込み統合により、クエリパフォーマンスが自動的に向上します。
    この新機能により、Apache Iceberg テーブルを使用する際のクエリ最適化とパフォーマンス向上が期待できます。

アプリケーション統合

  • Amazon MWAA が9つの新しいリージョンで利用可能に
    Amazon Managed Workflows for Apache Airflow (MWAA) が アジアパシフィック(大阪)リージョンで利用可能になりました。
    Amazon MWAA の主な特長:
    1. Apache Airflow のマネージドサービスです。
    2. 従来と同じ Apache Airflow プラットフォームを使用してワークフローをオーケストレーションできます。
    3. スケーラビリティ、可用性、セキュリティが向上しています。
    4. 基盤となるインフラストラクチャを管理する運用負担がありません。
    この拡張により、より多くのリージョンのお客さまが Amazon MWAA を利用して、効率的にワークフローを管理できるようになります。
  • Amazon MWAA が Apache Airflow バージョン 2.9 をサポート
    Amazon Managed Workflows for Apache Airflow (MWAA) で Apache Airflow バージョン 2.9 環境の作成が可能になりました。主な特長は以下の通りです:
    1. Apache Airflow 2.9 は、ワークフローの作成、スケジューリング、モニタリングを支援する人気のオープンソースツールの最新マイナーリリースです。
    2. Amazon MWAA は、クラウド上でエンドツーエンドのデータパイプラインの設定と運用を容易にする、Apache Airflow のマネージドオーケストレーションサービスです。
    3. Apache Airflow 2.9 では、以下のような新機能が導入されています:
      - データセット管理を改善する新しい API エンドポイント
      - 可読性向上のための動的タスクマッピングでのカスタム名
      - 高度なスケジューリングオプション:
      - データセット依存関係の条件式
      - データセットと時間ベースのスケジュールの組み合わせ
    この更新により、ユーザはより柔軟で効率的なワークフロー管理が可能になり、データパイプラインの運用が改善されることが期待されます。
  • Amazon EventBridge スキーマレジストリが AWS PrivateLink VPC エンドポイントをサポート
    Amazon EventBridge Schema Registry が AWS PrivateLink をサポートするようになりました。これにより、パブリックインターネットを経由せずに Amazon Virtual Private Cloud (VPC) 内からレジストリにアクセスできるようになりました。
    この機能により、インターネットゲートウェイの展開、ファイアウォールルールの設定、プロキシサーバのセットアップなしで、プライベートサブネットから EventBridge Schema Registry の機能を利用できます。
    Amazon EventBridge は、イベントを使用してアプリケーションコンポーネントを接続し、スケーラブルなイベント駆動型アプリケーションの構築を容易にします。EventBridge Schema Registry では、イベントの構造を表すスキーマを一元的に保存でき、他のチームが発見して利用することができます。
    スキーマを手動でレジストリに追加するか、Schema Discovery 機能を使用して EventBridge Event Bus に送信されたイベントのスキーマを自動的に取得できます。レジストリ内のスキーマに対して、Java、Python、TypeScript、Golang のコードバインディングをダウンロードし、好みの統合開発環境(IDE)で使用することで、コード検証や自動補完などの IDE 機能を活用できます。

ビジネスアプリケーション

  • Amazon Connect が自動化されたエージェントシフトのローテーションを開始
    Amazon Connectが、エージェントシフトの自動ローテーションをサポートするようになりました。これにより、コンタクトセンターマネージャがスケジュールを管理し、エージェントが企業で定義されたシフトの順序を確実に受けられるようになります。
    主な特長:
    1. 自動シフトローテーションにより、週ごとのスケジューリングプロセスが迅速化
    2. エージェントを異なるシフト間で手動で移動する必要がなくなる
    3. エージェントが繰り返しローテーションするシフトパターンを作成可能(例:朝番、昼番、夜番)
    4. 次のローテーションに移る前に各シフトをスケジュールする週数を定義可能
    5. 新しいスケジュール作成時に、シフトローテーションパターンが自動的に適用される
    6. シフトローテーションとシフトプロファイルの割り当てを一括アップロードおよびダウンロード可能

コンピューティング

  • Amazon EC2 R8g インスタンスが、AWS Graviton4 搭載で一般提供開始
    Amazon EC2 R8g インスタンスの一般提供が発表されました。主な特長は以下の通りです:
    1. AWS Graviton4 プロセッサを搭載し、Graviton3 ベースのインスタンスと比較して最大30%のパフォーマンス向上を実現。
    2. データベース、インメモリキャッシュ、リアルタイムビッグデータ分析などのメモリ集約型ワークロードに最適。
    3. AWS Nitro System 上に構築され、CPU仮想化、ストレージ、ネットワーク機能を専用ハードウェアとソフトウェアにオフロードし、パフォーマンスとセキュリティを向上。
    4. Graviton3 ベースの R7g インスタンスと比較して、最大3倍の vCPU(最大48xlarge)とメモリ(最大1.5TB)を提供。
    5. R7g インスタンスと比較して、Webアプリケーションで最大30%、データベースで40%、大規模Java アプリケーションで45%高速。
    6. 12種類のインスタンスサイズ(ベアメタル2種類を含む)を提供。
    7. 最大50 Gbps の拡張ネットワーク帯域幅と、Amazon EBS への最大40 Gbps の帯域幅を提供。
    8. 24xlarge、48xlarge、ベアメタルサイズで Elastic Fabric Adapter (EFA) ネットワークをサポート。
    9. 12xlarge 以上のインスタンスサイズで Elastic Network Adapter (ENA) Express をサポート。
    これらの機能により、R8g インスタンスはメモリ集約型ワークロードに対して高いパフォーマンスと効率性を提供します。
  • AWS Batch が Amazon EKS 上でマルチノード並列ジョブによるgang-schedulingをサポート
    Amazon Elastic Kubernetes Service (Amazon EKS) 上の AWS Batch でマルチノードパラレル (MNP) ジョブの一般提供を開始しました。
    主な特長:
    1. AWS Batch MNP ジョブを使用して、多層 AI/ML モデルのトレーニングなど、密結合の高性能コンピューティング (HPC) アプリケーションを実行できます。
    2. AWS Batch は、手動介入なしで Amazon EKS クラスタ内のノードの起動、設定、管理を支援します。
    3. RegisterJobsDefinition API または AWS Batch マネジメントコンソールのジョブ定義セクションを使用して MNP ジョブを設定できます。
    4. 複数の Amazon EC2 インスタンスにまたがる AWS Batch on Amazon EKS ワークロードを実行できます。
    5. NVIDIA Collective Communications Library (NCCL)、Gloo、Message Passing Interface (MPI)、Unified Collective Communication (UCC) などの IP ベースのインスタンス間通信フレームワークをサポートします。
    6. PyTorch や Dask などの機械学習および並列コンピューティングライブラリもサポートしています。
    AWS Batch は、開発者、科学者、エンジニアが ML モデルのトレーニング、シミュレーション、分析のための効率的なバッチ処理を任意のスケールで実行することを支援します。

コンテナ

  • Amazon ECS が停止タスクのエラーメッセージを強化し、トラブルシューティングを容易に
    Amazon Elastic Container Services (Amazon ECS) がタスク起動失敗のトラブルシューティングを容易にするため、停止タスクのエラーメッセージを強化しました。
    主な改善点:
    1. 停止タスクのエラーメッセージがより具体的で実用的になりました。
    2. 一般的なタスク起動失敗の原因と対策の推奨事項が含まれるようになりました。
    3. AWS マネジメントコンソールでは、エラーメッセージに関連する Amazon ECS トラブルシューティングドキュメントへの直接リンクが含まれるようになりました。
    4. Amazon ECS のドキュメントには、これらの失敗に対する詳細な根本原因と対策手順が記載されています。
    これらの改善により、ユーザは失敗の原因をより迅速に特定し、解決することができます。
    Amazon ECS は、アプリケーションの起動とスケーリングを容易にするように設計されています。この更新により、タスク起動の問題に対するトラブルシューティングプロセスが大幅に改善されました。
  • Amazon ECS がコンテナ化アプリケーションのソフトウェアバージョン一貫性を強制適用
    Amazon Elastic Container Service (Amazon ECS) がコンテナ化されたアプリケーションのソフトウェアバージョンの一貫性を強制するようになりました。
    主な特長:
    1. アプリケーション内の全てのタスクが同一であることを確保し、全てのコード変更がデプロイメントパイプラインで定義されたセーフガードを通過することを保証します。
    2. コンテナイメージタグを使用してサービスを設定する際に、異なるバージョンが意図せずにデプロイされるのを防ぎます。
    3. Amazon ECS サービスの更新をデプロイする際、コンテナイメージタグをイメージダイジェスト(イメージマニフェストの SHA256 ハッシュ)に解決します。
    4. サービス内の全てのタスクが同一であり、このイメージダイジェストで起動されることを強制します。
    5. タスク定義で 'LATEST' のような可変イメージタグを使用し、デプロイ後にサービスがスケールアウトしても、サービスのデプロイ時に使用された正しいイメージが新しいタスクの起動に使用されます。
    この機能により、長時間実行されるアプリケーション(HTTP ベースのマイクロサービスなど)のバージョン一貫性が向上し、意図しないバージョンの混在を防ぐことができます。
  • Amazon ECR の複製機能が EventBridge をサポート
    Amazon Elastic Container Registry (Amazon ECR) が、ECRのレプリケーション機能を使用してイメージの複製に成功した際に Amazon EventBridge イベントを発行するようになりました。
    主な特長:
    1. ECRのレプリケーション機能により、複数の AWS アカウントとリージョン間でコンテナイメージを簡単にコピー可能
    2. リージョン内プルによりアプリケーションの起動が高速化(プルレイテンシーの削減)
    3. 地理的に分散したイメージにより、バックアップと災害復旧要件を満たすことが可能
    4. 設定されたソースおよび宛先リージョン/アカウント間でイメージレプリケーションが正常に完了すると、自動的にイベントが生成される
    5. 複製されたイメージが宛先レジストリで使用可能になったタイミングを把握し、レプリケーション完了後に自動アクションをトリガー可能
    6. EventBridge コンソールでルールを設定し、イベントがルールに一致した際にトリガーされる自動アクションを含めることが可能
    この機能により、お客さまはレプリケーションの完了を確認し、それに基づいて自動化されたワークフローを構築することができます。

データベース

  • RDS Performance Insights が AWS PrivateLink と IPv6 をサポート
    Amazon RDS (Relational Database Service) の Performance Insights が AWS PrivateLink と IPv6 (Internet Protocol Version 6) をサポートするようになりました。
    主な特長:
    1. Performance Insights の API/CLI にプライベートにアクセスできるようになり、パブリックインターネットを経由する必要がなくなりました。
    2. IPv6 接続と、デュアルスタック構成(IPv4 と IPv6)をサポートします。
    3. AWS PrivateLink により、VPC と AWS サービス間のプライベートで安全かつスケーラブルな接続が可能になります。
    4. SQL テキストなどの機密データがインターネットを経由しないため、HIPAA や PCI などの規制へのコンプライアンスを維持できます。
    5. IPv6 サポートにより、VPC 内の IPv4 アドレス数による制約がなくなり、複雑なアーキテクチャを回避できます。
    Amazon RDS Performance Insights は、データベースのパフォーマンス調整と監視を行う機能で、データベースの負荷を視覚的に評価し、対応が必要な時期と場所を特定できます。
  • Amazon RDS for SQL Server が SQL Server 2019 CU27 をサポート
    Amazon RDS for SQL Server で Microsoft SQL Server の新しいマイナーバージョンが利用可能になりました。このアップデートにはパフォーマンスの向上とセキュリティの修正が含まれています。
    主な特長:
    1. SQL Server 2019 の最新マイナーバージョンが Express、Web、Standard、Enterprise の各エディションでサポートされます。
    2. Amazon RDS マネジメントコンソールまたは AWS CLI を使用して、数クリックでアップグレードが可能です。
    3. 新しいマイナーバージョンには SQL Server 2019 CU27 - 15.0.4375.4 が含まれています。
    Amazon RDS for SQL Server は、クラウド上での SQL Server デプロイメントの設定、運用、スケーリングを簡素化します。お客さまの都合にあわせて、Amazon RDS for SQL Server データベースインスタンスをアップグレードすることをお勧めします。
  • Amazon MemoryDB のベクトル検索の一般提供を発表
    Amazon MemoryDB の新機能として、ベクトル検索が一般提供されました。この機能により、ベクトルの保存、インデックス作成、取得、検索が可能になります。
    Amazon MemoryDB は、AWS 上の一般的なベクトルデータベースの中で最速のベクトル検索パフォーマンスと最高のリコール率を提供します。数百万のベクトルを保存し、99%以上のリコール率で最高レベルのスループットを実現しながら、数ミリ秒のクエリと更新レイテンシーをサポートします。
    Amazon Bedrock や Amazon SageMaker などの AI/ML サービスを使用してベクトル埋め込みを生成し、MemoryDB 内に保存できます。
    この機能を使用することで、最高のスループットと最高のリコール率、最低のレイテンシーを必要とするリアルタイムの機械学習(ML)および生成系AI アプリケーションを開発できます。例えば、銀行は取引量の多い期間中に不正取引を検出するために、この機能を活用できます。

IoT

  • FreeRTOS が新しい長期サポート版をリリース
    AWSは、FreeRTOS Long Term Support (LTS)の第3リリースとなる FreeRTOS 202406 LTS を発表しました。主な特長は以下の通りです:
    1. 2年間のセキュリティアップデートと重要なバグ修正を含む機能の安定性を提供
    2. 最新の FreeRTOS カーネルv11.1を含み、Symmetric Multiprocessing (SMP)と Memory Protection Units (MPU) をサポート
    3. FreeRTOS-Plus-TCP v4.2.1ライブラリや Over-the-Air (OTA) ライブラリなど、最近更新されたライブラリを含み、IPv6や OTA 機能が改善
    4. C Bounded Model Checker (CBMC) によるメモリ安全性の検証、MISRA-C準拠や Coverity による静的解析などのコード品質チェックを実施
    5. 前回の LTS リリースのサポート期間は2024年11月に終了するため、新しい LTS リリースへの移行のための重複期間が提供される
    6. 前の LTS バージョンで期限切れ後も引き続き重要な修正を受け取りたい場合は、FreeRTOS Extended Maintenance Plan の利用を検討可能
    このリリースにより、お客さまは既存の FreeRTOS コードベースを維持し、バージョンアップグレードによる潜在的な混乱を回避できます。

機械学習

  • Q Developer チャットで IDE ワークスペースのコンテキスト認識機能を発表
    Amazon Q Developer チャットに IDE ワークスペースのコンテキスト認識機能が追加されました。
    主な特長:
    1. チャットメッセージに "@workspace" を追加することで、現在 IDE で開いているプロジェクトのコードについて質問できるようになりました。
    2. 開発者は以下のような質問が可能です:
      - "@workspace what does this codebase do?"
      - "how does this @workspace implement authentication and authorization?"
    3. 以前は、IDE 内の Amazon Q Developer チャットは現在開いているコードファイルに関する質問にのみ答えられました。
    4. 新機能では、Q Developer が自動的に全てのコードファイル、設定、プロジェクト構造を取り込みインデックス化します。
    5. これにより、チャットは IDE 内のアプリケーション全体にわたる包括的なコンテキストを得られます。
    6. インデックスはローカルに保存され、"@workspace" を初めて使用したときに作成されます。
    7. 使用するには、Amazon Q Developer IDE 拡張機能を最新バージョンに更新し、IDE で Q チャットを開き、"@workspace" を含む質問をするだけです。
    この新機能により、開発者はプロジェクト全体のコンテキストを考慮した質問ができるようになり、より効率的なコード理解と開発が可能になります。
  • PartyRock の Playlist ページを発表
    PartyRock が Playlist ページの追加を発表しました。主な特長は以下の通りです:
    1. ユーザがキュレーションした PartyRock アプリケーションのコレクションを紹介できます。
    2. PartyRock では、Amazon Bedrock の基盤モデルを使用して、誰でも生成系AI を活用したアプリケーションを構築、使用、共有できます。
    3. 2023年11月26日に発表された Discover ページに加えて、パーソナライズされた Playlist ページにアプリケーションを追加できるようになりました。
    4. 新たに Public モードが追加され、アプリケーションを自動的に Playlist ページに表示させることができます。
    5. Playlist ページは側面のナビゲーションバーからアクセスでき、現在のアプリケーションを確認してプレイリストに追加できます。
    6. 作成したプレイリストは https://partyrock.aws/u/ で利用可能になります。
    7. 'app views' 機能が追加され、他のユーザがアプリケーションを閲覧または使用した回数が表示されます。
    8. 新規 PartyRock ユーザは、クレジットカードや AWS アカウントの登録なしで無料トライアルを利用できます(期間限定)。
    この新機能により、ユーザは自身の PartyRock アプリケーションをより効果的に共有し、他のユーザとの交流を促進することができます。
  • Amazon SageMaker が新しい生成系AI 推論最適化機能を導入
    Amazon SageMaker の新しい推論機能が一般公開されました。主な特長は以下の通りです:
    1. Llama 3、Mistral、Mixtral などの生成系AI モデルに対して、最大約2倍のスループット向上と最大約50%のコスト削減を実現します。
    2. 例えば、Llama 3-70B モデルでは、ml.p5.48xlarge インスタンスで最大約2400トークン/秒を達成できます(以前は最適化なしで約1200トークン/秒)。
    3. 投機的デコーディング、量子化、コンパイルなど、最新のモデル最適化技術を選択して生成系AI モデルに適用できます。
    4. SageMaker が最適化レシピを実行するために必要なハードウェアのプロビジョニング、ディープラーニングフレームワーク、ライブラリの設定を行います。
    5. お客さまは SageMaker が提供する投機的デコーディングソリューションを使用するか、独自のソリューションを持ち込むことができます。
    6. 量子化については、SageMaker が異なるモデルアーキテクチャに対する精度タイプの互換性とサポートを確保します。
    7. コンパイルについては、SageMaker のランタイムインフラストラクチャが最適化されたモデルの効率的な読み込みとキャッシングを行い、オートスケーリング時間を短縮します。
    この新機能により、生成系AI モデルのパフォーマンス向上とコスト最適化が期待できます。
  • Amazon Q が PDF 文書内のスキャンされた PDF と埋め込み画像をサポート
    今回のアップデートにより、Amazon Q Business ユーザはスキャンされた PDF や PDF 文書に埋め込まれた画像内のテキストコンテンツから回答を得られるようになりました。
    Amazon Q Business は、マネージド型の生成系AI 搭載アシスタントで、お客さまの企業データに基づいて質問への回答、要約の提供、コンテンツの生成、タスクの完了を行うことで従業員の生産性を向上させます。
    これまで、スキャンされた PDF や PDF 内の画像から洞察を得るには、光学文字認識 (OCR) を使用してテキストを抽出し、Amazon Q Business に取り込む前処理が必要でした。今回のアップデートにより、お客さまはこれらの文書を直接 Q Business に取り込み、前処理なしで検索や操作を行えるようになりました。
    この機能により、お客さまは Q Business API やWebアプリケーションを使用して独自の生成系AI アシスタントを構築するプロセスを簡素化できます。これにより、請求書や税務諸表などの文書から容易に洞察を得ることが可能になります。
  • Amazon Q Developer のコード推奨をカスタマイズし、IDE 内でチャット応答を受信可能に(プレビュー)
    Amazon Q Developer のカスタマイズされたインラインコード推奨機能が一般公開されました。主な特長は以下の通りです:
    1. プライベートコードベースとの接続:
      - 組織の内部 API、ライブラリ、クラス、メソッド、ベストプラクティスを含めた、より正確な提案が可能になりました。
    2. IDE 内チャット機能(プレビュー):
      - 内部コードベースの構造、特定の関数やライブラリの使用場所と方法、特定の関数、メソッド、API の機能について質問できます。
    3. 開発者の時間節約:
      - 内部 API やライブラリの使用方法を理解するために、以前に書かれたコードや内部ドキュメントを調べる時間を削減できます。
    4. セキュアな設定:
      - AWS マネジメントコンソールでプライベートリポジトリを Amazon Q Developer に接続します。
      - 管理者は推奨事項のカスタマイズに使用するリポジトリを選択し、厳格なアクセス制御を適用できます。
      - カスタマイズの有効化と特定の開発者へのアクセス管理が可能です。
    5. プライバシーとセキュリティ:
      - 各カスタマイズは他のお客さまから分離されています。
      - これらの新機能で構築されたカスタマイズは、Amazon Q Developer の基盤となるモデルのトレーニングには使用されません。
    これらの機能は Amazon Q Developer Pro サブスクリプションの一部として利用可能です。この新機能により、開発者は組織固有のコードベースやプラクティスを活用しながら、より効率的に開発作業を進めることができるようになります。
  • Amazon Q Developer で AWS リソースに関するチャットが一般提供開始
    Amazon Q Developer の新機能として、AWS アカウントリソースに関するチャット機能の一般提供が開始されました。
    主な特長:
    1. 自然言語プロンプトを使用して、AWS アカウント内のリソースをリストアップしたり、特定のリソースの詳細を取得したり、関連リソースについて質問したりできます。
    2. AWS マネジメントコンソールの Amazon Q Developer チャットパネルから、以下のような質問が可能です:
      - "list my S3 buckets"
      - "show my running EC2 instances in us-east-1"
    3. Amazon Q は、リソースの詳細リストとサマリーを返します。
    4. 以下のような複雑な質問も可能です:
      - Amazon CloudWatch アラームが監視している Amazon EC2 インスタンスについて
      - "what related resources does my ec2 instance have?"
    5. Amazon Q Developer は、EC2 インスタンスに関連する以下の情報を自動的に表示します:
      - 接続された Amazon EBS ボリューム
      - 設定された Amazon VPC
      - AWS IAM ロール
    この新機能により、AWS リソースの管理と理解が自然言語インターフェースを通じてより直感的になります。
  • Amazon Q Developer が SageMaker Studio で利用可能に
    Amazon SageMaker が SageMaker Studio に Amazon Q Developer を一般提供として導入しました。主な特長は以下の通りです:
    1. JupyterLab IDE 内での生成系AI アシスタンス:
      - SageMaker Studio のお客さまは、JupyterLab 環境内で Q Developer による支援を受けられるようになりました。
    2. 主な機能:
      - SageMaker 機能に関する専門的なガイダンス
      - コード生成
      - トラブルシューティング
    3. 生産性の向上:
      - オンライン検索やドキュメントレビューの必要性を削減
      - ビジネス価値の創出に集中できる時間の確保
    4. 具体的な使用例:
      - チャット機能を使用して SageMaker 機能の発見と学習
      - ニーズに合わせたコード生成による開発プロセスの迅速化
      - インラインコード提案と会話型アシスタンスによるコードの編集、説明、ドキュメント化
      - エラー発生時のステップバイステップのトラブルシューティングガイダンス
    5. ワークフローの加速:
      - データサイエンティストと ML エンジニアの生産性向上
      - ML モデルのより効率的な提供
      - 機械学習開発プロセスの合理化
    この新機能により、SageMaker Studio ユーザは JupyterLab 環境内で生成系AI の支援を受けながら、より効率的に機械学習モデルの開発を行うことができるようになりました。
  • Amazon Q Business がユーザに合わせたパーソナライズされた回答を提供開始
    Amazon Q が Q Business にパーソナライズ機能を追加しました。主な特長は以下の通りです:
    1. ユーザプロファイルを考慮してより有用な回答を提供することで、従業員の生産性をさらに向上させます。
    2. Q は従業員の場所、部門、役割などの情報を使用して、回答の関連性を向上させます。
    3. Q Business のパーソナライズ機能は自動的に有効化され、追加の設定なしで企業の従業員プロファイルデータを使用してユーザエクスペリエンスを改善します。
    4. Q は、組織が AWS IAM Identity Center に接続したアイデンティティプロバイダーから従業員プロファイル情報を受け取ります。
    5. Amazon Q Business は、従業員が組織の知識や企業システムと対話する方法を革新します。
    6. 複雑な質問に対する包括的な回答を得たり、統一された直感的なWebベースのチャット体験でアクションを実行したりするのに役立ちます。
    7. 企業の既存のコンテンツ、データ、システムを使用して機能します。
    この新機能により、従業員はより関連性の高い情報やサポートを受けられるようになり、業務効率の向上が期待できます。
  • Amazon Q Apps の一般提供開始を発表
    Amazon Q Apps が一般提供を開始しました。これは Amazon Q Business の機能で、2024年4月からパブリックプレビューとして提供されていました。
    Amazon Q Apps を使用すると、組織のユーザは Amazon Q Business との会話から、または自分の言葉でアプリケーションを説明することで、アイデアを素早くアプリケーションに変換できます。ユーザは企業データに基づくアプリケーションを簡単に構築、共有、カスタマイズし、タスクの効率化や生産性の向上を図ることができます。また、管理者が運営するライブラリにアプリケーションを公開し、同僚と共有することも可能です。
    Amazon Q Apps は Amazon Q Business のユーザ権限、アクセス制御、エンタープライズガードレールを継承し、セキュアな共有とデータガバナンスポリシーの遵守を実現します。
    新機能として、API を通じて Amazon Q Apps の機能を既存のツールやアプリケーション環境に統合できるようになりました。アプリケーション作成者は、元のアプリケーション作成プロンプトを確認して新バージョンを改善したり、データソースを選択して出力品質を向上させたりすることができます。
    Amazon Q Business と Amazon Q Apps は、米国東部 (バージニア北部) と米国西部 (オレゴン) の AWS リージョンでご利用いただけます。
  • Amazon Bedrockのナレッジベース が追加のデータソースをサポート(プレビュー)
    Amazon Bedrock のナレッジベースに新機能が追加されました。この機能は、基盤モデル(FM)を社内データソースに接続し、関連性の高い正確な応答を提供する完全マネージド型の Retrieval-Augmented Generation (RAG) 機能です。
    主な新機能は以下の通りです:
    1. Web データソースのサポート:
    公開 Web ページのインデックス作成が可能になりました。
    2. 新しいデータコネクタの追加:
      - Atlassian Confluence
      - Microsoft SharePoint
      - Salesforce
    これらのデータソースに直接接続して RAG アプリケーションを構築できます。
    新機能の利点:
      - データ移動に関連する時間とコストの削減
      - 接続されたデータソースの最新の変更を反映し、ナレッジベースを最新の状態に保持
    これらの新機能により、Amazon Bedrock のナレッジベースはより柔軟で強力なツールとなり、企業の多様なデータソースを活用した RAG アプリケーションの構築が容易になります。
  • Amazon Bedrock のナレッジベースが高度な RAG 機能をサポート
    Amazon Bedrock のナレッジベースに新機能が追加されました。主な更新点は以下の通りです:
    1. 高度なチャンキングオプション:
      - カスタムチャンキング:Lambda 関数を使用して独自のチャンキングコードを作成可能。LangChain や LlamaIndex などのフレームワークのコンポーネントも利用可能。
      - ビルトインチャンキングオプション:セマンティックチャンキングや階層的チャンキングなどが追加。
    2. スマートパーシング:
      - 複雑なデータ(表など)からの情報抽出が可能に。
      - Amazon Bedrock の基盤モデルを使用して、PDF などのファイル形式の表形式コンテンツを解析し、検索精度を向上。
      - パーシングプロンプトをカスタマイズして、任意の形式でデータを抽出可能。
    3. クエリ再構成:
      - クエリを単純なサブクエリに分解し、それぞれに関連する情報を取得して、最終的な包括的な回答を生成。
    これらの新機能により、チャンキング、パーシング、高度なクエリ処理の精度が向上し、エンタープライズユースケースに適した高精度で関連性の高いナレッジリソースの構築が可能になります。
  • Amazon Bedrock のガードレールがハルシネーションを検出し、あらゆる FM を使用するアプリケーションを保護可能に
    Amazon Bedrock の ガードレール に新機能が追加されました。主な更新点は以下の通りです:
    1. コンテキストに基づく根拠チェック:
      - RAG(検索拡張生成)や会話アプリケーションにおけるモデルの回答のハルシネーション(幻覚)を検出できるようになりました。
      - 参照元に基づいて事実に反する回答や、ユーザのクエリに無関係な回答を検出・フィルタリングします。
      - 信頼度のしきい値を設定して、根拠や関連性の低い回答をフィルタリングできます。
    2. 新しい ApplyGuardrail API:
      - カスタムおよびサードパーティの基盤モデル(FM)を含む、あらゆる FM に対してユーザ入力とモデル応答を評価できます。
      - 全ての生成系AI アプリケーションに対して、一元化された安全性とガバナンスを提供します。
    3. 包括的な保護:
      - ガードレール は、主要なクラウドプロバイダーの中で唯一、安全性、プライバシー、真実性の保護を単一のソリューションで提供しています。
    これらの新機能により、Amazon Bedrock の ガードレール はより強力で柔軟な安全対策ツールとなり、企業が信頼性の高い生成系AI アプリケーションを構築するのを支援します。コンテキストに基づく根拠チェックと ApplyGuardrail API の導入により、さまざまな FM を使用するアプリケーションの安全性と信頼性が向上します。
  • Amazon Bedrock で Anthropic の Claude 3 Haiku のファインチューニングが可能に(プレビュー)
    Amazon Bedrock で Anthropic の Claude 3 Haiku モデルのファインチューニングがプレビューで利用可能になりました。Amazon Bedrock は Claude モデルのファインチューニング機能を提供する唯一のフルマネージドサービスです。
    Claude 3 Haiku は Anthropic の最もコンパクトなモデルで、その知能カテゴリにおいて最も手頃で高速なオプションの1つです。タスク固有のトレーニングデータセットを提供することで、Claude 3 Haiku をファインチューニングしてカスタマイズし、モデルの精度、品質、一貫性を向上させ、ビジネスに合わせた生成系AI をさらに調整できます。
    ファインチューニングにより、Claude 3 Haiku は企業やドメインの知識をエンコードし、より一般的なモデルと比較してビジネスにとって重要な分野で優れた性能を発揮します。Amazon Bedrock を使用して、独自のデータで Claude 3 Haiku をカスタマイズし、ドメイン、組織、ユースケースに特化したアプリケーションを構築できます。
    Amazon Bedrock は、ベースとなる基盤モデルの別のコピーを作成し、このプライベートコピーをトレーニングします。これにより、ユーザのみがアクセス可能なカスタマイズされたモデルが作成されます。
    この機能は現在、米国西部(オレゴン)AWS リージョンでプレビューとして利用可能です。
  • Agents for Amazon Bedrock がメモリ保持機能を追加(プレビュー)
    Amazon Bedrock の Agents に新機能を追加しました。主な特長は以下の通りです:
    1. 複数の対話にわたるメモリ保持機能:
      - 開発者は、ユーザのコンテキストと好みに適応する生成系AI アプリケーションを構築できるようになりました。
      - これにより、パーソナライズされた体験の向上と複雑なビジネスプロセスのより効率的な自動化が可能になります。
    2. AI アシスタントの機能強化:
      - 過去の知識を記憶し、時間をかけてユーザとの対話から学習します。
      - 例:ユーザが航空券を予約する場合、アプリケーションは将来の予約のためにユーザの旅行の好みを記憶できます。
    3. 複雑な多段階タスクへの適用:
      - 保険金請求処理などの複雑なタスクで、連続性とコンテキスト保持によりユーザ体験が大幅に向上します。
    この新機能により、Amazon Bedrock の Agents はより高度なパーソナライゼーションと長期的なコンテキスト理解を実現し、より自然で効率的な AI アシスタントの開発が可能になります。
    メモリ保持機能は Claude 3 Sonnet および Haiku モデルが Agents for Amazon Bedrock をサポートしている全ての AWS リージョンで利用可能です。
  • Agents for Amazon Bedrock がコード解釈をサポート(プレビュー)
    Amazon Bedrock の Agents に新しいコード解釈機能を追加しました。主な特長は以下の通りです:
    1. コード解釈機能:
      - Agents が動的にコードスニペットを生成し、安全なサンドボックス環境内で実行できるようになりました。
      - データ分析、データ可視化、最適化問題などの複雑なユースケースに対応可能になりました。
    2. 拡張された機能:
      - 開発者は大規模言語モデル(LLM)の事前定義された機能を超えて、より複雑でデータ駆動型のユースケースに取り組めるようになりました。
      - Agents は以下の操作が可能になりました:
      - コードの生成と実行
      - 多様なデータタイプやフォーマットを持つファイルの処理
      - ユーザ体験を向上させるグラフの生成
    3. 反復的なコード実行:
      - 難しいデータサイエンスの問題に取り組むことができます。
      - より複雑なタスクを調整する能力が向上しました。
    この新機能により、Amazon Bedrock の Agents はより高度なデータ処理と分析が可能になり、複雑な問題解決や意思決定支援などの幅広いアプリケーションに対応できるようになりました。
  • AWS Neuron が Flash Attention カーネルを導入し、高性能と長いシーケンス長を実現
    Neuron 2.19 がリリースされ、フラッシュアテンションカーネルのサポートが導入されました。これにより、大規模なシーケンス長での LLM モデルのトレーニングと推論のパフォーマンスが向上します。
    主な特長:
    1. AWS Neuron は、生成系AI 向けに設計された AWS Inferentia と Trainium ベースのインスタンス用 SDK です。
    2. PyTorch 2.1 と PyTorch 1.13 用の新しい Ubuntu 22 Neuron DLAMI が追加されました。
    3. フラッシュアテンションカーネルのサポートにより、8K 以上の大規模シーケンス長でのトレーニングが可能になりました。
    4. Llama3 モデルのトレーニングと推論をサポートします。
    5. インターリーブパイプラインパラレリズムにより、トレーニングの効率とリソース利用が向上しました。
    6. 推論では、最大 32k のコンテキスト長での LLM 推論が可能になりました。
    7. Mistral-7B-v0.2 モデルの連続バッチ処理のベータサポートが追加されました。
    8. 新しいツールとして、Neuron Node Problem Detector and Recovery plugin in EKS と Neuron Monitor for EKS が導入され、Kubernetes での Neuron メトリクスのモニタリングが強化されました。
    AWS Neuron SDK を使用して、Trn1 および Inf2 インスタンスでモデルのトレーニングとデプロイを行うことができます。これらのインスタンスは、オンデマンド、リザーブド、スポット、または Savings Plan の一部として利用可能です。
  • AWS App Studioを発表(プレビュー)
    自然言語を使用してエンタープライズグレードのアプリケーションを作成する生成系AI を活用したサービス「AWS App Studio」のプレビュー版を発表しました。
    App Studio は、ソフトウェア開発スキルを持たない技術専門家(IT プロジェクトマネージャ、データエンジニア、エンタープライズアーキテクトなど)にアプリケーション開発を可能にします。これにより、運用の専門知識を必要とせずにビジネスアプリケーションを迅速に構築できます。
    App Studio の生成系AI アシスタントにより、アプリケーション作成プロセスが加速します。ビルダーは、作成したいアプリケーションの基本的な説明を入力するだけで、App Studio がアウトラインを生成し、マルチページ UI、データモデル、ビジネスロジックを備えたアプリケーションを構築します。
    ユーザは AWS の組み込みコネクタ( Amazon Aurora 、 Amazon DynamoDB 、 Amazon S3 など)や Salesforce 、さらに API コネクタを使用して数百のサードパーティサービス( HubSpot 、 Twilio 、 Zendesk など)に簡単に接続できます。
    App Studio では、基盤となるコードを考える必要はありません。デプロイ、運用、メンテナンスは全て App Studio が処理します。
    App Studio の構築は無料で、公開されたアプリケーションの使用時間に応じて料金が発生します。他の ローコード オファリングと比較して最大80%のコスト削減が可能です。

マネジメントとガバナンス

  • AWS License Manager が Red Hat Subscription Manager と統合
    AWS License Manager が Red Hat Subscription Manager (RHSM) と統合され、Amazon EC2 上の Red Hat Enterprise Linux (RHEL) の使用に関するより深い洞察を提供するようになりました。
    主な特長:
    1. RHSM からのインスタンスとサブスクリプションデータに License Manager から直接アクセスできます。
    2. AWS 上の RHEL 使用におけるコスト最適化とコンプライアンスの管理が向上します。
    3. カスタム RHEL イメージから起動されたインスタンスに関する情報を表示できるようになりました。
    4. AWS 上の RHEL インスタンスとサブスクリプションの発見を支援します。
    5. AWS と Red Hat の両方から購入したサブスクリプションが割り当てられている二重支払いのケースを特定できます。
    この新機能により、RHEL の使用状況をより詳細に把握し、コストとコンプライアンスの管理を効率化することができます。

ネットワーキングとコンテンツ配信

  • Amazon CloudFront がWebアプリケーション向けのマネージドキャッシュポリシーを発表
    Amazon CloudFrontが、動的に生成されるWebサイトやアプリケーション向けに、2つの新しいマネージドキャッシュポリシーを発表しました:
    1. UseOriginCacheControlHeaders
    2. UseOriginCacheControlHeaders-QueryStrings
    これらの新ポリシーにより、CloudFrontはオリジンから返されるCache-Controlヘッダに基づいてコンテンツをキャッシュし、ヘッダがない場合はキャッシュしません。この機能は以前カスタムポリシーでのみ利用可能でしたが、今回全てのお客さまがマネージドポリシーとして利用できるようになりました。
    従来、お客さまはマネージドキャッシュポリシーとして「CachingOptimized」(常にキャッシュ)と「CachingDisabled」(キャッシュ無効)の2つのオプションしかありませんでしたが、今回の更新により、WordPressなどのCMSや、キャッシュ可能なコンテンツとキャッシュ不可能なコンテンツが混在する動的生成コンテンツを扱うWebサイトに対して、単一のマネージドキャッシュポリシーを使用できるようになりました。
    新しいポリシーは追加コストなしで即時利用可能で、CloudFrontコンソール、SDK、CLIを通じて有効化できます。また、コンソールではオリジンタイプに基づいてキャッシュポリシーの推奨も自動的に提供されます。

セキュリティ、アイデンティティ、コンプライアンス

  • AWS Secrets Manager が Secrets Manager Agent をオープンソースとして公開
    AWS Secrets Manager が Secrets Manager Agent を発表しました。これは言語に依存しないローカル HTTP サービスで、コンピューティング環境にインストールして使用できます。
    主な特長:
    1. Secrets Manager から秘密情報を読み取り、メモリにキャッシュします。
    2. カスタムコードを必要とせず、コンピューティング環境全体で秘密情報の読み取り方法を簡素化および標準化できます。
    3. オープンソースで提供されています。
    4. アプリケーションは Secrets Manager への直接のネットワーク呼び出しの代わりに、ローカル HTTP サービスから秘密情報を取得できます。
    5. カスタマイズ可能な設定オプション:
      - Time to Live
      - キャッシュサイズ
      - 最大接続数
      - HTTP ポート
    6. コンピューティング環境内でエージェントを呼び出す際のセキュリティを確保するため、サーバサイドリクエストフォージェリ(SSRF)に対する組み込みの保護機能を提供します。
    7. GitHub でオープンソースコードが公開されています。
    この新機能により、アプリケーションのニーズにあわせてエージェントを適応させ、秘密情報の管理をより効率的かつ安全に行うことができます。
  • AWS Identity and Access Management が OpenID Connect アイデンティティプロバイダーの管理を簡素化
    今回のアップデートにより、AWS Identity and Access Management (IAM) がお客さまの AWS アカウントにおける OpenID Connect (OIDC) アイデンティティプロバイダー (IdP) の管理を簡素化する改善が発表されました。
    主な改善点は以下の通りです:
    1. 既存の IdP を通じたフェデレーションユーザログインの可用性が向上しました。
    2. 新しい OIDC IdP のプロビジョニングプロセスが合理化されました。
    3. IAM は IdP の SSL/TLS サーバ証明書を固定するルート認証局 (CA) を信頼することで、OIDC IdP との通信を安全に保護するようになりました。これにより、SSL/TLS 証明書のローテーション時に証明書のサムプリントを更新する必要がなくなりました。
    4. 一般的でないルート CA や自己署名 SSL/TLS サーバ証明書を使用しているお客さまの場合、IAM は引き続き IdP 設定で設定された証明書のサムプリントに依存します。
    5. 新規および既存の OIDC IdP に自動的に適用され、お客さま側での対応は不要です。
    6. 新しい OIDC IdP を設定する際、IAM コンソールまたは API/CLI を使用する場合、IdP の SSL/TLS サーバ証明書のサムプリントを提供する必要がなくなりました。IAM が自動的に取得します。
    これらの改善により、OIDC IdP の管理がより簡単で効率的になりました。

ストレージ

  • Amazon S3 Express One Zone が AWS CloudTrail での全イベントのログ記録をサポート
    Amazon S3 Express One Zone が AWS CloudTrail での全データプレーン API アクションのロギングをサポートするようになりました。主な特長は以下の通りです:
    1. S3 Express One Zone への API 呼び出しの詳細(誰が、いつ行ったか)を取得できます。
    2. ガバナンス、コンプライアンス、運用監査のためのデータ可視性が向上します。
    3. PutObject や GetObject などのオブジェクトレベルのアクティビティを AWS CloudTrail でログに記録できるようになりました。
    4. すでにサポートされていた CreateBucket や DeleteBucket などのディレクトリバケットレベルのアクションに加えて、オブジェクトレベルのアクティビティも記録できます。
    5. S3 Express One Zone オブジェクトの作成、読み取り、更新、削除を迅速に特定し、API 呼び出しの発信元を識別できます。
    6. 不正なアクセスを検出した場合、即座にアクセス制限などの対策を講じることができます。
    7. CloudTrail の高度なイベントセレクターを使用して、ログに記録するイベントを細かく制御できます。
    8. CloudTrail と Amazon EventBridge の統合により、イベント駆動型アーキテクチャのルールベースのワークフローを作成できます。
    この機能により、S3 Express One Zone のセキュリティとコンプライアンス管理が強化され、より詳細な監査が可能になります。
  • Amazon FSx for OpenZFS が高可用性のシングル AZ デプロイメントオプションを導入
    Amazon FSx for OpenZFS が、高可用性(HA)シングル AZ デプロイメントをサポートするようになりました。これにより、データ分析、機械学習、半導体チップ設計などのユースケースに対して、高可用性と一貫したサブミリ秒のレイテンシを提供します。
    シングル AZ HA ファイルシステムは、マルチ AZ ファイルシステムと比較して、より低レイテンシで低コストのストレージオプションを提供しながら、同じデータ管理機能と特徴を備えています。
    これまで FSx for OpenZFS は、サブミリ秒の読み書きレイテンシを提供するシングル AZ 非 HA ファイルシステムと、AZ 間でデータを同期的にレプリケートする高可用性と耐久性を備えたマルチ AZ ファイルシステムを提供していました。
    新しいシングル AZ HA ファイルシステムにより、お客さまはマルチ AZ ファイルシステムと比較して低コストで高可用性と一貫したサブミリ秒のレイテンシを実現できるようになりました。これは、データの二次コピーや再生成可能なデータを扱うワークロードに適しています。
  • Amazon FSx for NetApp ONTAP ファイルシステムの次世代版を発表
    Amazon FSx for NetApp ONTAP の次世代ファイルシステムが発表されました。これは、以前の世代のファイルシステムと比較して、より高いスケーラビリティと柔軟性を提供します。
    新しい次世代ファイルシステムは、最大12の高可用性(HA)ペアで作成または拡張でき、合計72 GB/sのスループット(ペアあたり最大6 GBps)まで拡張できます。これにより、最も要求の厳しいワークロードのニーズにあわせてパフォーマンスとストレージをスケーリングする柔軟性が得られます。
    次世代 FSx for ONTAP ファイルシステムでは、単一の HA ペアで最大6 GBpsのスループットを提供できるようになりました。また、最も計算集約型のワークロードを持つお客さまは、複数の HA ペアを持つファイルシステムによって提供される高いスループットを必要とします。
    次世代ファイルシステムでは、HA ペアの追加とスループット容量の調整が可能になり、時間の経過とともにワークロードのパフォーマンスを最適化するための柔軟性が向上しました。
    次世代ファイルシステムでは、単一の HA ペアを持つマルチ AZ ファイルシステムと、最大12の HA ペアを持つシングル AZ ファイルシステムを作成できます。
  • Amazon FSx for NetApp ONTAP がバックアップ復元中のデータ読み取りを可能に
    Amazon FSx for NetApp ONTAP に新機能が追加されました。主な特長は以下の通りです:
    1. バックアップからボリュームを復元中でもデータの読み取りが可能になりました。
    2. この「バックアップ復元中の読み取りアクセス」機能により、読み取り専用ワークロードの復旧時間目標(RTO)を最大17倍改善できます。
    3. メディアストリーミングやコンプライアンス検証など、ビジネス継続性のためにバックアップ復元に依存するワークロードに特に有効です。
    4. バックアップ復元の開始から数分以内にデータへの読み取りアクセスが可能になり、重要なデータをより迅速に取得できます。
    5. データが完全に復元されると、ボリュームは自動的に書き込み可能になります。
    6. プライマリボリュームが使用できなくなった場合、復元中のボリュームから読み取りを提供することで、メディアストリーミングアプリケーションの復旧時間を短縮できます。
    7. コンプライアンスチームは、復元完了を待たずにデータにアクセスできるため、監査をより早く開始できます。
  • Amazon FSx for NetApp ONTAP が NVMe-over-TCP をサポートし、より簡単で低遅延の共有ブロックストレージを実現
    Amazon FSx for NetApp ONTAP が NVMe-over-TCP(NVMe/TCP)ブロックストレージプロトコルのサポートを発表しました。これにより、以下の利点が得られます:
    1. データベースや仮想デスクトップインフラストラクチャ(VDI)などのブロックストレージワークロードを、従来の iSCSI と比較して低レイテンシーで高速化できます。
    2. iSCSI と比べてマルチパス IO(MPIO)構成が簡素化されます。
    3. 従来のイーサネットを使用して TCP 経由でデータを転送する NVMe プロトコルの実装により、低レイテンシーとシンプルなセットアップが可能になります。
    FSx for ONTAP は、データベースや VDI などの共有ブロックストレージに依存するアプリケーションに対して、iSCSI や NVMe/TCP を含むマルチプロトコルアクセスを提供します。
  • AWS Backup のバックアップポリシーが Amazon EBS Snapshots Archive をサポート
    AWS Backup が Amazon EBS Snapshots Archive のバックアップポリシーサポートを発表しました。
    主な特長:
    1. AWS Organizations レベルで、AWS Backup によって作成された Amazon EBS スナップショットを自動的に Amazon EBS Snapshots Archive に移動できます。
    2. Amazon EBS Snapshots Archive は、頻繁な取り出しが不要な、めったにアクセスしないスナップショット用の低コストで長期的なストレージ階層です。
    3. Organizations の管理アカウントを使用して、アカウント全体で Amazon EBS Snapshots Archival ポリシーを設定できます。
    4. AWS Backup ポリシーを使用して、Amazon EBS スナップショットを Amazon EBS Snapshots Archive に移行し、ライフサイクルを管理できます。
    5. 長期的な規制要件のために保持する必要がありますが、数ヵ月に一度しかアクセスしないスナップショットに適しています。
    6. AWS Backup で管理される Amazon EBS スナップショットを、より低コストで完全なスナップショットを保存できる Amazon EBS Snapshots Archive 階層に移行できます。
    この新機能により、お客さまはより柔軟かつコスト効率的に EBS スナップショットを管理し、長期保存のニーズに対応できるようになります。

 

以上です。最後までお読みいただき、ありがとうございました。

関連サービス

Amazon Web Services (AWS)

ソフトバンクはAWS アドバンストティアサービスパートナーです

「はじめてのAWS導入」から大規模なサービス基盤や基幹システムの構築まで、お客さまのご要望にあわせて最適なAWS環境の導入を支援します。

MSPサービス

MSP(Managed Service Provider)サービスは、お客さまのパブリッククラウドの導入から運用までをトータルでご提供するマネージドサービスです。

  • AWS License Manager が Red Hat Subscription Manager と統合
    AWS License Manager が Red Hat Subscription Manager (RHSM) と統合され、Amazon EC2 上の Red Hat Enterprise Linux (RHEL) の使用に関するより深い洞察を提供するようになりました。
    主な特長:
    1. RHSM からのインスタンスとサブスクリプションデータに License Manager から直接アクセスできます。
    2. AWS 上の RHEL 使用におけるコスト最適化とコンプライアンスの管理が向上します。
    3. カスタム RHEL イメージから起動されたインスタンスに関する情報を表示できるようになりました。
    4. AWS 上の RHEL インスタンスとサブスクリプションの発見を支援します。
    5. AWS と Red Hat の両方から購入したサブスクリプションが割り当てられている二重支払いのケースを特定できます。
    この新機能により、RHEL の使用状況をより詳細に把握し、コストとコンプライアンスの管理を効率化することができます。

おすすめの記事

条件に該当するページがございません