フォーム読み込み中
2025年4月11日掲載
皆さま、こんにちは。
Weekly AWSでは、毎週 AWSプロダクトのアップデート情報をお届けしています。
それでは、今週 (4/7~4/10) の主な AWS アップデート情報をお送りします。
なお、都合により来週月曜日の配信はお休みさせていただきます。
Amazon Bedrock Guardrails が生成系AI アプリケーションを安全に構築するための新機能を発表
Amazon Bedrock Guardrails に、大規模な生成系AI アプリケーションを安全に構築するための新機能が追加されました。これらの新機能は、Bedrock Guardrails が提供する設定可能なセーフガードを使用する際に、より高い柔軟性、きめ細やかな制御、使いやすさを提供し、ユースケースや責任ある AI ポリシーに沿ったものとなっています。
Bedrock Guardrails は、設定したポリシーから予想される結果のプレビューを提供する検出モードを導入しました。これにより、セーフガードを展開する前にその有効性を評価できます。異なるポリシーの組み合わせや強度で迅速な反復が可能になり、展開前にガードレールを微調整できます。
ガードレールは、入力プロンプト、モデルの応答、またはその両方にポリシーを適用するオプションを提供し、設定の柔軟性が向上しました。これは、以前のデフォルト設定である入力と出力の両方に自動的にポリシーが適用されていた状態から大幅に改善されています。
Bedrock Guardrails は、個人を特定できる情報 (PII) を検出する機密情報フィルターを提供します。これには2つのモードがあります:機密情報を含むリクエストを完全にブロックする「ブロック」モードと、機密情報を編集して識別子タグに置き換える「マスク」モードです。これらのモードは入力プロンプトとモデルの応答の両方に使用でき、大規模な生成系AI アプリケーションを安全に構築するための柔軟性と使いやすさを提供します。
Amazon EventBridge のアーカイブとリプレイ機能がカスタマーマネージド KMS キーをサポート
Amazon EventBridge のアーカイブとリプレイ機能が、アーカイブされたイベントの暗号化に AWS Key Management Service (KMS) のカスタマーマネージドキーをサポートするようになりました。これにより、シンプルで自動化されたデータ保護のためのAWS所有のデフォルトキーと、組織固有のセキュリティとガバナンス要件を満たすためのカスタマーマネージドキーのどちらかを選択できるようになり、暗号化オプションが拡張されました。
Amazon EventBridge イベントバスは、アプリケーション、SaaSアプリケーション、AWSサービス間でイベントを受信してルーティングします。アーカイブとリプレイ機能は、イベントバスからのイベントを保存し、後でリプレイすることを可能にし、より堅ろうなイベント駆動型アプリケーションの構築を支援します。カスタムフィルターを使用してイベントをアーカイブし、柔軟な保持期間を設定し、選択した時間範囲内で元のイベントバス上の特定のルールにイベントをリプレイできます。
カスタマーマネージドKMSキーを使用することで、アーカイブされたイベントの暗号化に関する組織のコンプライアンスとガバナンス要件を満たし、AWS CloudTrailを使用して暗号化キーの使用を監査および追跡できます。
Amazon Connect がコンタクトフローで音声と言語を動的に設定する機能を提供開始
Amazon Connect に、音声ボットやインタラクティブ音声応答 (IVR) で使用するテキスト読み上げ (TTS) の音声、言語、話し方のスタイルを動的に設定する機能が追加されました。この新機能により、エンドカスタマーごとにパーソナライズされたエクスペリエンスを提供できます。例えば、お客さまプロフィールに設定された主要言語に基づいて、希望の音声を動的に設定できます。
これらの新機能は、Amazon Connect フローの「Set Voice」ブロックで設定可能で、ドラッグアンドドロップのフローデザイナーまたはパブリック API で構成できます。
AWS End User Messaging が IPv6 をサポート
AWS End User Messaging で、新規および既存のサービスエンドポイントに対してインターネットプロトコルバージョン6(IPv6)アドレスの使用が可能になりました。IPv6に移行するお客さまは、IPv4とIPv6の両方をサポートするネットワーク上でAWS End User Messagingエンドポイントを実行することで、ネットワークスタックを簡素化できます。
インターネットの継続的な成長、特にモバイルアプリケーション、接続デバイス、IoTの分野で、業界全体がIPv6への移行を促進しています。IPv6は利用可能なアドレス数を大幅に増加させるため、お客さまはVPC内でオーバーラップするアドレス空間を管理する必要がなくなります。
お客さまは、AWS CLIを使用してAWS End MessagingエンドポイントをIPv6に移行することで、アプリケーションを新しいインターネットプロトコルバージョンに標準化できます。
Cost Optimization Hub が DynamoDB と MemoryDB のリザーブドキャパシティ推奨をサポート
Cost Optimization Hub が DynamoDB と MemoryDB のリザベーション推奨をサポートするようになりました。両サービスの推奨事項をフィルターリングおよび集計できるため、DynamoDB と MemoryDB の最大のコスト削減機会を特定しやすくなります。
このアップデートにより、組織のメンバーアカウントや AWS リージョン全体の DynamoDB と MemoryDB のリザベーション推奨を、単一のダッシュボードで表示、統合、優先順位付けできるようになりました。Cost Optimization Hub の包括的なビューにより、これらの推奨事項を総合的な潜在的削減額の一部として確認でき、他のコスト削減機会と比較して優先順位を付けることができます。
Amazon EC2 が新しい I7ie ベアメタルインスタンスを2種類発表、東京など6つのリージョンで利用可能に
AWS が新しい EC2 I7ie ベアメタルインスタンスを2種類発表しました。これらのインスタンスは、米国東部(バージニア北部、オハイオ)、米国西部(オレゴン)、欧州(フランクフルト、ロンドン)、アジア太平洋(東京)リージョンで利用可能です。
I7ie インスタンスの特長:
- 第5世代 Intel Xeon スケーラブルプロセッサを搭載(3.2GHz オールコアターボ周波数)
- I3en インスタンスと比較して、40% 優れたコンピューティング性能と 20% 優れた価格性能比
- 最大 120TB のローカル NVMe ストレージ密度(クラウドで最高)
- 第3世代 AWS Nitro SSD による、I3en インスタンスと比較して:
- 65% 優れたリアルタイムストレージ性能
- 最大 50% 低いストレージ I/O レイテンシ
- 65% 低いストレージ I/O レイテンシの変動
EC2 ベアメタルインスタンスは、プロセッサとメモリリソースへの直接アクセスを提供し、特殊なワークロードや仮想環境と互換性のないレガシーワークロード、ライセンス制限のあるビジネスクリティカルなアプリケーションの実行に適しています。
Intel の3つのアクセラレータ技術を搭載:
- Intel Data Streaming Accelerator (DSA)
- Intel In-Memory Analytics Accelerator (IAA)
- Intel QuickAssist Technology (QAT)
I7ie インスタンスは metal-24xl と metal-48xl サイズを提供し、それぞれ 96 vCPU と 192 vCPU を備えています。最大 100Gbps のネットワーク帯域幅と、Amazon Elastic Block Store (EBS) 用に 60Gbps の帯域幅を提供します。
Amazon EC2 C6in インスタンスが大阪リージョンで利用可能に
Amazon EC2 の C6in インスタンスが、アジアパシフィック (大阪) リージョンで利用可能になりました。これらの第6世代ネットワーク最適化インスタンスは、第3世代 Intel Xeon スケーラブルプロセッサーを搭載し、AWS Nitro System 上に構築されています。最大200Gbpsのネットワーク帯域幅を提供し、第5世代の同等インスタンスと比較して2倍のネットワーク帯域幅を実現します。
C6in インスタンスは、以下のようなアプリケーションのパフォーマンスを向上させるために使用できます:
- ネットワーク仮想アプライアンス(ファイアウォール、仮想ルーター、ロードバランサー)
- 通信事業者の5G User Plane Function (UPF)
- データ分析
- ハイパフォーマンスコンピューティング (HPC)
- CPU ベースの AI/ML ワークロード
C6in インスタンスは、ベアメタルサイズを含む最大128 vCPU まで、10種類のサイズで提供されます。これらのインスタンスは、最大100Gbpsの Amazon EBS 帯域幅と最大400K IOPS を提供します。また、32xlarge とメタルサイズで Elastic Fabric Adapter (EFA) ネットワーキングをサポートしています。
AWS Compute Optimizer が 57 種類の新しい Amazon EC2 インスタンスタイプをサポート
AWS Compute Optimizer が、57 種類の Amazon Elastic Compute Cloud (Amazon EC2) インスタンスタイプを新たにサポートしました。新しくサポートされたインスタンスタイプには、最新世代の高速コンピューティングインスタンス (P5e、P5en、G6e)、ストレージ最適化インスタンス (I7ie、I8g)、コンピューティング最適化インスタンス (M8g)、高メモリインスタンス (U7i)、および C7i-flex と M7i-flex の新しいインスタンスサイズが含まれます。
これにより、AWS Compute Optimizer は、より幅広い EC2 インスタンスタイプに対してコストとパフォーマンスの最適化の機会を特定するためのレコメンデーションを提供し、ワークロードのパフォーマンス向上とコスト削減を支援します。
この新機能は、AWS Compute Optimizer が利用可能な全ての AWS リージョンで利用できます。
Aurora PostgreSQL が pgvector 0.8.0 をサポート
Amazon Aurora PostgreSQL 互換エディションが、ベクトル埋め込みをデータベースに格納するためのオープンソース拡張機能である pgvector 0.8.0 をサポートしました。pgvector は、生成系 AI の意味検索や検索拡張生成 (RAG) アプリケーションで Aurora を使用できるようにするベクトル類似性検索機能を提供します。
pgvector 0.8.0 の主な改善点は以下の通りです:
1. フィルターが存在する場合の PostgreSQL クエリプランナーのインデックス選択が改善され、クエリパフォーマンスと検索結果の品質が向上
2. WHERE 句や結合を使用したデータフィルターリングが改善され、クエリパフォーマンスと使いやすさが向上
3. 反復的なインデックススキャンにより「過剰フィルターリング」を防ぎ、クエリ条件を満たす十分な結果を生成
4. HNSW インデックスの検索と構築のパフォーマンスが向上
pgvector 0.8.0 は、PostgreSQL 16.8、15.12、14.17、13.20 以降を実行している Amazon Aurora クラスタで利用可能です。DB クラスタを変更することでマイナーバージョンアップグレードを開始できます。
Amazon RDS for SQL Server が SQL Server 2019 と 2022 の新しいマイナーバージョンをサポート
Amazon Relational Database Service (Amazon RDS) for SQL Server が、SQL Server 2019 (CU32 - 15.0.4430.1) と SQL Server 2022 (CU18 - 16.0.4185.3) の新しいマイナーバージョンをサポートするようになりました。これらのマイナーバージョンには、パフォーマンスの改善とバグ修正が含まれており、SQL Server Express、Web、Standard、Enterprise エディションで利用可能です。
パフォーマンスの改善とバグ修正の恩恵を受けるため、最新のマイナーバージョンへのアップグレードをおすすめします。Amazon RDS マネジメントコンソールで数回クリックするか、AWS SDK または CLI を使用してアップグレードできます。
Amazon RDS for Oracle が M6id および R6id データベースインスタンスをサポート
Amazon Relational Database Service (Amazon RDS) for Oracle が R6id および M6id インスタンスをサポートするようになりました。これらのインスタンスは最大 7.6 TB の NVMe ベースのローカルストレージを提供し、インスタンスのメモリ容量を超える大量の中間データへのアクセスを必要とするデータベースワークロードに適しています。
お客さまは Oracle データベースを設定して、一時表領域と Database Smart Flash Cache にローカルストレージを使用できます。ソート、ハッシュ結合、集計などの操作では、メモリに収まらない大量の中間データが生成され、一時表領域に格納されます。R6id と M6id を使用することで、お客さまは一時表領域をインスタンスに接続された Amazon EBS ボリュームではなくローカルストレージに配置でき、レイテンシーの削減、スループットの向上、およびプロビジョンド IOPS の低減が可能になります。
Oracle Enterprise Edition ライセンスを持つお客さまは、Database Smart Flash Cache をローカルストレージを使用するように設定できます。設定すると、Smart Flash Cache はローカルストレージを使用して、メモリに収まらない頻繁にアクセスされるデータを保持し、データベースの読み取りパフォーマンスを向上させます。
新しいインスタンスは、Amazon RDS 管理コンソールまたは AWS CLI を使用して起動できます。
Amazon ElastiCache for Memcached が水平方向の自動スケーリングを発表
Amazon ElastiCache for Memcached が水平方向の自動スケーリングをサポートし、手動介入なしで自己設計された Memcached キャッシュのキャパシティを自動調整できるようになりました。
ElastiCache for Memcached は、AWS Application Auto Scaling を活用してスケーリングプロセスを管理し、Amazon CloudWatch メトリクスを使用してスケールインまたはスケールアウトのタイミングを判断します。これにより、Memcached キャッシュは安定した予測可能なパフォーマンスを最低コストで維持できます。
ElastiCache for Memcached は、ターゲット追跡とスケジュールされた自動スケーリングポリシーをサポートしています。ターゲット追跡では、目標メトリクスを定義し、リソース使用率のリアルタイムな変化に応じてリソースキャパシティを調整します。例えば、メモリ使用率が上昇すると、ElastiCache for Memcached はキャッシュにノードを追加してメモリ容量を増やし、使用率を目標レベルまで下げます。
逆に、メモリ使用率が目標量を下回ると、ElastiCache for Memcached はキャッシュからノードを削除して過剰プロビジョニングを減らし、コストを削減します。スケジュールされたスケーリングでは、予測可能なワークロードキャパシティの変更に対応するために、特定の日時にキャッシュをスケーリングするよう設定できます。
AWS Management Console、Software Development Kit (SDK)、または Command Line Interface (CLI) を使用して開始できます。
Amazon ElastiCache for Memcached が垂直スケーリングを発表
Amazon ElastiCache で、自己設計の Memcached キャッシュに対する垂直スケーリングが可能になりました。Amazon ElastiCache は、99.99% の可用性で最新のアプリケーションにリアルタイムかつコスト最適化されたパフォーマンスを提供する、完全マネージド型の Valkey、Memcached、Redis OSS 互換サービスです。
この機能により、ElastiCache for Memcached クラスタのコンピューティングリソースとメモリリソースを動的に調整できるようになり、柔軟性とスケーラビリティが向上しました。多くのお客さまが ElastiCache を使用してデータベースとアプリケーションのパフォーマンスを向上させ、コストを最適化しています。
ElastiCache for Memcached の垂直スケーリングにより、クラスタアーキテクチャーを中断することなく、アプリケーションの変化する要求に合わせて Memcached インスタンスをシームレスにスケールアップまたはダウンできます。トラフィックが多い期間にはスケールアップしてパフォーマンスを向上させ、キャッシュ容量を増やすことができます。また、需要が低い時にはスケールダウンしてコストを最適化できます。これにより、キャッシングインフラストラクチャーをアプリケーションのニーズに合わせて調整し、コスト効率を高め、リソース利用率を改善できます。
Amazon Aurora が PostgreSQL 16.8、15.12、14.17、13.20 をサポート
Amazon Aurora PostgreSQL 互換エディションが PostgreSQL バージョン 16.8、15.12、14.17、13.20 をサポートしました。このリリースは、PostgreSQL コミュニティーが 2025 年 2 月 20 日にリリースしたバージョンをサポートしており、2025 年 2 月 13 日の以前のリリースに置き換わります。
これらのリリースには、PostgreSQL コミュニティーによる製品の改善とバグ修正が含まれています。さらに、Aurora 固有のセキュリティと機能の改善も含まれています。例えば、Aurora I/O 最適化クラスタにおける最適化読み取り対応の一時オブジェクト用の割り当てスペースの動的リサイズや、Babelfish の新機能などが挙げられます。
これらのリリースは、中国リージョンを除く全ての商用 AWS リージョンと AWS GovCloud (US) リージョンで利用可能です。DB クラスタを変更することで、マイナーバージョンのアップグレードを開始できます。
Amazon Aurora は、MySQL および PostgreSQL との完全な互換性を持ちながら、グローバルスケールで比類のない高性能と高可用性を実現するように設計されています。組み込みのセキュリティ、継続的バックアップ、サーバーレスコンピューティング、最大 15 のリードレプリカ、自動化されたマルチリージョンレプリケーション、他の AWS サービスとの統合を提供します。
AWS SAM がプライベート REST API 向けの Amazon API Gateway カスタムドメイン名をサポート
AWS Serverless Application Model (AWS SAM) が、Amazon API Gateway のプライベート REST API 向けカスタムドメイン名機能をサポートするようになりました。SAM を使用してサーバーレスアプリケーションを構築する開発者は、プライベート API のカスタムドメイン名を SAM テンプレートに直接組み込むことができるようになり、他のツールを使用して別途設定する必要がなくなりました。
API Gateway では、プライベート REST API に private.example.com のようなカスタムドメイン名を作成でき、API 呼び出しもとにシンプルで直感的な URL を提供できます。プライベートカスタムドメイン名を使用することで、複雑さを軽減し、TLS 暗号化によるセキュリティ対策を構成し、ドメイン名に関連付けられた TLS 証明書のライフサイクルを管理できます。
この機能を利用するには、SAM CLI を最新バージョンに更新し、SAM テンプレートを変更して EndpointConfiguration を PRIVATE に設定し、AWS::Serverless::Api リソースの Domain プロパティの Policy フィールドにポリシードキュメントを指定します。SAM は自動的に DomainNameV2 および BasePathMappingV2 リソースを AWS::Serverless::Api の下に生成します。
AWS CodeBuild の Lambda Compute イメージが Node 22、Python 3.13、Go 1.24 をサポート
AWS CodeBuild で Lambda Compute において Node 22、Python 3.13、Go 1.24、Ruby 3.4 がサポートされるようになりました。これらの新しいランタイムバージョンは x86_64 と aarch64 の両アーキテクチャーで利用可能です。AWS CodeBuild は、ソースコードのコンパイル、テストの実行、デプロイ可能なソフトウェアパッケージの生成を行う、フルマネージドの継続的インテグレーションサービスです。
AWS CodeBuild が拡張デバッグ機能を提供開始
AWS CodeBuild に、セキュアで分離されたサンドボックス環境を通じた拡張デバッグ機能が追加されました。SSH クライアントや IDE からサンドボックス環境に接続し、ビルドやテスト実行を対話的にトラブルシュートできるようになりました。
この拡張デバッグ機能により、buildspec 設定に変更を加える前に、リアルタイムで問題を調査し、修正を検証できます。サンドボックス環境は、デバッグセッション中に永続的なファイルシステムを維持し、ビルド環境と同様にソースプロバイダーや AWS サービスとのネーティブな統合を提供します。
AWS CodeBuild は、ソースコードのコンパイル、テストの実行、デプロイ可能なソフトウェアパッケージの生成を行う、フルマネージドの継続的インテグレーションサービスです。
PartyRock が Amazon Nova Canvas を利用した画像プレイグラウンドを導入
PartyRock に、Amazon Nova Canvas 基盤モデルを使用してアイデアをカスタマイズ可能な画像に変換する画像プレイグラウンドが追加されました。「Images」セクションから直接アクセスでき、直感的なインターフェースと包括的なカスタマイズオプションを備えています。
この新機能は、PartyRock の既存の画像生成機能を強化します。以前はアプリケーション内のウィジェットを使用して画像を生成できましたが、専用の画像プレイグラウンドでも画像を作成できるようになりました。プレイグラウンドでは、向き(横長、縦長、正方形)、解像度、色の指定などの設定オプションが提供されています。
画像プレイグラウンドには、開始時に役立つプリセットのプロンプトが用意されており、生成後にはさらに画像を洗練しカスタマイズするためのプロンプト候補が提示されます。
Meta の Llama 4 が Amazon SageMaker JumpStart で利用可能に
新しい Llama 4 シリーズの最初のモデルである Llama 4 Scout 17B と Llama 4 Maverick 17B が AWS で利用可能になりました。Amazon SageMaker JumpStart で Llama 4 モデルにアクセスできます。
これらの高度なマルチモーダルモデルにより、複数のメディアタイプに対応するよりカスタマイズされたアプリケーションを構築できます。Llama 4 は Llama 3 と比較して、パフォーマンスが向上し、コストが低下し、グローバルアプリケーション向けに言語サポートが拡張されています。
Mixture-of-Experts (MoE) アーキテクチャーを採用し、テキストと画像入力の効率的なマルチモーダル処理、計算効率の向上、AI 安全性対策の強化を実現しています。
Meta によると、小規模な Llama 4 Scout 17B モデルは、同クラスで世界最高のマルチモーダルモデルであり、Meta の Llama 3 モデルよりも強力です。Scout は 170 億のアクティブパラメーター、16 のエキスパート、1090 億の総パラメーターを持つ汎用モデルで、同クラスで最先端のパフォーマンスを提供します。コンテキスト長を Llama 3 の 128K から業界最高の 1000 万トークンに大幅に増加させました。
Llama 4 Maverick 17B は、量子化版 (FP8) と非量子化版 (BF16) があり、128 のエキスパート、4000 億の総パラメーター、100 万のコンテキスト長を特長とする汎用モデルです。12 言語にわたる画像とテキストの理解に優れており、多用途のアシスタントやチャットアプリケーションに適しています。
Meta の Llama 4 モデルは、米国東部 (バージニア北部) AWS リージョンの Amazon SageMaker JumpStart で利用可能です。これらのモデルは Amazon SageMaker Studio でアクセスできます。
Amazon SageMaker Studio がアプリケーションのリカバリーモードをサポート
Amazon SageMaker Studio にリカバリーモードが追加されました。これにより、設定の問題で通常の起動ができない場合でも、JupyterLab や Code Editor アプリケーションへのアクセスを回復できるようになりました。
Conda の設定の破損や、ストレージ容量不足などの問題でアプリケーションの起動に失敗した場合、ユーザーは Studio UI または AWS CLI を使用してリカバリーモードでアプリケーションを起動できます。設定の問題が発生すると、推奨される解決策を含む警告バナーが表示され、リカバリーモードでスペースを実行するオプションが提供されます。
このシンプルな環境では、ターミナルやファイルエクスプローラーなどの重要な機能にアクセスでき、管理者の介入なしに設定の問題を診断して修正することができます。この機能により、ユーザーは重要なセルフサービスメカニズムを利用でき、ワークスペースのダウンタイムを最小限に抑えることができます。
Amazon SageMaker Catalog が SageMaker Unified Studio で精密な技術識別子検索を追加
Amazon SageMaker Catalog に、技術的な識別子(カラム名やテーブル名など)に対する完全一致および部分一致機能を備えた強化された検索機能が追加されました。
この機能により、ユーザーは二重引用符(" ")などの修飾子で用語を囲むことで、正確な検索を実行できます。これにより、正確または部分的な技術名を持つアセットをすばやく見付けることができます。例えば、アナリストは特定のカラムをより速く見付けることができ、データ管理者は "audit_" のような命名パターンを使用してアセットを検証でき、エンジニアは "temp_" のようなプレフィックスを持つ一時テーブルを識別できます。
この機能強化は、複雑な命名規則を持つ大規模なデータカタログを管理する組織向けに設計されています。例えば、"customer_id" を検索すると完全一致するアセットのみが返され、"sales_" のようなクエリでは sales_summary や sales_data_2024 などのアセットが返されます。
これらの機能により、ユーザーは技術的なアセットをすばやく見つけ、エラーを減らしてデータガバナンスを改善し、コラボレーションを強化することができます。
Amazon Q Developer が IDE と CLI で多言語サポートを拡張
Amazon Q Developer は、統合開発環境 (IDE) と Q Developer CLI の多言語サポートを拡張しました。サポートされる言語には、中国語、フランス語、ドイツ語、イタリア語、日本語、スペイン語、韓国語、ヒンディー語、ポルトガル語などが含まれています。
使用するには、希望の言語で Q Developer との会話を開始するだけです。Q Developer は自動的に言語を検出し、適切な言語で回答、コード提案、レスポンスを提供します。これにより、グローバルチームの開発がより効率的になります。
この機能は、Amazon Q Developer が利用可能な全ての AWS リージョンで利用できます。
Amazon Nova Reel 1.1 が発表、最大2分間のマルチショット動画生成が可能に
Amazon Nova Reel 1.1 が発表されました。この新バージョンでは、最大2分間のマルチショット動画の生成と、ショット間のスタイル一貫性が可能になりました。また、6秒間の単一ショット動画生成における品質と遅延の改善も行われています。
Amazon Nova Reel 1.1 のマルチショット動画機能には、自動モードと手動モードの2つのモードがあります:
1. 自動モード:単一のプロンプトと合計動画時間(最大2分)を指定することで、複数の6秒動画を生成できます。
2. 手動モード:各6秒ショットに対してテキストプロンプトとオプションの画像を入力できる、きめ細やかな制御が可能です。
ユーザーは、個別に保存された6秒ショットか、S3ロケーションに保存された単一の結合動画のいずれかを受け取ることができます。
Amazon Nova Canvas がファインチューニングをサポート
Amazon Nova Canvas が Amazon Bedrock を通じたファインチューニングをサポートするようになりました。これにより、お客さまは独自のデータセットやブランド特性に合わせてモデルを適応させることができます。カスタムモデルのファインチューニングにより、お客さまは独自のデータでモデルを訓練し、特定の要件やスタイルガイドラインに沿った完全にカスタマイズされた画像を生成できます。ファインチューニングされたモデルは、一貫したパフォーマンスを実現するためにプロビジョニングされたスループットでテストおよびデプロイできます。
テキストから画像を生成するモデルは、さまざまな業界でビジネスが視覚的コンテンツを作成・編集する方法を変革しています。建築家が間取り図を視覚化したり、ファッションデザイナーが新しいコンセプトを反復したりする際に、これらのモデルは簡単なテキスト説明を通じてアイデアを迅速に視覚化することで、イノベーションを加速させます。この技術は、製造、小売、ゲーム、広告などの分野でクリエーティブなワークフローを効率化し、インタラクティブな視覚AIを通じてパーソナライズされたお客さま体験を可能にします。
Amazon Lex が会話中のインテント切り替えを制御する機能を追加
Amazon Lex で、リクエスト属性を使用してスロット収集中の自動インテント切り替えを無効にできるようになりました。この新機能により、ユーザーから必要な情報を収集する際に、意図しないインテント間の切り替えを防ぐことで、会話フローをより細かく制御できます。
この機能は、現在のインタラクションを完了させることが重要な複雑な会話フローで特に有用です。特定の属性を設定することで、ユーザーの発言が他のインテントにより高い信頼度でマッチしても、ボットが現在のインテントに必要な全てのスロットや確認の収集に集中し続けることができます。
これにより、特に多段階のフォーム入力や順序付けられた情報収集などのシナリオで、より予測可能で制御された会話体験を作成できます。
この機能は、Amazon Lex がサポートする全ての言語で利用可能です。
Amazon Bedrock のナレッジベースが Aurora PostgreSQL と MongoDB Atlas のベクトルストアに対するハイブリッド検索をサポート
Amazon Bedrock Knowledge Bases が、Amazon Aurora PostgreSQL と MongoDB Atlas ベクトルストアを使用して作成されたナレッジベースに対するハイブリッド検索のサポートを拡張しました。以前は Opensearch Serverless と Opensearch Managed Clusters でのみ利用可能だったこの機能により、検索結果の関連性が向上します。
Retrieval Augmented Generation (RAG) アプリケーションは、ベクトルに基づくセマンティック検索を使用して非構造化テキストを検索します。これらのベクトルは基盤モデルを使用して作成され、人間のような質問に答えるためにデータ内の文脈や言語的意味を捉えます。
ハイブリッド検索は、セマンティック検索と全文検索の手法を組み合わせ、二重のクエリを実行して結果を統合します。この方法により、セマンティック検索から概念的に一致するドキュメントや、全文検索で見つかった特定のキーワードを含むドキュメントを取得することで、結果の関連性が向上します。
ハイブリッド検索は、Knowledge Base API または Bedrock コンソールを通じて有効にできます。コンソールでは、Knowledge Bases 内で優先検索オプションとしてハイブリッド検索を選択するか、セマンティック検索のみを使用するデフォルトの検索オプションを選択できます。
Amazon Bedrock にリアルタイム音声会話を実現する新しい音声変換モデル Amazon Nova Sonic を発表
Amazon が新しい基盤モデル「Amazon Nova Sonic」を発表しました。このモデルは音声理解と生成を単一のモデルに統合し、AI アプリケーションで人間のような音声会話を可能にします。
Amazon Nova Sonic の特長:
1. Amazon Bedrock 上でリアルタイムの会話型 AI アプリケーションを構築可能
2. 業界をリードする価格性能と低レイテンシーを実現
3. さまざまな話し方のスタイルを理解し、表現豊かな音声を生成
4. 男性的および女性的な声、アメリカ英語やイギリス英語のアクセントに対応
5. 入力された音声の文脈や内容に合わせて、生成される音声応答のイントネーション、韻律、スタイルを適応
6. 関数呼び出しと Retrieval-Augmented Generation (RAG) を使用した企業データの知識基盤化をサポート
7. 責任ある AI 開発を念頭に置き、コンテンツモデレーションや電子透かしなどの保護機能を内蔵
AWS は、Amazon Bedrock に新しい双方向ストリーミング API も導入し、人間のユーザーと AI モデル間の低レイテンシーな双方向通信を実現します。
Amazon Nova Sonic は、カスタマーサービスコールの自動化、アウトバウンドマーケティング、音声対応の個人アシスタントやエージェント、インタラクティブな教育や言語学習など、幅広いアプリケーションに対応しています。
Amazon Bedrock がプロンプトキャッシングを一般提供開始
Amazon Bedrock でプロンプトキャッシングが一般提供されました。この新機能により、頻繁に使用されるプロンプトを複数の API コール間でキャッシュすることで、コストを最大 90%、レイテンシーを最大 85% 削減できます。
プロンプトキャッシングは、繰り返し入力される内容をキャッシュし、長いシステムプロンプトや一般的な例など、モデルの応答を導くコンテキストの再処理を回避します。これにより、入力処理に必要な計算リソースが削減され、リクエスト処理の高速化とコスト削減が実現します。
Amazon Bedrock は、単一の API を通じて主要 AI 企業の高性能な基盤モデルを提供する完全マネージドサービスです。セキュリティ、プライバシー、責任ある AI 機能が組み込まれており、さまざまな業界や用途に合わせたアプリケーションの構築を支援します。
プロンプトキャッシングは現在、Anthropic の Claude 3.5 Haiku、Claude 3.7 Sonnet、Nova Micro、Nova Lite、Nova Pro モデルで利用可能です。プレビュー期間中に Claude 3.5 Sonnet v2 へのアクセスを許可されたお客さまは引き続きアクセスできますが、新規のお客さまへの提供は行われません。
Amazon Bedrock が Mistral AI のマルチモーダルモデル Pixtral Large 25.02 を提供開始
Amazon Bedrock で Pixtral Large 25.02 が利用可能になりました。これは 124B パラメーターのマルチモーダルモデルで、最先端の画像理解と強力なテキスト処理を組み合わせています。AWS は Pixtral Large 25.02 を完全マネージド型のサーバーレスモデルとして提供する初のクラウドプロバイダーとなります。
このモデルは、文書分析、チャート解釈、自然画像理解タスクにおいて最先端の性能を発揮し、Mistral Large 2 の高度なテキスト処理能力も維持しています。128K のコンテキストウィンドーを持ち、MathVista、DocVQA、VQAv2 などの主要ベンチマークで最高クラスの性能を達成しています。
Pixtral Large 25.02 は、数十の言語に対応する包括的な多言語サポートを特長とし、80 以上のプログラミング言語でトレーニングされています。主な機能には、高度な数学的推論、ネーティブ関数呼び出し、JSON 出力、Retrieval Augmented Generation (RAG) アプリケーション向けの堅ろうなコンテキスト遵守などがあります。
Well-Architected ツールに新しいガイダンスを追加
AWS Well-Architected Tool に最新の Well-Architected Framework アップデートが反映されました。このアップデートでは、78の新しいベストプラクティスが追加・改善され、より安全で、耐障害性が高く、スケーラブルで持続可能なワークロードを構築するための実用的なガイダンスが提供されています。
今回のリリースでは、Well-Architected Framework の各柱が100%リフレッシュされました。特に信頼性柱では、2022年の大規模な改善以来初めて14のベストプラクティスが更新されました。
更新された AWS Well-Architected Framework を使用することで、組織はより運用性が高く、安全で、持続可能で、スケーラブルで、耐障害性のある環境とワークロードソリューションの実現に向けた実用的なガイダンスを活用できます。
AWS Transfer Family の SFTP コネクターがリモート SFTP サーバー上のファイルの削除、名前変更、移動を可能に
AWS Transfer Family が SFTP コネクターを使用して、リモート SFTP サーバー上のファイルの削除、名前変更、移動を可能にしました。この機能強化により、リモート SFTP ファイルシステムに保存されているファイルやディレクトリーを簡単に管理し、最新の状態に保つことができます。
SFTP コネクターは、リモート SFTP サーバーと Amazon S3 間でファイルをコピーするためのフルマネージドでローコードな機能を提供します。リモートサーバーからコピーした後、ソースファイルを削除、名前変更、またはアーカイブ場所に移動することで、リモートディレクトリーを整理できるようになりました。これにより、リモートディレクトリーを最新の状態に保ち、後続のジョブ実行時に重複ファイル転送を防ぐことができます。
これらの新機能は、リモートディレクトリーの内容の一覧表示や双方向ファイル転送などの既存の SFTP コネクター機能に追加されます。
AWS Transfer Family が SFTP コネクターの追加設定オプションを導入
AWS Transfer Family の SFTP コネクターに新しい設定オプションが追加され、リモート SFTP サーバーとの接続時の柔軟性とパフォーマンスが向上しました。主な機能強化は以下の通りです:
1. 認証に OpenSSH キー形式をサポート
2. サーバー ID 検証のためのリモートサーバーのホストキー検出機能
3. 転送パフォーマンス向上のための同時リモート操作機能
SFTP コネクターは、リモート SFTP サーバーと Amazon S3 間のファイルコピーを可能にする、フルマネージドでローコードな機能を提供します。
新機能により、以下が可能になりました:
- OpenSSH キーを使用したリモートサーバーへの認証
- リモートサーバーの公開ホストキーのスキャン(手動での管理者からの情報取得が不要に)
- リモートサーバーとの最大5つの並列接続によるパフォーマンス向上
これらの機能強化により、リモート SFTP サーバーとの接続時のファイル操作の制御が向上します。
Gateway Load Balancer がロードバランサーキャパシティユニット予約をサポート
Gateway Load Balancer (GWLB) で、Load Balancer Capacity Unit (LCU) リザベーションがサポートされるようになりました。これにより、ロードバランサーの最小帯域幅容量を事前に設定できるようになり、既存のトラフィックパターンに基づく自動スケーリング機能が補完されます。
Gateway Load Balancer は、サードパーティーの仮想アプライアンスのデプロイ、スケーリング、管理を支援します。この機能により、予想されるトラフィックの急増に対して保証された容量を確保できます。
LCU リザベーションは、以下のようなシナリオに適しています:
1. 有機的なスケーリングを待つ必要なく、新しいワークロードを GWLB ゲートサービスにオンボーディングおよび移行する場合
2. 特定の SLA やコンプライアンス要件を満たすために、ファイアウォールアプリケーションの最小帯域幅容量を維持する場合
この機能を使用する際は、予約した LCU と予約を超える追加使用分のみが課金対象となります。ELB コンソールまたは API を通じて簡単に設定できます。
なお、この機能は Gateway Load Balancer Endpoint (GWLBe) ではサポートされていません。
IAM Identity Center が外部 ID プロバイダーとのトークン交換を効率化する新しい SDK プラグインをリリース
IAM Identity Center が新しい SDK プラグインをリリースしました。このプラグインは、Microsoft EntraID や Okta などの外部 ID プロバイダー (IdP) で認証するアプリケーションの AWS リソース認可を簡素化します。
信頼された ID 伝播 (TIP) をサポートするこのプラグインは、外部 IdP トークンを IAM Identity Center トークンに交換するプロセスを効率化します。これらのトークンにより、外部 IdP で定義されたユーザーとグループのメンバーシップを活用して、AWS リソース(Amazon S3 バケットなど)への精密なアクセス制御が可能になります。
新しい SDK プラグインはトークン交換プロセスを自動化し、複雑なカスタムワークフローの必要性を排除します。設定後は、IAM Identity Center トークンの作成とユーザー ID を認識した認証情報の生成を自動的に処理します。これらの認証情報は、さまざまな AWS リソースへのアクセスを要求する際に、ユーザー ID を認識した IAM ロールセッションの作成に使用できます。
現在、Java 2.0 と JavaScript v3 SDK で利用可能なこの TIP プラグインは、ユーザー ID を認識した認可を実装するための AWS 推奨ソリューションです。
IAM Identity Center を使用すると、既存の従業員 ID ソースを AWS に一度接続するだけで、Amazon Q などの AWS アプリケーションが提供するパーソナライズされたエクスペリエンスにアクセスし、AWS サービス内のデータへのユーザー ID を認識したアクセスを定義および監査し、中央の場所から複数の AWS アカウントへのアクセスを管理できます。
Amazon S3 Tables が大阪など4つの追加リージョンで利用可能に
Amazon S3 Tables が、アジアパシフィック (大阪)、ヨーロッパ (パリ)、ヨーロッパ (スペイン)、米国西部 (北カリフォルニア) の4つのAWSリージョンで新たに利用可能になりました。S3 Tables は、Apache Iceberg サポートを組み込んだ初のクラウドオブジェクトストアであり、大規模な表形式データを保存する最も簡単な方法を提供します。この拡張により、S3 Tables は19のAWSリージョンで一般提供されるようになりました。
Amazon S3 Express One Zone がストレージとリクエストの価格を引き下げ
Amazon S3 Express One Zone の価格が大幅に引き下げられました。具体的には、ストレージが31%、PUTリクエストが55%、GETリクエストが85%減少しました。さらに、データのアップロードと取得に関する1ギガバイト当たりの料金が60%引き下げられ、これらの料金は512キロバイトを超える部分だけでなく、全てのバイトに適用されるようになりました。
Amazon S3 Express One Zone は、高性能な単一アベイラビリティーゾーンのストレージクラスです。機械学習トレーニング、ライブストリーミングイベントの分析、金融サービスの市場分析など、頻繁にアクセスされるデータや低レイテンシーが要求されるアプリケーション向けに、一貫して1桁ミリ秒台のデータアクセスを提供します。
Amazon FSx for NetApp ONTAP が ONTAP 自律型ランサムウェア保護をサポート
Amazon FSx for NetApp ONTAP に、ONTAP Autonomous Ransomware Protection (ARP) が追加されました。ARPは、ファイルシステムの異常な活動を積極的に監視し、潜在的な攻撃を検出した際に自動的に ONTAP スナップショットを生成する機能です。
ARPを有効にすると、以下のような不審な活動を検出します:
- ファイル内のデータのランダム性の変化
- 通常とは異なるファイル拡張子の使用
- 暗号化されたデータを含む異常なボリューム活動の急増
不審な活動が検出された場合、ARPは影響を受けたストレージボリュームのスナップショットを自動的に作成し、EMSメッセージやONTAP CLIおよびREST APIを通じて監視可能なアラートを生成します。
この機能により、ランサムウェアやマルウェア攻撃からファイルシステムを保護し、ビジネスの継続性を維持し、FSx for ONTAPに保存された重要なデータの保護を強化することができます。
NetApp Autonomous Ransomware Protectionは、追加コストなしで利用可能です。
今週のWeekly AWSは、以上です。最後までお読みいただき、ありがとうございました。
ソフトバンクはAWS アドバンストティアサービスパートナーです
「はじめてのAWS導入」から大規模なサービス基盤や基幹システムの構築まで、お客さまのご要望にあわせて最適なAWS環境の導入を支援します。
MSP(Managed Service Provider)サービスは、お客さまのパブリッククラウドの導入から運用までをトータルでご提供するマネージドサービスです。
条件に該当するページがございません