2024年のre:Inventがラスベガスで閉幕した。予想通り、AIは会議の重要な焦点であり、Amazon NovaとSagemakerの新バージョンはもっとも重要なハイライトの一つであった。しかし、コミュニティでもっとも興奮を呼んだ発表は、アクティブ・アクティブな高可用性を備えたサーバーレス分散SQLデータベース、Amazon Aurora DSQLのプレビューだった。
同カンファレンスでは、Matt Garman氏がAWS CEO就任後初の基調講演を行った。また、Amazon社の現CEOであるAndy Jassy氏もラスベガスで登壇し、Amazon Nova 基盤モデルを紹介した。今年はWerner Vogels氏の基調講演内での公式発表がなく、リリースパターンとしては極めて異例であった。
Vogels氏は、20年前にアマゾンに入社した理由から始まり、代わりに「単純性」に関する6つの教訓に焦点を当てた。分散システムを中心に、タイムスタンプと、分散データベース構築における同期の課題を解決する上でのタイムスタンプの役割について分析した。同日、Vogels氏は2025年以降の技術予測を発表した。AWSのプリンシパル・エンジニアであるRajesh Pandey氏のコメントは下記の通りである。
Werner氏のKeynoteは実に示唆に富んでいました。"Simplexity"は、私が今回のre:Inventから得たもっともインパクトのあるコンセプトかもしれない(中略)運用のシンプルさを維持しながら複雑さを管理するための彼のフレームワークは、非常に貴重なのです。
以下は、コンピューティング、データベース、ストレージ、機械学習、開発に影響を与える今年の主な発表のレビューである。InfoQでは、これらやその他の最新情報を、近日中に個別のニュースとして取り上げる予定だ。
コンピューティング
Garman氏は、AmazonのARMプロセッサであるGravitonが広く採用されていることを強調した。具体的な数字は示さなかったが、同氏は、Gravitonインスタンスが、わずか5年前の2019年のEC2利用総数を上回るEC2利用を占めるようになったと指摘した。ただし、今年はARMの新しいメジャーバージョンはリリースされておらず、Graviton4が最新バージョンのままであった。
AI/MLのトレーニングと推論用に設計されたTrainium2インスタンスは、現在一般的に利用可能で、クラウドプロバイダーは、Apple, Adobe, QualcommがすでにTrainium2を使用したトレーニングで最高の価格パフォーマンスを達成していると主張している。AWSのシニアアカウントマネージャーであるAnthony Charbonnier氏は、次のように述べている。
その名前は「単なる」アップグレードを意味していますが、実際にはそれ以上のものです。各TRN2チップは、96GByteのHBM3eメモリ容量で最大1.3ペタフロップ(高密度FP8)を実現し、2.9TB/秒のHBM帯域幅をサポートします。これは極めて大きいです!16個のTrainium2チップに加え、各Trn2インスタンスは192個のvCPU、2TiBのメモリ、3.2TbpsのElastic Fabric Adapter (EFA) v3を搭載しています。
NeuroLinkで接続されたEC2 Trm2 UltraServersは、最大64個のTranium2チップと最大83.2 FP8ペタフロップスを提供する。
データベース
Aurora DSQLは、無制限のスケール、99.99%のシングルリージョン可用性、99.999%のマルチリージョンアクティブ・アクティブ可用性を謳うサーバーレス分散SQLデータベースを発表した。トランザクションロジックをストレージレイヤーから分離し、トランザクションを強力な一貫性で処理することで、この新しいPostgreSQL互換データベースはGoogle Cloud Spannerと比較して4倍高速な読み書きを実現するとAmazonは主張している。
出典:AWSブログ
DataChefのクラウドエンジニアであり、AWS HeroでもあるRehan Van Der Merwe氏は、DSQLと他のマネージドオプションとの比較や書き込みについてまとめている。
Aurora DSQLは、スケールゼロのOLTPデータベースを保証していますが、強力なクエリのためのOLAP機能も備えています。それは、0から60まで3秒で走れる車を持つようなものだが、トランクはソファが入るほどの大きさとなっています。
コミュニティの全員が同意しているわけではなく、Aurora DSQLと同様に、Dynamo DBはグローバルテーブルに対するマルチリージョンの強い一貫性のプレビューを発表した。MemoryDBマルチリージョンは現在一般的に利用可能で、クロスリージョン、Valkey、Redis互換のインメモリデータベースを提供している。
ストレージ
最初の基調講演で新しいAmazon S3 Tablesバケットが発表された際に「S3はデータレイクハウスになりつつあるのか?」というのがコミュニティの共通意見だった。Apache Icebergは長年にわたってデータにアクセスする方法となっている。 AWSの回答は、分析ワークロードのためのストレージに最適化されたソリューションであり、標準的なS3ストレージと比較して、Apache Icebergテーブルのクエリパフォーマンスは最大3倍、1秒あたりのトランザクションは最大10倍高速であると主張している。Roche社のデータ&アナリティクス担当エンジニアリングマネージャーであるRahul Chakraborty氏は、次のように記載している。
AWS S3 Tablesは、クラウドストレージにおける重要な進歩であり、S3の柔軟性とApache Icebergの構造化データ管理機能を融合させています。DatabricksとSnowflakeがこの新展開にどのように応するか注目したいです!
メタデータがデータをより発見しやすくする中、、Amazon S3 Metadataは、S3上のオブジェクトメタデータを自動的に更新する新しいオプションとしてプレビュー中である。この新機能は、ビジネスアナリティクスとリアルタイム推論アプリケーションのためにS3データをキュレート、識別、利用するために設計されている。詳細はInfoQで確認できる。
AWSが多くのSnowポータブルデバイスを廃止する中、新しいAWSデータ転送ターミナルを導入した。現在、ロサンゼルスとニューヨークでのみ利用可能なこのターミナルは、顧客がクラウドにデータをより迅速にアップロードできるように設計されており、高スループットの接続を持つ安全な物理的ロケーションに依存している。アップロード速度は最大400 Gbpsで、料金は時間単位で設定されている。Aer LingusのデータプラットフォームリードであるPaul Power氏は次のようにコメントしている。
高速アップロードとAWS Snowballの中間のような興味深いサービスだ。私はインターンとして、バックアップテープをオフサイトの貸金庫に持っていったことを覚えている。変わるものもあれば、変わらないものもある。
機械学習
機械学習と人工知能はカンファレンスの主要なトピックであり、800以上の講演が行われた。Andy Jassy氏のビジョンは、リレーショナルデータベースや分析と同様に、「世界を支配する」単一のLLM(大規模言語モデル)は存在しないというものである。彼は、新しい基盤モデルセットであり、Amazon Bedrockでのみ利用可能なAmazon Novaを発表し、「業界をリードする価格性能」を謳った。
Nova Micro、Nova Lite、そしてNova Proはすでに一般提供されているモデルで、テキスト、画像、または動画の入力を受け付け、テキスト出力を生成する。Amazon社のマルチモーダルモデルの中でもっとも能力が高いNova Premierは、2025年第1四半期に登場する予定である。また、画像生成モデルのNova Canvasと動画生成モデルのNova Reelも発表されたが、まだ利用可能ではない。Datasetteの開発者であり、Django Web Frameworkの共同創作者であるSimon Willison氏は、新しいLLMについての初期分析を行い、次のように記述している。
このモデルを試してみた私の第一印象は、主にGoogle Geminiファミリーと競合しているということだ。これらは非常に安価であり、Nova Microは以前の最安モデルであるGemini 1.5 Flash-8Bをわずかに下回る価格設定となっている。また、かなり大きなコンテキストを処理でき、2つの大きなモデルは画像、動画、PDFを扱うことができる。今回のリリースにより、Amazonはモデルプロバイダーのトップティアに名を連ねる地位を得たのではないかと考えている。
Bedrockモデル蒸留は大規模で複雑なモデルから小規模なモデルへ知識を転送するものであり、LLMの幻覚による事実誤認を防ぐ機能である。Bedrockマルチエージェントコラボレーションは、生成AI分野における他の重要な追加機能であった。
クラウドプロバイダーは、データエンジニアリング、分析、生成AIを統合することを目指した「次世代」のAmazon SageMakerを発表した。このクラウドベースの機械学習プラットフォームは、強化された機能を備えた単一のスタジオでの利用を可能にする。また、新しいSageMaker Lakehouseは、S3データレイクとRedshiftデータウェアハウスを統合し、オープンなApache Iceberg APIを通じて単一のデータコピー上で統合された分析とAI/MLを可能にする。
開発
Amazon Qは、ソフトウェア開発のための生成AI搭載アシスタントであり、初発表から1年後にリニューアルされた。新たにエージェント機能が追加され、ドキュメント生成、コードレビュー、ユニットテストの作成が可能になった。初期の機能は主にJavaに焦点を当てていたが、今年の発表では.NET、メインフレーム、VMwareワークロードの変換機能をターゲットにしている。
出典:AWSブログ
まとめ
今回のエディションは過去のものと比べてどうだっただろうか?多くの興奮と期待される新サービスがあった一方で、Amazonは基調講演でAWS Lambda、Amazon ECS、Amazon Auroraの10周年を祝った。最大のハイパースケール・プラットフォームのこれら3つの主要な柱は、2014年のカンファレンスで初めて発表され、これに匹敵する偉業はなかなかない。
AWS編集部は、AWS re:Invent 2024のトップ発表を記事にまとめた。PostNLのプリンシパルエンジニアであるLuc van Donkersgoed氏は、aws-news.comでre:Inventのフィードをキュレーションした。CyberArkのプリンシパル・ソフトウェア・アーキテクトであるRan Isenberg氏はサーバーレスの要点についてまとめている。