InfoQ ホームページ ニュース
-
OpenSilver 3.1がXAMLクロスプラットフォームデザイナーをもたらす
OpenSilver3.1の最新バージョンは、マイクロソフトの廃止されたSilverlight Web アプリケーション・フレームワークのリメイクで、7月にリリースされたビジュアル・デザイナーをWindows以外のプラットフォームにも拡張した。また、.NET 9のサポートやWPF特有の機能も含まれている。
-
DeepSeekがDeepSeek-V3をオープンソース化、671BパラメータのMixture of Experts LLM
DeepSeekは671Bパラメータを含むMixture of Experts (MoE) LLM、DeepSeek-V3をオープンソース化した。2.788M GPU時間を使って14.8Tトークンで事前学習され、MMLU、MMLU-Pro、GPQAを含む様々なLLMベンチマークで他のオープンソースモデルを上回る性能を示している。
-
Netflix、新しい構成機能でMetaflowを強化
Netflixは、Metaflow機械学習インフラストラクチャに重要な機能強化を導入した:MLワークフローに強力な構成管理をもたらす新しいConfigオブジェクトである。この追加は、多様なMLとAIのユースケースにわたって何千ものユニークなMetaflowフローを管理するNetflixのチームが直面する共通の課題に対処する。
-
AWS宣言型ポリシーによるコンプライアンスの強化
AWSは最近、宣言型ポリシー、組織がAWSサービスのあるべき構成を大規模に定義・適用することを支援する機能を発表した。この機能はAmazon EBSスナップショットへのパブリックアクセスのブロックなど、クラウドリソース構成の標準を確立する必要があるお客様が直面する一般的な課題に対応する。
-
Google、実験的なAI推論モデルをリリース
GoogleはAI Studioプラットフォームで利用可能なAI推論モデル Gemini 2.0 Flash Thinking Experimentalを発表した。この実験的なモデルは、複雑な問題を推論することでプログラミング、数学、物理学などのマルチモーダルタスクを処理するために設計されており、その思考過程を説明することができる。これはGemini 2.0 Flashモデルを基に構築されており、OpenAIのo1を含む類似モデルと整合している。
-
HuatuoGPT-o1: AIによる複雑な医療推論の進展
香港中文大学深圳校と深圳ビッグデータ研究所の研究者は、複雑な医療シナリオにおける推論を改善するために設計された医療用大規模言語モデル(LLM) HuatuoGPT-o1を発表した。このモデルは新しい2段階の訓練プロセスを使用して開発され、医療専門家が使用する診断アプローチに似た段階的な分析を通じて応答をリファインすることを目指している。
-
EuroLLM-9Bは、欧州言語のための最先端のLLMサポート向上を目指している
EuroLLM-9Bはヨーロッパで構築されたオ���プンソースの大規模言語モデルで、EUの全公用言と11の非公用語(商業的に重要ではあるが)を含むヨーロッパ言語向けに調整されている。開発チームによると、その性能は、このサイズのヨーロッパ製LLMの中で最高のものだという。
-
Google、Gemini Code Assistがサポート範囲をAtlassian、GitHub、GitLabに拡大
Googleは最近、Atlassian Rovo、GitHub、GitLab、Google Docs、Sentry、Snykを含むGemini Code Assistのサードパーティツールのサポート を発表した。プライベートプレビューにより開発者は広く使用されているソフトウェアツールとパーソナルAIアシスタントの統合を直接IDE内でテストできる。
-
NVIDIAがHymba 1.5Bを発表: 効率的NLPモデルへのハイブリッドアプローチ
NVIDIAの研究者は、トランスフォーマーと状態空間モデル(SSM)アーキテクチャを組み合わせて前例のない効率とパフォーマンスを実現するオープンソース言語モデル、Hymba 1.5Bを発表した。NVIDIAの最適化されたトレーニングパイプラインで設計されたHymbaは、従来のトランスフォーマーの計算およびメモリの制約に対処しつつ、SSMの記憶能力を向上させている。
-
NVIDIA NemotronモデルがAIエージェント開発の加速を目指す
NVIDIAはカスタマーサポート、不正検知、製品サプライチェーンの最適化などのAIエージェントによるワークフローに特に重点を置いたLlama Nemotron大規模言語モデル(LLM)およびCosmos Nemotronビジョン言語モデル(VLM)を発表した。Nemotronファミリーのモデルは多様なシステム要件に適合しやすくするため、Nano、Super、Ultraの3つのサイズで提供される。
-
Amazon Aurora DSQL:アクティブ・アクティブ高可用性な分散SQLデータベース
先日ラスベガスで開催されたAWS re:Inventカンファレンスで、アマゾンはアクティブ・アクティブ高可用性を特徴とするサーバーレス分散SQLデータベースAurora DSQLのパブリックプレビューを発表した。このPostgreSQL互換の新しいデータベース・オプションは、AWSコミュニティ内で大きな興奮を呼び起こし、参加者からはカンファレンスの目玉発表として広く認識された。
-
Predictive Scaling(予測スケーリング)でAmazon ECSを最適化
Amazon Web Services(AWS)は、機械学習(ML)アルゴリズムを採用して需要の急増を予測し、リソースの過剰プロビジョニングを最小限に抑えながらアプリケーションの可用性と応答性を確保する高度なスケーリングポリシー「Predictive Scaling for Amazon ECS」をこのほどリリースした。
-
GitLab Duo Chatでマージリクエストに深く入り込もう
GitLab は最近、開発者とレビュアーがコードレビューをより簡単に行えるように設計された新しいチャットアシスタント、Duo Chat について説明した。この機能はGitLab Duo UltimateとEnterpriseで利用可能で、エンジニアがコードの変更を理解し、ディスカッションをフォローし、依存関係をトラッキングしながら高品質なコードを保証するのに役立つ。
-
Googleが視覚言語モデルファミリーPaliGemma 2をリリース
Google DeepMindは視覚言語モデル(VLM)ファミリー PaliGemma 2をリリースした。PaliGemma 2は3つの異なるサイズと3つの入力画像解像度が利用可能で、複数の視覚言語ベンチマークで最先端の性能を達成している。
-
SlackがAIを活用したハイブリッドアプローチでEnzymeからReactテストライブラリに移行した方法
EnzymeはReact 18をサポートしていないため、既存の単体テストは使用できず、それらが提供する基礎的な信頼性を危険にさらしていた、とSergii Gorbachov氏はQCon San Franciscoで述べた。彼は、テストカバレッジの継続性を確保するために、SlackがすべてのEnzymeテストをReact Testing Library(RTL)に移行した方法を示した。