InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
NVIDIAがHymba 1.5Bを発表: 効率的NLPモデルへのハイブリッドアプローチ
NVIDIAの研究者は、トランスフォーマーと状態空間モデル(SSM)アーキテクチャを組み合わせて前例のない効率とパフォーマンスを実現するオープンソース言語モデル、Hymba 1.5Bを発表した。NVIDIAの最適化されたトレーニングパイプラインで設計されたHymbaは、従来のトランスフォーマーの計算およびメモリの制約に対処しつつ、SSMの記憶能力を向上させている。
-
NVIDIA NemotronモデルがAIエージェント開発の加速を目指す
NVIDIAはカスタマーサポート、不正検知、製品サプライチェーンの最適化などのAIエージェントによるワークフローに特に重点を置いたLlama Nemotron大規模言語モデル(LLM)およびCosmos Nemotronビジョン言語モデル(VLM)を発表した。Nemotronファミリーのモデルは多様なシステム要件に適合しやすくするため、Nano、Super、Ultraの3つのサイズで提供される。
-
GitLab Duo Chatでマージリクエストに深く入り込もう
GitLab は最近、開発者とレビュアーがコードレビューをより簡単に行えるように設計された新しいチャットアシスタント、Duo Chat について説明した。この機能はGitLab Duo UltimateとEnterpriseで利用可能で、エンジニアがコードの変更を理解し、ディスカッションをフォローし、依存関係をトラッキングしながら高品質なコードを保証するのに役立つ。
-
Googleが視覚言語モデルファミリーPaliGemma 2をリリース
Google DeepMindは視覚言語モデル(VLM)ファミリー PaliGemma 2をリリースした。PaliGemma 2は3つの異なるサイズと3つの入力画像解像度が利用可能で、複数の視覚言語ベンチマークで最先端の性能を達成している。
-
SlackがAIを活用したハイブリッドアプローチでEnzymeからReactテストライブラリに移行した方法
EnzymeはReact 18をサポートしていないため、既存の単体テストは使用できず、それらが提供する基礎的な信頼性を危険にさらしていた、とSergii Gorbachov氏はQCon San Franciscoで述べた。彼は、テストカバレッジの継続性を確保するために、SlackがすべてのEnzymeテストをReact Testing Library(RTL)に移行した方法を示した。
-
インパクトのあるデータ製品戦略を形成する
講演者であり、データ戦略家であり、『Data is Like a Plate of Hummus(データはフムスの皿のようなもの)』の著者でもあるLior Barak(バラック氏)が、Data Engineering Podcastで、戦略計画を推進するためのデータ・ビジョン・ボードの活用について語った。バラック氏は、組織のデータ中心戦略において、データチームはしばしば後になってからコストがかかることになりがちであると主張し、連携、進化、そしてインパクトのある能力の提供を確実にするための3年間の共同ロードマップを提案した。
-
Azure Boost DPU:クラウドのパフォーマンスを強化するマイクロソフトの新しいシリコンソリューション
マイクロソフトは先日のIgniteカンファレンスで、効率的で低消費電力のデータ中心ワークロード向けに設計された、初の自社製データ処理ユニット(DPU)であるAzure Boost DPUを発表した。同社によると、この単一のシリコンは、高速イーサネットおよびPCIeインターフェース、ネットワークおよびストレージエンジン、データアクセラレータ、セキュリティ機能を統合し、完全にプログラマブルなシステム・オン・ア・チップになっているという。
-
NVIDIAが初のパーソナルAIコンピューター、Arm搭載Project Digitsを発表
200Bパラメータ・モデルを実行可能なNvidia Project Digits は新しいNvidia GB10 Grace Blackwell Superchipを搭載し、AIモデルのファインチューニングと実行を開発者がローカルマシンでできるようにする。3,000ドルからスタートするProject DigitsはAI研究者、データサイエンティスト、学生をターゲットとしており、デスクトップシステムを使ってモデルを作成し、クラウドやデータセンターのインフラストラクチャにデプロイすることを可能にする。
-
LLaMA-Mesh: 3Dメッシュ生成と言語モデルの統合におけるNVIDIAのブレークスルー
NVIDIA研究者はLLaMA-Mesh、大規模言語モデル(LLM)を拡張し、統一されたテキストベース・フレームワークで3Dメッシュデータの生成と解釈を行う画期的なアプローチを発表した。LLaMA-Meshは3Dメッシュをプレーンテキストとしてトークン化し、空間情報とテキスト情報のシームレスな統合を可能にする。
-
Hugging Face Smolagents:LLMを搭載したエージェントを構築するためのシンプルなライブラリ
Smolagentsは、大規模言語モデル(LLM)を活用したエージェントを構築するためにHugging Faceで作成されたライブラリである。Hugging Faces社によると、この新しいライブラリはシンプルで特定のLLMにとらわれないことを目指しているという。セキュアな「コードでアクションを記述するエージェント」をサポートし、Hugging Face Hubと統合されている。
-
"DeepThought-8B":LLaMA-3.1 8Bを活用してコンパクトな推論モデルを作成
DeepThought-8Bは、LLaMA-3.1 8B上に構築された小型の「推論」モデルであり、OpenAI o1と同様に、意思決定プロセスを段階的に実行できるが、はるかに小型のパッケージである。
-
InstaDeep社、ゲノムAIモデル「Nucleotide Transformer」をオープンソース化
InstaDeep社とNVIDIA社の研究者は、ゲノムデータ用の基礎モデル群である、"Nucleotide Transformers"(NT)をオープンソース化した。最大のNTモデルは25億のパラメーターを持ち、850種の遺伝子配列データで学習された。いくつかのゲノムベンチマークにおいて、他の最先端のゲノム基盤モデルを凌駕している。
-
Google DeepMindがGemini 2.0を発表:AIパフォーマンスとマルチモーダル統合における飛躍
Google DeepMindは、前モデルのGemini 1.5 Proの2倍の処理速度を実現するAIモデルGemini 2.0を発表した。このモデルはテキスト、画像、その他の入力を組み合わせて高度な推論を行う複雑なマルチモーダルタスクをサポートしている。JAX/XLAフレームワーク上に構築されたGemini 2.0は大規模に最適化され、複雑なトピックを探索するためのDeep Researchなどの新機能を含んでいる。現在、開発者と信頼できるテスターに提供されており、近くGeminiやSearchのようなGoogle製品に統合される予定である。
-
Cloudflare 2024年を振り返る:GitHub Copilotの力強い成長とGoがNode.jsを上回る
Cloudflareはこのほど、グローバルハイパースケーラネットワークのデータを分析したレポート「Radar Year in Review」の第5版を発表した。その結果、世界のインターネットトラフィックは17.2%増加し、モバイルとIPv6リクエストの顕著な伸びが明らかになった。さらに、自動化されたAPIリクエストでもっとも人気のある言語としてGoがNode.jsを抜き、GitHub Copilotが大きな伸びを示した。
-
Qwen開発チーム、QwQ-32B-Previewを発表:AIによる推論と分析が進化
LLM(大規模言語モデル)であるQwenの開発チームは、AIの推論と分析能力を向上させるために設計された実験的研究モデル、QwQ-32B-Previewを発表した。32,768トークンのコンテキストと最先端の変換アーキテクチャを特徴とするこのモデルは、GPQAやMATH-500のような数学、プログラミング、科学ベンチマークに優れている。Hugging Faceで利用可能で、その機能を探求し、開発に貢献をしてくれる研究者たちを募っている。