InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
Meta社のMobileLLMでオンデバイスユースケースに向けたLLM設計が促進
Meta社の研究者のMobileLLMに対する目標は野心的だ。小型モデルの品質は搭載しているパラメータが何十億あるかに直結したものではなく、むしろ注意深いアーキテクチャ設計の賜物であることを示そうとしている。その実証として、層の深いアーキテクチャと層の浅いアーキテクチャを埋め込み共有やグループ化クエリアテンションメカニズムを組み合わせた125M、350M、600M、10Bパラメータの4つのモデルを構築し、従来の最先端モデルよりも精度を向上させた。
-
Rhymes AIがAriaを発表:開発リソースを備えたオープンソースのマルチモーダルモデル
Rhymes AIは、テキスト、画像、ビデオ、コードを効果的に処理できるオープンソースのマルチモーダルネイティブMoE(Mixture-of-Experts)モデル、Ariaを発表した。ベンチマークテストにおいて、Ariaは他のオープンモデルを凌駕し、GPT-4oやGemini-1.5などの独自モデルに対しても競争力のある性能を示した。さらに、Rhymes AIは、微調整や開発のためのモデルの重み付けやガイダンスを含むコードベースを公開している。
-
Amazon QがVisual Studio CodeとJetBrains IDEsにインラインチャットサポートを追加
AWSは最近、Amazon Q Developerがインラインチャットをサポートし、開発者がエディタ内でコードの問題について議論し解決できるようになったと発表した。コードを直接更新できる機能とIDE内チャットのベネフィットを組み合わせたこの機能は、Claude 3.5によって提供されVisual Studio CodeとJetBrains IDEで利用できる。
-
マイクロソフトと清華大学が大規模言語モデル向けのDIFF Transformerを発表
マイクロソフトAI と清華大学の研究者が、Differential Transformer (DIFF Transformer) という大規模言語モデルの性能向上を目的とした新しいアーキテクチャを発表した。同モデルでは、モデルによるコンテキスト処理の微調整や無関係な情報によるハルシネーションを最小限化することで、アテンション・メカニズムが向上している。
-
Thoughtworksテクノロジー・レーダー 2024年10月 - コーディング支援からAI進化へ
Thoughtworksは最近、テクノロジーの現状に関する独自のガイドを提供するテクノロジー・レーダー第31巻を発表した。 テクノロジー・レーダーによると、生成AIと大規模言語モデル(LLM)が、ソフトウェア開発における責任ある使用に焦点を当てながら、優勢を占めている。AIを活用したコーディングツールは進化しており、AIの支援と人間の専門知識のバランスが必要となっている。
-
Hugging Face、AIモデル比較強化に向けOpen LLM Leaderboardをアップグレード
Hugging FaceはOpen LLM Leaderboard v2、大規模言語モデル向けの彼らのポピュラーなベンチマーキングプラットフォームのアップグレード版を最近リリースした。
-
AIコーディングアシスタントの活用による開発者の生産性向上を研究結果が示唆
Microsoft社、マサチューセッツ工科大学(MIT)、プリンストン大学、ペンシルベニア大学ウォートンスクールの研究者らは先日、GitHub Copilotの利用で開発者の生産性が向上するという研究結果を発表した。研究チームは、4,000人以上の開発者を対象とした3つの別々のランダム化比較試験(RCT)を実施し、Copilotを使用した開発者の生産性は26%向上した。
-
Google社、Android StudioにAI機能Geminiを導入
Google社は、AI機能を通じた開発者の生産性向上に向けて、Android StudioでGeminiの一連のアップデートをリリースした。今回のリリースは、AIアシストを用いたコーディング、リファクタリング、ドキュメント生成、コードの分析やテスト、修正提案など、開発ライフサイクルのあらゆる段階にAIを導入することを目的としている。
-
Meta社がNotebookLlamaをリリース:オープンソースのPDFからPodcastへのツールキット
Meta社は、PDF文書をポッドキャストに変換するために設計されたオープンソースのツールキットである、NotebookLlamaをリリースした。これにより、開発者は構造化されたアクセス可能な PDF からオーディオへのワークフローを利用できるようになる。GoogleのNotebookLMのオープンソースの代替として、NotebookLlamaは、大規模言語モデル(LLM)やオーディオ処理の経験がなくても、PDF文書を音声コンテンツに変換する4段階のプロセスを通してユーザーをガイドする。このツールキットは、ユーザーがLLMやTTSモデルを試して、会話や音声に対応したコンテンツを作成するための実用的な方法を提供する。
-
RAG(Retrieval-Augmented Generation)を活用したCopilotが、Uberに13,000時間のエンジニアリング時間を節約
Uberは最近、オンコールサポートエンジニアの効率を改善するために設計されたAIを搭載したオンコールコパイロット、Genieを構築した方法を詳述した。GenieはRetrieval-Augmented Generation(RAG)を活用して正確なリアルタイム応答を提供し、インシデント対応のスピードと効果を大幅に向上させる。
-
Google社、大規模言語モデル(LLM)自己修正アルゴリズムSCoReを発表
先日、Google DeepMind社の研究者が、強化学習を用いた自己修正(Self-Correction via Reinforcement Learning, 以下 SCoRe)に関する論文を発表した。このSCoReとは、数学やコーディングの問題を解く際の大規模言語モデルによる自己修正能力の向上を図る技術である。SCoReで微調整されたモデルは、ベースラインモデルと比較で、いくつかのベンチマークの性能が向上した。
-
Stability AIが最上位のテキスト生成画像モデルをAmazon Bedrockと統合したことを発表
Stability AIは、Amazon Bedrockに3つの新しいテキスト画像生成モデル:Stable Image Ultra、Stable Diffusion 3 Large、Stable Image Coreを搭載した。これらのモデルは、マルチサブジェクト・プロンプト、画像品質、タイポグラフィのパフォーマンスを向上させることに重点を置いている。これらのモデルは、マーケティング、広告、メディア、エンターテインメント、小売業などの様々な用途において高品質のビジュアルを生成するように設計されている。
-
LLMを精製し、そのパフォーマンスを超える:spaCyの創設者がInfoQ DevSummit Munichで語る
InfoQ Dev Summit Munichの第1回目のプレゼンテーションにおいて、Ines Montani氏は、今年の初めにQCon Londonで行ったプレゼンテーションに加え、実際のアプリケーションで最新の最先端モデルを使用し、その知識をより小型で高速なコンポーネントに抽出し、社内で実行・維持できるようにするための実践的なソリューションを聴衆に提供した。
-
Meta社 AIが思考の選好最適化を導入、AIモデルが反応する前に考えることを可能に
Meta FAIR、カリフォルニア大学バークレー校、ニューヨーク大学の研究者たちが、思考の選好最適化(TPO)を発表した。最終的な解答のみに注目する従来のモデルとは異なり、このアプローチでは、LLMがより正確で首尾一貫した解答を生成するために、内部的な思考プロセスを生成し、洗練させることができる。
-
OpenAIがChatGPT検索機能をリリース
OpenAIは最近、ChatGPTがユーザーの質問に答える際にウェブを検索可能にするChatGPT Search機能をリリースした。ChatGPTは、トレーニング時に利用可能な知識に制限されるのではなく、ウェブから最新の情報を取り入れ、その情報源へのリンクを含めることが可能になった。