InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
Meta社がNotebookLlamaをリリース:オープンソースのPDFからPodcastへのツールキット
Meta社は、PDF文書をポッドキャストに変換するために設計されたオープンソースのツールキットである、NotebookLlamaをリリースした。これにより、開発者は構造化されたアクセス可能な PDF からオーディオへのワークフローを利用できるようになる。GoogleのNotebookLMのオープンソースの代替として、NotebookLlamaは、大規模言語モデル(LLM)やオーディオ処理の経験がなくても、PDF文書を音声コンテンツに変換する4段階のプロセスを通してユーザーをガイドする。このツールキットは、ユーザーがLLMやTTSモデルを試して、会話や音声に対応したコンテンツを作成するための実用的な方法を提供する。
-
RAG(Retrieval-Augmented Generation)を活用したCopilotが、Uberに13,000時間のエンジニアリング時間を節約
Uberは最近、オンコールサポートエンジニアの効率を改善するために設計されたAIを搭載したオンコールコパイロット、Genieを構築した方法を詳述した。GenieはRetrieval-Augmented Generation(RAG)を活用して正確なリアルタイム応答を提供し、インシデント対応のスピードと効果を大幅に向上させる。
-
Google社、大規模言語モデル(LLM)自己修正アルゴリズムSCoReを発表
先日、Google DeepMind社の研究者が、強化学習を用いた自己修正(Self-Correction via Reinforcement Learning, 以下 SCoRe)に関する論文を発表した。このSCoReとは、数学やコーディングの問題を解く際の大規模言語モデルによる自己修正能力の向上を図る技術である。SCoReで微調整されたモデルは、ベースラインモデルと比較で、いくつかのベンチマークの性能が向上した。
-
Stability AIが最上位のテキスト生成画像モデルをAmazon Bedrockと統合したことを発表
Stability AIは、Amazon Bedrockに3つの新しいテキスト画像生成モデル:Stable Image Ultra、Stable Diffusion 3 Large、Stable Image Coreを搭載した。これらのモデルは、マルチサブジェクト・プロンプト、画像品質、タイポグラフィのパフォーマンスを向上させることに重点を置いている。これらのモデルは、マーケティング、広告、メディア、エンターテインメント、小売業などの様々な用途において高品質のビジュアルを生成するように設計されている。
-
LLMを精製し、そのパフォーマンスを超える:spaCyの創設者がInfoQ DevSummit Munichで語る
InfoQ Dev Summit Munichの第1回目のプレゼンテーションにおいて、Ines Montani氏は、今年の初めにQCon Londonで行ったプレゼンテーションに加え、実際のアプリケーションで最新の最先端モデルを使用し、その知識をより小型で高速なコンポーネントに抽出し、社内で実行・維持できるようにするための実践的なソリューションを聴衆に提供した。
-
Steve Klabnik氏とHerb Sutter氏がRustとC++について語る
Kevin Ball氏がホストを務めるSoftware Engineering Dailyのポッドキャストで、Steve Klabnik氏とHerb Sutter氏が、RustとC++に関するいくつかのトピックについて議論している。議論の内容には、これらの言語の共通点と独自性、相違点、進化の仕方などが含まれる。
-
Meta社 AIが思考の選好最適化を導入、AIモデルが反応する前に考えることを可能に
Meta FAIR、カリフォルニア大学バークレー校、ニューヨーク大学の研究者たちが、思考の選好最適化(TPO)を発表した。最終的な解答のみに注目する従来のモデルとは異なり、このアプローチでは、LLMがより正確で首尾一貫した解答を生成するために、内部的な思考プロセスを生成し、洗練させることができる。
-
OpenAIがChatGPT検索機能をリリース
OpenAIは最近、ChatGPTがユーザーの質問に答える際にウェブを検索可能にするChatGPT Search機能をリリースした。ChatGPTは、トレーニング時に利用可能な知識に制限されるのではなく、ウェブから最新の情報を取り入れ、その情報源へのリンクを含めることが可能になった。
-
GitHubとGoogle Cloudが連携し、Gemini 1.5 ProをGitHub Copilotに導入
GitHubはGoogle Cloudと提携し、Gemini 1.5 ProモデルをGitHub Copilotに導入し、開発者に最大200万トークンを扱えるAIツールを提供する。Gemini 1.5 Proは、コード生成、分析、最適化などのタスク向けに設計されており、Visual Studio Codeのようなプラットフォームで間もなく利用可能になり、大規模なコードベースを扱う開発者に柔軟性を提供する。
-
PyTorch カンファレンス 2024:PyTorch 2.4/2.5(開発中)、そしてLlama 3.1
2024年9月18日と19日、Linux Foundationはサンフランシスコのフォート・メイソン周辺でPyTorch Conference 2024を開催した。このカンファレンスでは、PyTorch 2.4とLlama 3.1の最新の機能と、PyTorch 2.5での今後の変更点が紹介された。PyTorch Foundationのエグゼクティブディレクターであり、Linux FoundationのAI担当GMでもあるMatt White氏は、初日のカンファレンスの冒頭で、責任ある生成AIの発展におけるオープンソース・イニシアチブの重要性を強調した。
-
KotlinのHTTPツールキットKtor 3.0がパフォーマンスを向上させ、サーバー送信イベントのサポートを追加
Ktorは、Kotlinの非同期HTTPサーバーおよびクライアントアプリケーションを作成するためのネイティブフレームワークで、バージョン3に達しました。kotlinx-ioが採用され、互換性を破る変更を犠牲にして、パフォーマンスが向上し、Server-Sentイベント、CSFR、ZIPファイルからの静的リソースの提供などのサポートが追加された。
-
Logic Apps Standardのパブリック・プレビューで、生成AIアプリケーションのためのRAGベースの取り込みが可能に
マイクロソフトはこのほど、Logic Apps Standardのドキュメント解析とチャンキングのための組み込みアクションのパブリックプレビューを発表した。これらのアクションは、生成AIアプリケーションのRAG(Retrieval-Augmented Generation)ベースの取り込みを効率化するように設計されている。これらのアクションにより、Logic Appsはローコードで提供するAI機能にさらに投資することになる。
-
EC2もKubernetesも許さない:PostNLでのサーバーレス・オンリーアーキテクチャ構築からの洞察
PostNLは、外注委託のITプロジェクトデリバリーから社内の製品デリバリー能力への移行から得た洞察とガイダンスを共有した。特にサーバーレスサービスに重点を置いたクラウドネイティブ技術を採用することで、同社は運用コストを削減しながら、生産性と市場対応力の大幅な向上を達成した。
-
Rust 1.80、Lazy Staticのサポートやパターンの範囲拡張などを追加
Rust 1.80では、LazyCellとLazyLockが安定化された。これらは、初めてアクセスされるまでデータの初期化を遅らせるために使用できる2つの新しい型である。また、排他的範囲のサポートや、関連するいくつかのlint警告が追加された。さらに、C23との互換性のために名前付きパラメータを持たない可変長関数が使えるようになり、多くのAPIが安定化した。
-
PayPal社、Cosmos.AI MLOpsプラットフォームにLLMを利用した生成AIサポートを追加
PayPal社はMLOpsプラットフォームCosmos.AIを拡張し、大規模言語モデル(LLM)を使用したジェネレーティブAIアプリケーションの開発をサポートする。同社は、ベンダー、オープンソース、自己調整LLMへのサポートを取り入れ、検索拡張生成(RAG)、セマンティックキャッシュ、プロンプト管理、オーケストレーション、AIアプリケーションのホスティングに関する機能をリリースした。