InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
LLMを精製し、そのパフォーマンスを超える:spaCyの創設者がInfoQ DevSummit Munichで語る
InfoQ Dev Summit Munichの第1回目のプレゼンテーションにおいて、Ines Montani氏は、今年の初めにQCon Londonで行ったプレゼンテーションに加え、実際のアプリケーションで最新の最先端モデルを使用し、その知識をより小型で高速なコンポーネントに抽出し、社内で実行・維持できるようにするための実践的なソリューションを聴衆に提供した。
-
Steve Klabnik氏とHerb Sutter氏がRustとC++について語る
Kevin Ball氏がホストを務めるSoftware Engineering Dailyのポッドキャストで、Steve Klabnik氏とHerb Sutter氏が、RustとC++に関するいくつかのトピックについて議論している。議論の内容には、これらの言語の共通点と独自性、相違点、進化の仕方などが含まれる。
-
Meta社 AIが思考の選好最適化を導入、AIモデルが反応する前に考えることを可能に
Meta FAIR、カリフォルニア大学バークレー校、ニューヨーク大学の研究者たちが、思考の選好最適化(TPO)を発表した。最終的な解答のみに注目する従来のモデルとは異なり、このアプローチでは、LLMがより正確で首尾一貫した解答を生成するために、内部的な思考プロセスを生成し、洗練させることができる。
-
OpenAIがChatGPT検索機能をリリース
OpenAIは最近、ChatGPTがユーザーの質問に答える際にウェブを検索可能にするChatGPT Search機能をリリースした。ChatGPTは、トレーニング時に利用可能な知識に制限されるのではなく、ウェブから最新の情報を取り入れ、その情報源へのリンクを含めることが可能になった。
-
GitHubとGoogle Cloudが連携し、Gemini 1.5 ProをGitHub Copilotに導入
GitHubはGoogle Cloudと提携し、Gemini 1.5 ProモデルをGitHub Copilotに導入し、開発者に最大200万トークンを扱えるAIツールを提供する。Gemini 1.5 Proは、コード生成、分析、最適化などのタスク向けに設計されており、Visual Studio Codeのようなプラットフォームで間もなく利用可能になり、大規模なコードベースを扱う開発者に柔軟性を提供する。
-
PyTorch カンファレンス 2024:PyTorch 2.4/2.5(開発中)、そしてLlama 3.1
2024年9月18日と19日、Linux Foundationはサンフランシスコのフォート・メイソン周辺でPyTorch Conference 2024を開催した。このカンファレンスでは、PyTorch 2.4とLlama 3.1の最新の機能と、PyTorch 2.5での今後の変更点が紹介された。PyTorch Foundationのエグゼクティブディレクターであり、Linux FoundationのAI担当GMでもあるMatt White氏は、初日のカンファレンスの冒頭で、責任ある生成AIの発展におけるオープンソース・イニシアチブの重要性を強調した。
-
KotlinのHTTPツールキットKtor 3.0がパフォーマンスを向上させ、サーバー送信イベントのサポートを追加
Ktorは、Kotlinの非同期HTTPサーバーおよびクライアントアプリケーションを作成するためのネイティブフレームワークで、バージョン3に達しました。kotlinx-ioが採用され、互換性を破る変更を犠牲にして、パフォーマンスが向上し、Server-Sentイベント、CSFR、ZIPファイルからの静的リソースの提供などのサポートが追加された。
-
Logic Apps Standardのパブリック・プレビューで、生成AIアプリケーションのためのRAGベースの取り込みが可能に
マイクロソフトはこのほど、Logic Apps Standardのドキュメント解析とチャンキングのための組み込みアクションのパブリックプレビューを発表した。これらのアクションは、生成AIアプリケーションのRAG(Retrieval-Augmented Generation)ベースの取り込みを効率化するように設計されている。これらのアクションにより、Logic Appsはローコードで提供するAI機能にさらに投資することになる。
-
EC2もKubernetesも許さない:PostNLでのサーバーレス・オンリーアーキテクチャ構築からの洞察
PostNLは、外注委託のITプロジェクトデリバリーから社内の製品デリバリー能力への移行から得た洞察とガイダンスを共有した。特にサーバーレスサービスに重点を置いたクラウドネイティブ技術を採用することで、同社は運用コストを削減しながら、生産性と市場対応力の大幅な向上を達成した。
-
Rust 1.80、Lazy Staticのサポートやパターンの範囲拡張などを追加
Rust 1.80では、LazyCellとLazyLockが安定化された。これらは、初めてアクセスされるまでデータの初期化を遅らせるために使用できる2つの新しい型である。また、排他的範囲のサポートや、関連するいくつかのlint警告が追加された。さらに、C23との互換性のために名前付きパラメータを持たない可変長関数が使えるようになり、多くのAPIが安定化した。
-
PayPal社、Cosmos.AI MLOpsプラットフォームにLLMを利用した生成AIサポートを追加
PayPal社はMLOpsプラットフォームCosmos.AIを拡張し、大規模言語モデル(LLM)を使用したジェネレーティブAIアプリケーションの開発をサポートする。同社は、ベンダー、オープンソース、自己調整LLMへのサポートを取り入れ、検索拡張生成(RAG)、セマンティックキャッシュ、プロンプト管理、オーケストレーション、AIアプリケーションのホスティングに関する機能をリリースした。
-
Python 3.13の最新機能を分解する
プログラミング言語Pythonの最新メジャーリリースであるPython 3.13がリリースされた。Python 3.13では、複数行編集のような合理化された機能を備えた刷新された対話型インタプリタが導入され、ユーザーはキーを1回押すだけでコンテキスト全体を取得し、コードブロックを効率的に編集できる。さらにPython 3.13では、ジャストインタイム(JIT)コンパイラの導入とともに、グローバルインタープリタロック(GIL)の実験的な無効化が可能になり、まだ実験段階だがパフォーマンスが向上している。最後に、このアップデートではいくつかの古いモジュールが削除され、ramdomに新しい機能が導入された。
-
AWS Lambdaが、Visual Studio Codeをベースにしたエディタを導入し、高度な機能とAI統合を実現
AWS Lambdaは、Visual Studio Code Open Source(Code-OSS)エディタに基づく統合を特徴とする、コンソール内での新しいコード編集エクスペリエンスの提供を開始した。
-
マイクロソフト、Drasiを発表:リアルタイムイベント処理と自動化のためのオープンソースシステム
マイクロソフトのAzure Incubationsチームは、複雑なインフラにおけるクリティカルなイベントの検出簡素化するオープンソースシステムである、Drasiを発表した。Drasiはリアルタイムのモニタリングと自動応答を提供し、手作業によるイベント処理を不要にする。柔軟なコンポーネントと統合により、様々なデータソースにおける変更検知を合理化する。DrasiはApache 2.0ライセンスで提供され、イベントドリブンシステムを管理するための適応可能なソリューションを開発者に提供する。
-
UNO Platform 5.4 アプリのパフォーマンスを向上
Uno Platformは、290を超える新機能と機能強化を盛り込んだ最新アップデート、バージョン5.4を発表した。このアップデートの一環として、チームは企業クライアントから寄せられた懸念事項への対応を優先しつつ、UNOプラットフォーム上で構築されたアプリケーションの全体的なパフォーマンス向上に取り組んだ。