BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ プログラミング に関するすべてのコンテンツ

  • OpenAIがGPT-4oサポートとAPI拡張を含む.NETライブラリの安定版をリリース

    6月のベータ版に続き、OpenAIが、公式.NETライブラリの安定版をリリースした。NuGetパッケージとして利用可能で、GPT-4oやGPT-4o miniのような最新モデルと、OpenAI REST APIの全機能をサポートしている。このリリースには同期および非同期APIの両方、ストリーミングチャット補完機能、そしてAPI一貫性向上のための重要な互換性のない変更が含まれている。開発者はライブラリを拡張し、.NET Standard 2.0をサポートするすべての.NETプラットフォーム上で使用できる。

  • AWS、NVIDIA H100 Tensor Core GPUを搭載したEC2 P5eインスタンスの一般提供を発表

    Amazon Web Services(AWS)は、AI、機械学習、ハイパフォーマンス・コンピューティング(HPC)アプリケーション向けのコンピューティング・インフラを強化するため、NVIDIA H100 Tensor Core GPUを搭載したAmazon EC2 P5eインスタンスを正式にリリースした。

  • Lyft社が共同作業のためのProtocol Buffers設計ベストプラクティスを促進

    Lyft社は主にチームやシステム間で共有される定義のための共同プロトコル設計に焦点を当て、システム間統合のためにProtocol Buffersを使用した経験を発表した。同社は、単なる効率性の最適化というよりも、知識共有、一貫性、開発プロセスの質を向上させるアプローチを推進している。

  • AIでKubernetes管理を簡素化するIntuit Engineeringのアプローチ

    Intuit社は最近、Generative AI(GenAI)を使用してKubernetesクラスタの監視とデバッグの複雑さを管理した方法について語った。GenAIの実験は、検出、デバッグ、修復のプロセスを合理化するために行われた。

  • Google、ゲームシミュレーションAI「GameNGen」を発表

    Googleの研究チームはこのほど、ビデオゲーム「Doom」をシミュレートできる生成AIモデル「GameNGen」に関する論文を発表した。GameNGenは、毎秒20フレーム(FPS)でゲームをシミュレートでき、人間による評価では、実際のゲームよりも好まれる頻度がわずかに低かった。

  • Netflixが仮想スレッドを採用:パフォーマンスと落とし穴に関するケーススタディ

    長年Javaを採用してきたNetflixは、最近Java 21にアップグレードした。同社は現在、JEP 439で導入された世代ZGCや、JEP 444で導入された仮想スレッドなどの新機能を活用して、同社の広範なマイクロサービス群全体のパフォーマンスを改善している。高スループットの並行アプリケーション向けに設計された仮想スレッドは、初期には有望視されていたが、実際のシナリオでは独自の課題ももたらした。

  • マイクロソフト、Promptyをリリース:LLMを.NET開発に統���する新しいVS Code拡張機能

    Microsoftは、GPT-4oのような大規模言語モデル(LLM)を.NET開発ワークフローに直接統合するために設計された新しいVisual Studio Code拡張機能「Prompty」をリリースした。この無料ツールは、アプリケーションにAI駆動機能を追加するプロセスを簡素化することを目的としている。公式リリースポストには、Promptyが実際のシナリオでどのように使用できるかを示す実用的な例が含まれている。

  • CockroachDBが無料のCoreバージョンを終了、オープンソースコミュニティで懸念が高まる

    CockroachDB Labsは最近、同社の分散型SQLデータベースのライセンスモデルの変更を発表し、無料のCoreバージョンを廃止してEnterpriseバージョンを唯一のオプションとした。以前、オープンソースライセンスから脱却したが、この最新の変更は、シングルベンダーによって管理されるオープンソースソリューションの将来性について、コミュニティにさらなる疑問を投げかけた。

  • HelixML、Helix 1.0のリリースを発表

    HelixMLは、生成AIのためのHelixプラットフォームがバージョン1.0で製品化準備が整ったことを発表した。このプラットフォームは「プライベートGenAIスタック」と称され、様々な大規模言語モデル(LLM)に接続できるインターフェース層とアプリケーションを提供する。このプラットフォームは、ラップトップ1台からアプリケーションのプロトタイプを作成でき、すべてのコンポーネントがバージョン管理されているため、有効性が証明されたアプリケーションのその後の展開や拡張が容易である。また、LLMの非決定論的な領域では、テストの代わりとして(eval)が重視されている。

  • 時代に左右されないテス��ツールを使う意義

    Benjamin Bischoff氏は、開発者にとって、新しいツールは古いツールよりずっと興味深いという。新たなテクノロジーやアプローチが学べ、仕事道具の幅が広がる機会が得られるからだそうだ。しかし、何十年も前からあるツールを使えば、時間と予算を節約できる。ツールを評価する際には、ツールにいきなり飛びつくよりも、解決すべき問題を理解することが重要である。

  • XプラットフォームでGrok-2ベータ版がリリースされた

    Grok-2言語モデルがXプラットフォーム上でベータ版としてリリースされ、Grok-2 miniと共に発表された。LMSYSリーダーボード上で「sus-column-r」という名称でテストされたこのモデルは、Claude 3.5 Sonnetと GPT-4-ターボと比較して高いEloスコアを達成した。Grok-2 miniは、処理速度とパフォーマンスのバランスを重視して設計された軽量版で、ベータリリースの一部である。

  • Apple社、Apple Intelligenceを支えるApple Foundation Modelsを発表

    Apple社は、Apple Intelligence suiteのいくつかの機能を提供する大規模言語モデル(LLM)ファミリーである新しいApple Foundation Models(AFM)の詳細を発表した。AFMには、30億パラメータのオンデバイス版と、より大きなクラウドベース版の2つのサイズがある。

  • チーム・イネーブラーとしてのLLMとエージェント

    Scrum.orgは最近、COOであるEric Naiburg氏によるAI as a Scrum Team Member と題した記事を掲載した。Naiburg氏は、スクラムマスター、プロダクトオーナー、開発者にとっての生産効率の利点を説明した上で、読者にAIが「チームメンバー」としてスクラムチームに「シームレスに統合されていることを想像する」よう呼びかけた。Thoughtworks社のAIアシストソフトウェアデリバリーのグローバルリードであるBirgitta Böckeler氏も最近、「Exploring Generative AI」と題した記事を発表し、エンジニアリングシナリオにおけるLLM(大規模言語モデル)の使用を含む実験に関する洞察を共有した。同実験においては、LLM(大規模言語モデル)がソフトウェアデリバリーチームに相乗効果をもたらしている可能性がある。

  • Mistral AI、3つのオープンウエイト言語モデルをリリース

    Mistral AIは3つのオープンウェイト言語モデルをリリースした:12Bパラメータの汎用LLM「Mistral NeMo」、7Bパラメータのコード生成モデル「Codestral Mamba」、数学と推論用に微調整された7Bパラメータのモデル「Mathstral」である。この3つのモデルはすべてApache 2.0ライセンスで提供されている。

  • Google CloudがC4マシンシリーズを発表:高性能コンピューティングとデータ分析

    Google Cloudはこのほど、第4世代インテルXeonスケーラブル・プロセッサー(Sapphire Rapids)を搭載した新しいC4マシンシリーズの一般提供を開始したことを発表した。同シリーズは、ハイパフォーマンス・コンピューティング(HPC)、大規模シミュレーション、データ分析など、要求の厳しいアプリケーションのニーズに合わせた幅広い構成を提供する。

BT