InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
Express 5.0リリース、安定性とセキュリティにフォーカス
Express.jsチームは2014年の最初のメジャー・バージョン・リリースから10年を経てバージョン5.0.0をリリースした。このリリースは、開発者がより堅牢なNode.jsアプリケーションを作成できるよう、安定性とセキュリティにフォーカスしている。
-
インパクトのあるデータ製品戦略を形成する
講演者であり、データ戦略家であり、『Data is Like a Plate of Hummus(データはフムスの皿のようなもの)』の著者でもあるLior Barak(バラック氏)が、Data Engineering Podcastで、戦略計画を推進するためのデータ・ビジョン・ボードの活用について語った。バラック氏は、組織のデータ中心戦略において、データチームはしばしば後になってからコストがかかることになりがちであると主張し、連携、進化、そしてインパクトのある能力の提供を確実にするための3年間の共同ロードマップを提案した。
-
ソフトウェアエンジニアリングの効率化を支援する社内ツールの移行から学んだこと
QCon San Franciscoのプレゼンテーションで、Ying Dai氏(ダイ氏)は2つの重要なソフトウェアエンジニアリングのマイグレーションストーリーを共有した。1つはプロダクションモニタリングに焦点を当てたもので、もう1つは自動検証を伴うプロダクションデプロイメントに関するものである。どちらの移行も、エンジニアリングの効率を向上させるという目標によって進められたが、それぞれに課題と教訓があった。
-
Azure Boost DPU:クラウドのパフォーマンスを強化するマイクロソフトの新しいシリコンソリューション
マイクロソフトは先日のIgniteカンファレンスで、効率的で低消費電力のデータ中心ワークロード向けに設計された、初の自社製データ処理ユニット(DPU)であるAzure Boost DPUを発表した。同社によると、この単一のシリコンは、高速イーサネットおよびPCIeインターフェース、ネットワークおよびストレージエンジン、データアクセラレータ、セキュリティ機能を統合し、完全にプログラマブルなシステム・オン・ア・チップになっているという。
-
Metaがどのようにして100万行のAndroidコードをJavaからKotlinに移行したか?
生産性と安全性の面でKotlinがもたらす利点を最大化するため、Metaのエンジニアは1,000万行のAndroidコードベースをJavaからKotlinに翻訳する作業に懸命に取り組んできた。このプロセスの1年で、彼らはコードベースの約半分を移行し、プロセスを可能な限り自動化するための特別なツールKotlinatorを開発した。
-
NVIDIAが初のパーソナルAIコンピューター、Arm搭載Project Digitsを発表
200Bパラメータ・モデルを実行可能なNvidia Project Digits は新しいNvidia GB10 Grace Blackwell Superchipを搭載し、AIモデルのファインチューニングと実行を開発者がローカルマシンでできるようにする。3,000ドルからスタートするProject DigitsはAI研究者、データサイエンティスト、学生をターゲットとしており、デスクトップシステムを使ってモデルを作成し、クラウドやデータセンターのインフラストラクチャにデプロイすることを可能にする。
-
LLaMA-Mesh: 3Dメッシュ生成と言語モデルの統合におけるNVIDIAのブレークスルー
NVIDIA研究者はLLaMA-Mesh、大規模言語モデル(LLM)を拡張し、統一されたテキストベース・フレームワークで3Dメッシュデータの生成と解釈を行う画期的なアプローチを発表した。LLaMA-Meshは3Dメッシュをプレーンテキストとしてトークン化し、空間情報とテキスト情報のシームレスな統合を可能にする。
-
メタにおけるThreadsアプリのiOSパフォーマンスの改善
MetaのエンジニアであるDave LaMacchia とJason Pattersonは、アプリのパフォーマンスはユーザーにそのアプリを使いたいと思わせる鍵であると言う。これには、アプリを超高速で、バッテリー効率よく、さまざまなデバイスや接続条件下で信頼できるものにすることも含まれる。
-
Deno 2リリース、レガシーJavaScriptインフラストラクチャとの相互運用性と大規模利用にフォーカス
Denoチームが最近Deno 2をリリースした。チームによると、Deno 2はレガシーJavaScriptインフラストラクチャとのシームレスな相互運用性、安定化した標準ライブラリ、ランタイム間でJavaScriptライブラリを共有するためのモダンレジストリなどを提供する。
-
Hugging Face Smolagents:LLMを搭載したエージェントを構築するためのシンプルなライブラリ
Smolagentsは、大規模言語モデル(LLM)を活用したエージェントを構築するためにHugging Faceで作成されたライブラリである。Hugging Faces社によると、この新しいライブラリはシンプルで特定のLLMにとらわれないことを目指しているという。セキュアな「コードでアクションを記述するエージェント」をサポートし、Hugging Face Hubと統合されている。
-
"DeepThought-8B":LLaMA-3.1 8Bを活用してコンパクトな推論モデルを作成
DeepThought-8Bは、LLaMA-3.1 8B上に構築された小型の「推論」モデルであり、OpenAI o1と同様に、意思決定プロセスを段階的に実行できるが、はるかに小型のパッケージである。
-
InstaDeep社、ゲノムAIモデル「Nucleotide Transformer」をオープンソース化
InstaDeep社とNVIDIA社の研究者は、ゲノムデータ用の基礎モデル群である、"Nucleotide Transformers"(NT)をオープンソース化した。最大のNTモデルは25億のパラメーターを持ち、850種の遺伝子配列データで学習された。いくつかのゲノムベンチマークにおいて、他の最先端のゲノム基盤モデルを凌駕している。
-
コピー&ペーストのデプロイから完全なGitOpsへ移行する方法
InnerSourceは、GitOpsを導入する際、企業固有のロジックを共有することで開発作業の軽減に貢献したと、Jemma Hussein Allen氏はQCon Londonで語った。彼女は講演の中で、コピー&ペーストのデプロイメントから完全なGitOpsへと移行した方法を示した。彼女は、心理的に安全な環境は、ペインポイントを解決しイノベーションを促進するのに役立つオープンで正直な議論のために本当に重要であると述べた。
-
Google DeepMindがGemini 2.0を発表:AIパフォーマンスとマルチモーダル統合における飛躍
Google DeepMindは、前モデルのGemini 1.5 Proの2倍の処理速度を実現するAIモデルGemini 2.0を発表した。このモデルはテキスト、画像、その他の入力を組み合わせて高度な推論を行う複雑なマルチモーダルタスクをサポートしている。JAX/XLAフレームワーク上に構築されたGemini 2.0は大規模に最適化され、複雑なトピックを探索するためのDeep Researchなどの新機能を含んでいる。現在、開発者と信頼できるテスターに提供されており、近くGeminiやSearchのようなGoogle製品に統合される予定である。
-
Cloudflare 2024年を振り返る:GitHub Copilotの力強い成長とGoがNode.jsを上回る
Cloudflareはこのほど、グローバルハイパースケーラネットワークのデータを分析したレポート「Radar Year in Review」の第5版を発表した。その結果、世界のインターネットトラフィックは17.2%増加し、モバイルとIPv6リクエストの顕著な伸びが明らかになった。さらに、自動化されたAPIリクエストでもっとも人気のある言語としてGoがNode.jsを抜き、GitHub Copilotが大きな伸びを示した。