InfoQ ホームページ generative-ai に関するすべてのコンテンツ
-
VS Code Copilot用GPT-4oコード補完モデルがパブリックプレビューで利用可能に
最近、Visual Studio Code(VS Code)ユーザー向けにGPT-4o Copilotが発表された。このAIモデルはGPT-4o mini基盤の上に構築されており、30以上の広く使用されているプログラミング言語にわたる、275,000以上の高品質なパブリックリポジトリからの広範なトレーニングを含んでいる。強化トレーニングにより、より正確でコンテキストに即したコード提案を提供し、パフォーマンスの向上、開発者の生産性向上、コーディングプロセスを支援することが期待されている。
-
DeepSeek、OpenAIのo1モデルに匹敵する性能を持つDeepSeek-R1 LLMをオープンソース化
DeepSeekは推論能力を向上させるために強化学習(RL)でファインチューニングされたLLM、DeepSeek-R1をオープンソース化した。DeepSeek-R1はMATH-500やSWE-benchを含むいくつかのベンチマークで、OpenAIのo1モデルと同等の結果を達成している。
-
OpenAIが推論モデルo3-miniをリリース、o1より高速かつ高精度
OpenAIは最新の推論LLM OpenAI o3-miniをリリースした。o3-miniはSTEM分野向けに最適化されており、科学、数学、コーディングのベンチマークで完全版o1モデルを上回る性能を発揮し、o1-miniより低レイテンシーになっている。
-
Amazon Bedrockがオープンソースフレームワーク統合を取り入れたマルチエージェントシステム(MAS)を導入
Amazon Web Servicesは、Amazon Bedrock向けにマルチエージェントコラボレーション機能をリリースし、複数のAIエージェントが複雑なタスクで協力するためのフレームワークを導入した。このシステムは専門化されたエージェントがスーパーバイザーエージェントの調整の下で協力して作業することを可能にし、分散AIシステムにおけるエージェントオーケストレーションに関する開発者の課題に対処するものである。
-
Meta社、文章全体の予測を行う言語モデル「Large Concept Model」をオープンソース化
先日、Meta社が、トークンよりも抽象度の高い作業処理用に設計された言語モデルである Large Concept Model (LCM)をオープンソース化した。従来の言語モデルと異なり、LCMは言語やモダリティに依存しない文埋め込み空間を使用しており、多言語を用いた要約タスクでは同サイズのLlama 3.1モデルを上回る性能を発揮している。
-
AWSがAmazon Q Developer エージェントに新機能(ドキュメント生成、コードレビュー、ユニットテスト)を追加実装
AWSはこのほど、 AI駆動生成アシスタント「Amazon Q Developer」の機能強化を発表し、ソフトウェア開発プロセスを効率化する新たなエージェント機能を導入した。
-
AWS re:Invent 2024のハイライト:Aurora DSQLからAmazon Novaへ
2024年のre:Inventがラスベガスで閉幕した。予想通り、AIは会議の重要な焦点であり、Amazon NovaとSagemakerの新バージョンはもっとも重要なハイライトの一つであった。しかし、コミュニティでもっとも興奮を呼んだ発表は、アクティブ・アクティブな高可用性を備えたサーバーレス分散SQLデータベース、Amazon Aurora DSQLのプレビューだった。
-
DeepSeekが新たなオープンソースAIモデル、Janus Proをリリース
DeepSeekはマルチモーダルモデルJanusのアップデート版、Janus-Proをリリースした。新モデルはトレーニング戦略、データスケーリング、モデルサイズを改善し、マルチモーダル理解とテキストから画像への生成能力を向上させている。
-
Metaがスケーラビリティを向上させたByte Latent Transformer LLMをオープンソース化
Metaはトークナイザーの代わりにバイトのパッチを処理する学習済み動的スキームを使用するLLMアーキテクチャByte Latent Transformer (BLT)をオープンソース化した。これにより、BLTモデルはLlama 3モデルと同等の性能を50%少ない推論FLOPSで実現できる。
-
Google、実験的なAI推論モデルをリリース
GoogleはAI Studioプラットフォームで利用可能なAI推論モデル Gemini 2.0 Flash Thinking Experimentalを発表した。この実験的なモデルは、複雑な問題を推論することでプ��グラミング、数学、物理学などのマルチモーダルタスクを処理するために設計されており、その思考過程を説明することができる。これはGemini 2.0 Flashモデルを基に構築されており、OpenAIのo1を含む類似モデルと整合している。
-
Google、Gemini Code Assistがサポート範囲をAtlassian、GitHub、GitLabに拡大
Googleは最近、Atlassian Rovo、GitHub、GitLab、Google Docs、Sentry、Snykを含むGemini Code Assistのサードパーティツールのサポート を発表した。プライベートプレビューにより開発者は広く使用されているソフトウェアツールとパーソナルAIアシスタントの統合を直接IDE内でテストできる。
-
Cloudflare 2024年を振り返る:GitHub Copilotの力強い成長とGoがNode.jsを上回る
Cloudflareはこのほど、グローバルハイパースケーラネットワークのデータを分析したレポート「Radar Year in Review」の第5版を発表した。その結果、世界のインターネットトラフィックは17.2%増加し、モバイルとIPv6リクエストの顕著な伸びが明らかになった。さらに、自動化されたAPIリクエストでもっとも人気のある言語としてGoがNode.jsを抜き、GitHub Copilotが大きな伸びを示した。
-
Amazonが Amazon Nova、基盤モデルのシリーズを発表
Amazonは生成AIタスク向けに設計された基盤モデルのファミリーAmazon Novaを発表した。AWS re:Inventの中に行われたこの発表は、ドキュメントやビデオの分析、チャートの理解、ビデオコンテンツの生成、AIエージェントの開発といったタスクにおけるモデルの能力をハイライトしている。
-
QCon San Francisco 2024のAIとMLトラック - 生成AIと実用的アプリケーションを深掘り
InfoQによる国際的なソフトウェア開発会議であるQCon San Francisco 2024では、AIとMLの急速な進歩に特化した2つのトラックが設けられており、これらの技術が現代のソフトウェア開発の中心となっていることを反映している。
-
Pythonの台頭、生成AI、グローバルな開発者コミュニティ:GitHub Octoverse 2024からの洞察
最近発表されたGitHub Octoverse 2024レポートによると、主にデータサイエンス、機械学習、科学計算のような分野での優位性により、PythonはJavaScriptを抜いてGitHubで最も人気のある言語になったことが明らかになった。生成AIはソフトウェア開発において引き続き重要な存在感を示しており、GitHub上の生成AIプロジェクトへの貢献が大幅に増加している。