InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
MicrosoftのOrca 2 LLM、性能面で10倍大きいモデルを凌駕
Microsoft Researchは、Llama 2の微調整版であるOrca 2 LLMを発表した。Orca 2 LLMは、10倍のパラメータを含むモデルと同等かそれ以上の性能を発揮できる。この性能を達成するために、合成トレーニングデータセットとプロンプト消去と呼ばれる新しい技術を使用している。
-
Amazon、AI画像ジェネレーター「Titan Image Generator」を発表
Amazonは、AWS re:Invent 2023イベントにおいて、Titan Image Generatorを発表した。Titan Image Generatorは、AmazonのAI開発プラットフォームであるBedrock上でAWS顧客向けにプレビュー中である。Amazonの生成AIモデルTitanファミリーの一員として、Titan Image Generatorは、テキストの説明に基づいて新しい画像を生成したり、既存の画像をカスタマイズできる。
-
Microsoft社、Logic Apps(スタンダード)ワークフローのAIアシスタントをパブリックプレビュー公開
Microsoft社は最近、パブリック・プレビュー中のiPaaS(Integration Platform as a Service)であるLogic Apps(スタンダード)向けのワークフロー・アシスタントを発表した。このアシスタントはAzure Logic Appsのドキュメントやベストプラクティスにアクセスできるチャットインターフェイスを持つため、ドキュメントやオンラインフォーラムを検索しなくてもよい。
-
AWS re:Invent 2023の総括: Amazon Q、質素なアーキテクチャ、データベースのアップグレード
第12回re:Inventがラスベガスで終了した。予想通り、人工知能は今回のカンファレンスの重要なトピックであり、Amazon Bedrockと、新しいタイプの生成型AIアシスタントであるAmazon Qが、Adam Selipsky氏の基調講演の主な焦点となった。
-
Meta、生成AIモデル「Emu Video」と「Emu Edit」を発表
Meta AI Researchは、2つの新しい生成AIモデルを発表した。Emu Videoは、テキストプロンプトにて短い動画の生成ができ、Emu Editは、テキストベースの指示を受けて画像編集ができる。両モデルとも、Meta社のEmu基礎モデルをベースにしており、いくつかのベンチマークで最先端の性能を示している。
-
xAI、大規模言語モデル"Grok"を発表
イーロン・マスク氏が設立したAI企業xAIはこの頃、大規模言語モデルGrokを発表した。GrokはXプラットフォームを通じて世界の現在の知識にアクセスでき、いくつかのベンチマークでGPT-3.5を含む同規模の他の大規模言語モデル(LLM)を凌駕している。
-
AWS、AIを活用した新しいアシスタント「Amazon Q」を発表
AWSは、プロ��ェッショナルに向けて設計された新しい生成AIを搭載したアシスタント「Amazon Q」を発表した。このアシスタントは企業の要件に合わせて設定可能で、コード、企業システム、データリポジトリに存在する情報を活用することで、会話、問題解決、コンテンツ生成、アクションに移すことを支援する。
-
AI研究者、間違いからの学習を模倣することでLLMベースの推論を改善する
マイクロソフト、北京大学、西安交通大学の研究者は、人間が自分の失敗から学ぶ方法を再現することによって、大規模言語モデル(LLM)の数学問題を解く能力を向上させる技術を開発したと発表した。
-
OpenAIは、ChatGPTのノーコード、カスタムバージョンを作成できるGPTを発表した。
先日のOpenAI開発者会議で、OpenAIは>GPT、つまり特定のタスクのために作成されたChatGPTのカスタムバージョンを展開すると発表した。開発者はGPTをChatGPTストアで共有し、収益化できる。
-
説明可能なAIとインパクト分析による倫理的機械学習
より多くの意思決定が機械によってなされたり、影響を受けたりするようになるにつれ、人工知能の倫理規範の必要性が高まっている。主な疑問は、"作ることはできるが、作るべきか?"である。説明可能なAIは、公平性と説明可能性のチェックとバランスを提供でき、エンジニアはシステムが人々の生活や精神衛生に与える影響を分析ができる。
-
スタックオーバーフローが生成AIの向けのOverflowAIイニシアチブを発表
Stack Overflowは、同社のパブリック・プラットフォームであるStack Overflow for TeamsにジェネレーティブAIを統合するためのロードマップと、開発者が集中力を高めて作業を進める場所に、コミュニティから5800万件の質問と回答の膨大な知識をもたらすIDE統合のような、まったく新しい製品分野を発表した。Stack Overflowは、OverflowAIの傘下にこれらすべての作業を置いている。
-
GitHub Copilot Chatがオープンベータに:Visual StudioとVS Codeですべてのユーザーが利用可能に
GitHub Copilot Chatは、開発者がサポートされている IDE 内でコーディング関連の質問を直接したり、回答を受け取ったりできるチャット・インターフェースだ。現在オープンベータ版で、Visual StudioとVS CodeのすべてのGitHub Copilot個人ユーザーが利用できる。
-
Google、AIのファインチューニング方法であるDistilling Step-by-Stepをオープンソース化
ワシントン大学とGoogle Researchのチームは先日、より小さな言語モデルのファインチューニングを行う手法であるDistilling Step-by-Stepをオープンソース化した。Distilling Step-by-Stepは、標準的なファインチューニングよりも少ないトレーニングデータで、700倍のパラメータを持つ数発のプロンプト大規模言語モデル(LLM)を凌駕する小さなモデルを生成できる。
-
Meta社のオープンソースコード世代 LLM Code Llama
Meta社は最近、コード生成LLMであるCode Llamaをオープンソース化した。これはLlama 2の基礎モデルに基づいており、同じコミュニティ・ライセンスが適用されている。Code Llamaは500Bトークンのコードで微調整され、34Bパラメータまでの3つのモデルサイズが利用可能である。コード生成ベンチマークでの評価では、このモデルは他のすべてのオープンソースモデルを上回り、ChatGPTに匹敵した。
-
マイクロソフト、IP侵害の懸念に対しCopilot著作権コミットメントを発表
マイクロソフトは先日、生成AIによって生成されたコンテンツへの潜在的な知的財産権の侵害申し立てに関する懸念に対処するため、Copilot著作権コミットメントを発表した。GitHub Copilotを含むさまざまな製品を対象とするこのコミットメントでは、利用者が著作権の問題に直面した場合、マイクロソフトが潜在的な法的リスクに責任を負う。