InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
GitHub Copilot Chatがオープンベータに:Visual StudioとVS Codeですべてのユーザーが利用可能に
GitHub Copilot Chatは、開発者がサポートされている IDE 内でコーディング関連の質問を直接したり、回答を受け取ったりできるチャット・インターフェースだ。現在オープンベータ版で、Visual StudioとVS CodeのすべてのGitHub Copilot個人ユーザーが利用できる。
-
Google、AIのファインチューニング方法であるDistilling Step-by-Stepをオープンソース化
ワシントン大学とGoogle Researchのチームは先日、より小さな言語モデルのファインチューニングを行う手法であるDistilling Step-by-Stepをオープンソース化した。Distilling Step-by-Stepは、標準的なファインチューニングよりも少ないトレーニングデータで、700倍のパラメータを持つ数発のプロンプト大規模言語モデル(LLM)を凌駕する小さなモデルを生成できる。
-
Meta社のオープンソースコード世代 LLM Code Llama
Meta社は最近、コード生成LLMであるCode Llamaをオープンソース化した。これはLlama 2の基礎モデルに基づいており、同じコミュニティ・ライセンスが適用されている。Code Llamaは500Bトークンのコードで微調整され、34Bパラメータまでの3つのモデルサイズが利用可能である。コード生成ベンチマークでの評価では、このモデルは他のすべてのオープンソースモデルを上回り、ChatGPTに匹敵した。
-
マイクロソフト、IP侵害の懸念に対しCopilot著作権コミットメントを発表
マイクロソフトは先日、生成AIによって生成されたコンテンツへの潜在的な知的財産権の侵害申し立てに関する懸念に対処するため、Copilot著作権コミットメントを発表した。GitHub Copilotを含むさまざまな製品を対象とするこのコミットメントでは、利用者が著作権の問題に直面した場合、マイクロソフトが潜在的な法的リスクに責任を負う。
-
ジェネレーティブAIサービス「AWS Bedrock」が一般提供開始
昨年4月にプレビュー版として発表されたBedrockだが、アマゾンはジェネレーティブAIアプリ向けのフルマネージドサービスの一般提供を発表した。
-
Semantic Kernel LLM Java SDKが利用可能になり、GenAIの統合が簡素化
大規模言語モデル(LLM)を一般的なプログラミング言語と統合するSDKであるSemantic Kernelが、Javaで利用可能になった。マイクロソフト社は最近のブログ記事で、Javaライブラリの登場を発表した。マイクロソフト社は今年初め、Semantic Kernelを初めてオープンソース化した。マイクロソフト社はSemantic Kernelを、AI LLMの統合を可能にする軽量SDKと呼んでいる。Semantic KernelSDKはJava以外に、C#とPythonプログラミング言語もサポートしている。
-
本番環境におけるLLM最適化のための、Hugging Faceのガイド
大規模言語モデル(LLM)を実運用に導入する場合、2つの大きな課題は、それらが必要とする膨大な量のパラメータと、文脈情報を表現するための非常に長い入力シーケンスを扱う必要性から生じる。 Hugging Faceは、このようなモデルを扱った経験に基づき、これらのハードルに取り組むためのテクニックのリストを文書化した。
-
GitLabの2023年グローバルDevSecOpsレポートでは、AIが"なくてはならない"ものに
GitLabは2023年グローバルDevSecOps AIレポートを発表し、主な分析結果としてAIとMLの利用が「あるとよい」ものから「なくてはならない」ものへと進化していると発表した。
-
Amazon Opensearch Serverless用のベクトルエンジンがプレビュー開始
AWSは、Amazon OpenSearch Serverless内のベクトルストレージと検索機能のプレビューリリースを発表した。この機能は、機械学習によって拡張された検索体験と生成AIアプリケーションをサポートすることを目的としている。
-
Ai4 2023 パネルディスカッション:ビジネスと社会における生成AI
先日開催されたAi4カンファレンスでは、"Generative AI in Business and Society (「ビジネスと社会における生成AI」)"と題したパネルディスカッションが行われた。重要なポイントは、生成AIは業務効率化と製品のパーソナライゼーションに多くの機会を提供すること、企業はプライバシーへの懸��とパーソナライゼーションのバランスを取る必要があること、そして生成AIが組織全体でどのように使用されているかを理解する必要があることである。
-
GPT-3.5 Turbo、品質と性能を向上させるための微調整が可能に
OpenAIはGPT-3.5 Turboを開発者が利用できるようにし、特定のユースケースのパフォーマンスを向上させるためにモデルをカスタマイズできるようにした。OpenAIによると、GPT-3.5 Turboをファインチューニングすることで、特定のタスクではGPT-4ベースの性能を上回ることもあるという。
-
Spring AI、OpenAIおよびAzure OpenAIとの連携機能を発表
SpringOneカンファレンスでSpring AIに関する実験的なプロジェクトが紹介された。これにより、同AIの基本的なコンセプトを用いたAIアプリケーションの制作が可能となる。現在、プロジェクトはAzure OpenAIとOpenAIをAIバックエンドとして統合している。コンテンツ生成、コード生成、セマンティック検索、要約などのユースケースがプロジェクトによってサポートされている。
-
SpotifyはSidekickのLLMチャットボットをどのように改善したか?
Large Language Model (大規模言語モデル、LLM)チャットボットにより革新的なソリューションへの扉が開かれる中で、SpotifyのエンジニアであるAtes Goral氏は、ユーザーエクスペリエンスを可能な限り自然なものにするために、レンダリングジャンクを防ぎ、待ち時間を減らすための具体的な取り組みが必要であると主張している。
-
OpenAI、ビジネスに特化したChatGPT Enterpriseを発表
OpenAIは、エンタープライズグレードの保護とプライバシー、より高速でのGPT-4無制限アクセス、より長い入力を処理するための拡張コンテキストウィンドウ、追加のデータ分析機能、カスタマイズの可能性などを提供するChatGPT Enterpriseを発表した。
-
Mojoプログラミング言語の紹介
Mojoは、PythonのシンプルさとRustのスピードとメモリの安全性を組み合わせた、新しく発表されたプログラミング言語である。開発の初期段階にあり、その機能を探求するためのオンラインプレイグラウンドをユーザーに提供している。Mojoはデータサイエンスと機械学習における卓越性を目指しており、Pythonに代わる高速な言語を提供する。オープンソース化も徐々に計画されている。