BTC
ETH
HTX
SOL
BNB
View Market
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

AI専門用語辞典(2026年3月版)、おすすめで保存

golem
Odaily资深作者
@web3_golem
2026-03-11 12:48
この記事は約7386文字で、全文を読むには約11分かかります
30の新語、少し印象に残して、初心者が集まって話す時に恥ずかしがらずにうなずき微笑む必要がなくなる。
AI要約
展開
  • 核心的な視点:本稿は、ブロックチェーン/暗号通貨分野の従事者向けに、AI分野の基礎および上級語彙ガイドを提供し、AI業界の核心概念と技術フレームワークを理解し、AIとWeb3の融合トレンドに適応することを目的としています。
  • 重要な要素:
    1. LLMとSLM:大規模言語モデル(LLM)はマルチモーダルコンテンツを処理する深層学習モデルであり、小規模言語モデル(SLM)は低コストとローカルデプロイメントを強調します。
    2. AIエージェント:目標を理解し、ツールを呼び出し、タスクを段階的に実行できる知的システムを指し、チャットボットを超えた実行可能なシステムです。
    3. RAG(検索拡張生成):外部データ検索と大規模モデル生成を組み合わせ、モデルの知識の陳腐化と非公開データへのアクセス問題を解決し、企業AIアプリケーションの基本構成です。
    4. 推論とトレーニングコスト:業界の共通認識は「トレーニングは高価だが、推論はさらに費用がかかる」であり、商業化段階のコストは主にモデル推論実行プロセスで発生します。
    5. トークンとコンテキストウィンドウ:トークンはAIモデルが処理と課金の基本単位であり、コンテキストウィンドウはモデルが単一処理で「記憶」できるトークンの総量を決定します。
    6. エージェントワークフロー:自律的なタスク分解と実行能力を備えたワークフローを指し、チャットボットから実行可能システムへの重要なマイルストーンと見なされています。
    7. ツール呼び出しとリスク:モデルが外部ツール(API、データベース)を呼び出すことはエージェントの核心能力ですが、ツールの誤用とデータ漏洩のリスクを伴います。

Original | Odaily (@OdailyChina)

Author|Golem (@web 3_golem)

今、暗号通貨界隈の人間がAIに関心を持たないと、すぐに嘲笑の的になりやすい(そう、友よ、なぜこの記事をクリックしたのか考えてみて)。

あなたはAIの基礎概念が全くわからず、会話に出てくる略語の意味を毎回Doubao(豆包)に聞いているだろうか?あるいは、AI関連のオフラインイベントで専門用語に戸惑い、ネットワークが切れていないふりをしているだろうか?

短時間でAI業界に足を踏み入れるのは現実的ではないが、AI業界で頻繁に使われる基礎的な語彙を知っておくことは損にはならない。幸運なことに、この記事はあなたのために用意されたものだ↓心から熟読し、保存することをお勧めする。

基礎語彙(12)

LLM(大規模言語モデル

LLMの核心は、膨大なデータで訓練され、言語の理解と生成に長けた深層学習モデルであり、テキストを処理し、現在では他のタイプのコンテンツもますます処理できるようになっている。

これに対応するのはSLM(小規模言語モデル)——通常、コストが低く、デプロイが軽量で、ローカル化がより容易な言語モデルを強調する。

AI Agent(AIエージェント)

AI Agentは単なる「会話できるモデル」ではなく、目標を理解し、ツールを呼び出し、タスクを段階的に実行し、必要に応じて計画や検証も行えるシステムを指す。Googleはエージェントを、マルチモーダル入力に基づいて推論し、ユーザーに代わってアクションを実行するソフトウェアと定義している。

Multimodal(マルチモーダル)

そのAIモデルはテキストだけを読むのではなく、テキスト、画像、音声、動画など、複数の入出力形式を同時に処理できる。Googleはマルチモーダルを、異なるタイプのコンテンツを処理および生成する能力と明確に定義している。

Prompt(プロンプト)

ユーザーがモデルに入力する指示であり、最も基礎的な人と機械のインタラクション方法である。

Generative AI(生成AI / AIGC)

AIの「生成」を強調し、単なる分類や予測ではない。生成モデルはプロンプトに基づいて、テキスト、コード、画像、スタンプ、動画などのコンテンツを生成できる。

Token(トークン)

これはAI界隈で最も「Gas単位」に似た概念の一つである。モデルは「文字数」で内容を理解するのではなく、トークンで入出力を処理し、課金、コンテキスト長、応答速度は通常トークンと強く関連している。

Context Window(コンテキストウィンドウ / コンテキスト長)

モデルが一度に「見て」利用できるトークンの総量を指し、モデルが単一処理時に考慮または「記憶」できるトークン数とも呼ばれる。

Memory(メモリ)

モデルやエージェントにユーザーの好み、タスクのコンテキスト、過去の状態を保持させること。

Training(トレーニング)

モデルがデータからパラメータを学習するプロセス。

Inference(推論実行)

トレーニングに対応し、モデルがデプロイされた後、入力を受け取り出力を生成するプロセスを指す。業界では「トレーニングは高価だが、推論はさらに費用がかかる」とよく言われる。なぜなら、実際の商業化段階では多くのコストが推論で発生するからだ。関連するトレーニング/推論の区別は、主要ベンダーがデプロイコストを議論する際の基礎的なフレームワークでもある。

Tool Use / Tool Calling(ツール呼び出し)

モデルがテキストを出力するだけでなく、検索、コード実行、データベース、外部APIなどのツールを呼び出せることを意味し、すでにエージェントの重要な能力の一つと見なされている。

API(インターフェース)

AI製品、アプリケーション、エージェントがサードパーティサービスに接続する際のインフラストラクチャ。

応用語彙(18)

transformer(トランスフォーマーアーキテクチャ)

AIがコンテキスト関係をより理解するのに長けたモデルアーキテクチャであり、今日のほとんどの大規模言語モデルの技術的基盤でもある。最大の特徴は、文章全体の各単語と他の単語との関係を同時に見ることができる点である。

Attention(アテンション機構)

これはトランスフォーマーの中核となる最も重要なメカニズムであり、モデルが文章を読む際に「どの単語が最も重点的に見る価値があるか」を自動的に判断する役割を果たす。

Agentic / Agentic Workflow(エージェント的 / エージェント化ワークフロー)

これは最近非常に話題になっている表現で、システムがもはや「一問一答」ではなく、ある程度自律的にタスクを分解し、次のステップを決定し、外部能力を呼び出すことを意味する。多くのベンダーはこれを「チャットボットから実行可能なシステムへ」の移行の指標と見なしている。

Subagents(サブエージェント)

1つのエージェントがさらに複数の専門的な小さなエージェントに分解され、サブタスクを処理する。

Skills(再利用可能な能力モジュール)

OpenClawの爆発的な人気に伴い、この言葉は最近明らかに一般的になった。これはAIエージェント向けの、インストール可能で、再利用可能で、組み合わせ可能な能力ユニット/操作説明書である。ただし、ツールの乱用やデータ漏洩のリスクがあることも特に注意喚起されている。

Hallucination(機械的幻覚)

モデルが真面目な顔をしてでたらめを言い、「存在しないパターンを感知する」ことで誤ったまたは不合理な出力を生成することを意味する。これはモデルが合理的に見えるが、実際には誤った過剰な自信に基づく出力である。

Latency(レイテンシ)

モデルがリクエストを受信してから結果を出力するまでにかかる時間であり、最も一般的なエンジニアリング用語の一つで、実装や製品化について話すと頻繁に登場する。

Guardrails(ガードレール)

モデル/エージェントが何をできるか、いつ停止するか、どのようなコンテンツを出力してはいけないかを制限するために使用される。

Vibe Coding(雰囲気プログラミング)

この言葉も現在最も話題のAI用語であり、ユーザーが直接会話でニーズを表現し、AIがコードを書き、ユーザーは具体的なコードの書き方を理解する必要がないことを意味する。

Parameters(パラメータ)

モデル内部で能力と知識を保存するために使用される数字の規模であり、モデルの規模を大雑把に測定するためによく使われる。「数百億パラメータ」「数千億パラメータ」はAI界隈で最も一般的な威嚇的な表現である。

Reasoning Model(強力な推論モデル)

これは通常、多段階の推論、計画、検証、複雑なタスクの実行により長けたモデルを指す。

MCP(モデルコンテキストプロトコル)

これはここ1年で非常に話題になっている新しい用語で、モデルと外部ツール/データソースの間に汎用インターフェースを確立する役割を果たす。

Fine-tuning / Tuning(ファインチューニング)

これは基本モデル上でさらにトレーニングを行い、特定のタスク、スタイル、または分野により適応させること。Googleの用語集は、チューニングとファインチューニングを関連概念として直接扱っている。

Distillation(蒸留)

大規模モデルの能力を可能な限り小規模モデルに圧縮し、「教師」が「生徒」に教えるようなもの。

RAG(検索拡張生成)

これはほぼ企業AIの基本構成となった。マイクロソフトはこれを「検索 + LLM」のパターンと定義し、外部データを使用して回答に根拠付け(grounding)を行い、モデルのトレーニングデータが古い、非公開の知識ベースを理解していない問題を解決する。目的は、モデル自身の記憶だけに頼るのではなく、実際の文書や非公開の知識に基づいて回答を構築することである。

Grounding(事実との整合性)

RAGと一緒によく登場し、モデルの回答を文書、データベース、ウェブページなどの外部の根拠に基づいて構築し、パラメータの記憶だけに頼った「自由な発想」にしないことを意味する。マイクロソフトはRAG文書で、groundingを中核的価値として明確に位置付けている。

Embedding(ベクトル埋め込み / 意味ベクトル)

テキスト、画像、音声などのコンテンツを高次元の数値ベクトルにエンコードし、意味的類似度の計算を行えるようにすること。

Benchmark(ベンチマーク)

統一された基準を使用してモデルの能力をテストする評価方法であり、各社のモデルが「自分が強いことを証明する」ために最も好んで使用するランキング言語でもある。

おすすめの記事

ロブスターの重要な11の質問:最もわかりやすいOpenClawの原理解説

AI
検索
記事目次
空头猎人
記事ホットランキング
Daily
Weekly
Odailyプラネットデイリーアプリをダウンロード
一部の人々にまずWeb3.0を理解させよう
IOS
Android