人人都懂的AI术语大全:AI与LLM的世界入门

火山方舟向量数据库智能语音交互

在当今数字化时代,人工智能(AI)已经成为我们生活中不可或缺的一部分。对于普通人而言,AI和大型语言模型(LLM)的世界可能显得有些陌生和高深。但别担心,本文将带你轻松入门,了解一些最重要和最常见的AI术语,让你在AI的海洋中畅游无阻。

AI:人工智能的魔法

人工智能(AI) 是计算机科学的一个分支,它试图理解智能的实质,并生产出一种新的能以人类智能相似方式做出反应、学习、推理和决策的智能机器。

Machine Learning:机器的学习能力

机器学习(Machine Learning, ML) 是AI的一个核心领域,它使机器能够通过经验来提高性能,无需明确编程。

Deep Learning:深度学习的力量

深度学习(Deep Learning) 是机器学习的一个子领域,它使用多层神经网络来学习数据中的复杂模式。

Neural Network:神经网络的复杂结构

神经网络(Neural Network) 是一种受人脑启发的AI模型,由多层节点或“神经元”组成,能够处理和学习数据。

Reinforcement Learning:强化学习

强化学习(Reinforcement Learning) 是一种机器学习方法,通过奖励或惩罚来训练模型,使其学习如何在环境中做出决策。

Supervised Learning:监督学习

监督学习(Supervised Learning) 是一种机器学习方法,模型通过已标记的训练数据学习,以预测新的未见数据。

Unsupervised Learning:无监督学习

无监督学习(Unsupervised Learning) 是一种机器学习方法,模型在未标记的数据上训练,以发现数据中的模式或特征。

Overfitting:过拟合

过拟合(Overfitting) 是指模型在训练数据上表现良好,但在未见过的数据上表现差的现象。

Underfitting:欠拟合

欠拟合(Underfitting) 是指模型未能捕捉数据的基本结构,导致在训练数据上的表现也不佳。

Loss Function:损失函数

损失函数(Loss Function) 是衡量模型预测与真实值差异的函数,模型在训练过程中力求最小化这一函数。

Hyperparameter Tuning:超参数调优

超参数调优(Hyperparameter Tuning) 是选择机器学习模型中超参数(如学习率、迭代次数等)的合适值的过程。

Inference:推理

推理(Inference) 是使用训练好的模型进行预测的过程。

API:应用程序编程接口

API(Application Programming Interface) 是一组定义软件应用程序如何相互交互的协议。

LLM:语言的炼金术

大型语言模型(LLM) 是一种经过大量文本数据训练的AI模型,它能够理解和生成自然语言。LLM可以应用于文本翻译、文章撰写、问答系统等多种场景。

Foundation Model:模型的基础

基础模型(Foundation Model) 是一种大型AI模型,它在大量未标记或已标记的数据上进行训练,具有广泛的语言理解能力,可以作为特定任务微调的起点。

Fine-tuning:微调的艺术

微调(Fine-tuning) 是将预训练的模型(如基础模型)针对特定用例进行进一步训练的过程。微调比从头开始训练更高效,因为我们已经拥有了一个具有通用语言理解的模型。

Token:词元,文本的基本单位

Token 是文本的基本单位,它由机器易于理解的文本片段组成,可以是单词、子词、字符或其他文本单元。Token是与LLMs工作时遇到的基本元素。

Embedding:文本的向量表示

嵌入(Embedding) 是文本的机器可理解表示形式,将文本序列转换为高维向量。这些嵌入向量具有内在含义,允许LLM理解文本的基本含义。

Sentiment-Analysis:情感分析

情感分析(Sentiment-Analysis) 是分析文本中的情感、观点和态度的过程。这对于商业应用至关重要,因为许多决策都是基于产品、市场营销或用户互动的关键绩效指标(KPIs)。

Prompt Engineering:提示工程

提示工程(Prompt Engineering) 是向LLM准确传达应生成内容的艺术。更具体的指令通常有助于引导LLM的输出。

Zero-Shot Learning:零样本学习

零样本学习(Zero-Shot Learning) 是在没有给出任何示例或上下文的情况下,告诉LLM生成内容的方法。

Few-Shot Approach / In-Context Learning:少样本学习/上下文学习

少样本学习(Few-Shot Learning)上下文学习(In-Context Learning) 是一种提示工程方法,通过在提示中直接提供几个任务示例,使用自然语言来指导模型。

Transformer Architecture:变换器架构

变换器架构(Transformer Architecture) 是LLMs的基本构建块,由"Attention is All You Need"论文引入,包含编码器和解码器两个主要部分。

Attention:注意力机制

注意力机制(Attention) 是变换器模型的一个关键组成部分,允许模型在编码或解码输入序列时选择性地关注输入序列的不同部分。

Self-attention:自注意力

自注意力(Self-attention) 机制是变换器架构的一个关键部分,在这种机制中,输入序列被转换为查询、键和值,然后用于计算每个输入元素的一组注意力分数。

Context Limit / Context Window / Context Length:上下文限制

上下文限制(Context Limit) 是LLM能够处理的Token数量,这对于聊天系统的记忆/历史和RAG系统中的上下文块数量都有限制。

LLM Model Size:模型大小

模型大小(Model Size) 通常以参数数量来衡量,对于某些模型来说,如LLaMA-7b,意味着有70亿个参数。模型大小对于运行推理所需的内存(RAM或VRAM)和计算能力至关重要。

Generative AI:生成式AI

生成式AI(Generative AI) 是一种能够根据提示生成文本、图像或其他媒体的AI系统。生成性AI系统使用生成模型,如大型语言模型,根据用于创建它们的训练数据集生成数据。

NLP:自然语言处理

自然语言处理(NLP) 是语言学、计算机科学和人工智能的一个跨学科子领域,关注计算机与人类语言之间的交互,特别是如何编程计算机处理和分析大量自然语言数据。

Hallucination:幻觉

在AI中,幻觉(Hallucination) 或人工幻觉指的是AI系统给出的自信回应,似乎与其训练数据并不相符。

通过这些术语,普通人也可以轻松地理解AI和LLM的基本概念和应用。随着技术的不断发展,AI将为我们打开更多可能性的大门,让我们一起期待并探索这个充满无限可能的领域。

0
0
0
0
关于作者

文章

0

获赞

0

收藏

0

相关资源
vivo 容器化平台架构与核心能力建设实践
为了实现规模化降本提效的目标,vivo 确定了基于云原生理念构建容器化生态的目标。在容器化生态发展过程中,平台架构不断演进,并针对业务的痛点和诉求,持续完善容器化能力矩阵。本次演讲将会介绍 vivo 容器化平台及主要子系统的架构设计,并分享重点建设的容器化核心能力。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论