基本概念补充
基本概念
英文 | 中文 | 描述 |
---|---|---|
Agents | 代理/机器人应用 | 一种无需人类干预的软件,可以独立并主动地执行某些任务,经常使用一套工具,如计算器或网络浏览。 |
Natural Language Processing (NLP) | 自然语言处理 | AI 的一个子领域,专注于通过自然语言实现人机交互。NLP 的最终目标是阅读、解码、理解,并以有价值的方式理解人类语言。 |
Chatbot | 聊天机器人 | 一种计算机程序,通过文本或语音交互模拟人类对话,通过搭载自然语言处理系统来理解用户输入的内容,并提供相关的应答。 |
Large Language Model (LLM) | 大型语言模型 | 一种深度学习模型,可以生成类人文本并在广泛数据集上训练的 AI 模型。 |
token | - | 在大型语言模型中,token 代表模型可以理解和生成的最小意义单位,是大型语言模型的基础单元。 |
Prompt | 提示词 | 为模型设置任务或查询的初始上下文或指令。 |
Prompt Engineering | 提示(词)工程 | 一门较新的学科,主要研究提示词的开发和优化,帮助用户将大型语言模型用于各个场景和研究领域。掌握提示(词)工程有助于用户更好地了解大型语言模型的能力和局限性。用户可利用提示(词)工程来提升大型语言模型处理复杂任务场景的能力,如问答和算术推理能力;开发人员可通过提示(词)工程设计、研发出强大的工程技术,实现和大型语言模型或其他生态工具的高效接轨。 |
Artificial General Intelligence(AGI) | 通用人工智能 | 目前还无广泛共识,但据微软研究员定义:AGI 是在任何智力任务上都与人类有相同能力的人工智能。 |
Generative AI | 生成式 AI | AI 的一个分支,专注于基于现有的数据模式和示例(图像、音乐或文本等),生成新的原创内容的人工智能技术。如:ChatGPT、MidJouney。 |
Generative Pretr AI ned Transformer(GPT) | 生成式预训练模型 | 由 Open AI 开发的 AI 大语言模型,可以生成类似人类的文本。ChatGPT 就是基于这个模型微调完成的产品。 |
ChatGPT | 一款 AI 对话产品 | 由 Open AI 开发的基于 GPT 微调的 AI 大语言模型应用,可以生成模仿人类的文本,可以完成写文章,写软件程序代码等多种任务。 |
Contrastive Language–Image Pretr AI ning(CLIP) | - | 由 Open AI 开发的一种 AI 模型,它将图像和文本相连接,使其能够理解和生成图像的描述。 |
Foundation Model/Checkpoint | 基础模型 | 指被广泛应用于各类人工智能任务的通用模型,它们是基于大规模数据训练而得到的具有强大表征能力的模型。 |
Machine Learning | 机器学习 | 一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。提供系统自动学习和从经验中改进的能力,无需明确编程。 |
Deep Learning | 深度学习 | 机器学习的一个子领域,专注于训练具有多层的神经网络,使其能够学习复杂的模式。 |
Reinforcement Learning | 强化学习 | 一种机器学习类型,其中一个代理通过在环境中采取行动以最大化某些奖励来学习决策。 |
Reinforcement Learning from Human Feedback(RLHF) | 基于人类反馈的强化学习 | 一种通过从人类对模型的输出以及给出的反馈中学习,来训练 AI 模型的方法。 |
Supervised Learning | 监督学习 | 一种机器学习类型,是一种数据分析方法,使用从数据迭代中学习到的算法,使计算机无需明确编程就能够发现隐藏的洞见。 |
Unsupervised Learning | 无监督学习 | 一种机器学习类型,其中模型没有提供带标签的训练数据,而必须自己识别数据中的模式。 |
Transfer Learning | 迁移学习 | 一种机器学习方法,其中预先训练的模型被用于新的问题。 |
Tr AI ning Data | 训练数据 | 用于训练机器学习模型的数据集。 |
Validation Data | 验证数据 | 用于机器学习的数据集的一个子集,它与训练和测试数据集是分开的。 |
Pre-tr AI ning | 预训练 | 是训练机器学习模型的初始阶段,该阶段模型从数据中学习通用特征、模式和表示,而不需要具体了解将来会应用到的任务。这个无监督或半监督的学习过程使模型能够发展出对底层数据分布的基本理解,并提取出有意义的特征,这些特征可以在后续的微调中用于特定任务。 |
Inference | 推理 | 使用训练过的机器学习模型进行预测的过程。 |
Data Augmentation | 数据增强 | 通过添加已有数据略微修改的副本,来增加用于训练模型的数据量和多样性的过程。 |
Embedding | 嵌入/向量化 | 数据新形式的表示,通常是一个向量空间。相似的数据点有更相似的嵌入。 |
General Adversarial Network (GAN) | 生成对抗网络 | 一种用于生成与现有数据相似的新数据的机器学习模型。它使两个神经网络相互对抗:“生成器”创建新数据,“判别器”试图区分该数据与真实数据。 |
Neural Network | 神经网络 | 一种受人脑启发的 AI 模型。它由连接的单元或节点组成,这些节点被称为神经元,它们在各层之间进行组织。神经元接受输入,在其上进行一些计算,并产生输出。 |
Mixture of Experts(MoE) | 多专家模型/混合专家系统 | 是在神经网络 (Neural Network, NN) 领域发展起来的一种集成学习(Ensemble Learning)技术。传统的深度学习模型在训练时,对于每个输入样本,整个网络都会参与计算。模型越大,训练使用的样本数据越多,训练的开销越难以承受。而 MoE 可以动态激活部分神经网络,从而实现在不增加计算量的前提下大幅度增加模型参数量。MoE技术目前是训练万亿参数量级模型的关键技术。 |
Transformer | - | 用于处理自然语言等向量数据的特定类型的神经网络架构。以其处理数据中长距离依赖性的能力而闻名,其中的“注意力”机制发挥了重要作用,它允许模型在产生输出时权衡不同输入的重要性。 |
Parameters | 参数 | 在机器学习中,参数是模型用来进行预测的内部变量。在训练过程中,它们从训练数据中学习。例如:在神经网络中,权重和偏差就是参数。 |
Fine-tuning | 微调 | 指在一个已经训练好的模型基础上,进一步在特定任务上进行训练,从而使模型适应该任务的特定数据和要求。在微调过程中,使用较小的、针对特定任务的数据集进一步调整模型的参数,使其能够学习到任务特定的模式并提高在新任务上的性能。 |
Instruction Tuning | 指令微调 | 一种机器学习技术,其中模型基于数据集中给定的特定指令进行微调。 |
Ch AI n of Thought | 思维链 | 大模型提示工程中的重要技术,通常用来描述 AI 模型在达到决策时使用的推理步骤序列。 |
Diffusion | 扩散 | 在 AI 和机器学习中,扩散是一种生成新数据的技术,它从一块真实数据开始并添加随机噪声。扩散模型是一种生成模型,其中神经网络被训练以预测当随机噪声添加到数据时的反向过程。扩散模型被用来生成与训练数据相似的新样本。 |
Graphics Processing Unit(GPU) | 图形处理器 | 一种专用的微处理器,主要用于快速渲染图像以输出到显示器。GPU 也非常适合执行训练和运行神经网络所需的计算。 |
Expert Systems | 专家系统 | 应用人工智能技术提供特定领域内复杂问题解决方案的应用。 |
Multimodal | 多模态 | 模态(modal)是事情经历和发生的方式,我们生活在一个由多种模态(Multimodal)信息构成的世界,包括视觉信息、听觉信息、文本信息、嗅觉信息等,在人工智能领域,多模态通常指多种模态的信息,包括:文本、图像、视频、音频等。 |
Hallucinate/Hallucination | 幻觉 | 在 AI 的上下文中,幻觉是指模型生成不基于实际数据或与现实显著不同的内容的现象。 |
基本概念补充
https://blog.minhan.host/2025/01/04/AI-BASES/