安全多方计算
Secure Multi-Party Computation多方在不泄露各自输入的情况下联合计算函数的协议。
全站索引
从 AI 到云原生的常用概念与独特术语,一页快速索引与查找。
术语不是知识的终点,而是理解复杂系统的入口。
这里汇总了本站所有核心概念与独特术语,便于快速检索、归类与对照。
多方在不泄露各自输入的情况下联合计算函数的协议。
管理和路由 API 请求的服务器。
将辅助功能与主应用部署在一起的设计模式,常用于服务网格。
神经网络中负责将输入转换为内部表示的部分。
自动化配置、协调和管理计算机系统和软件。
在靠近数据源的网络边缘进行计算的模式,降低延迟。
一种经典的排序函数,用于评估文档与查询的相关性。
一种数字音频文件系列。
跳跃某些层的连接方式,帮助梯度在深层网络中更好地传播。
华为昇腾的异构计算架构,提供神经网络计算引擎和算子库。
只微调模型少量参数的方法,大幅降低训练成本和存储需求。
通过添加噪声保护个体隐私的统计方法。
分配的资源总量超过物理可用资源的情况,通常在内存或 CPU 分配中使用。
预先分配超过实际需求的资源量以满足突发需求或确保高可用性。
分析查询意图和语义的步骤,提升检索准确性。
自动将通过测试的代码变更部署到生产环境的实践。
保持代码随时可以部署到生产状态的开发实践。
频繁地将代码变更集成到主分支的开发实践。
一种通过在应用开发阶段引入自动化来频繁向客户交付应用的方法。
自动调整 Pod 资源请求的机制,优化资源利用率。
在主容器启动前运行的辅助容器,用于初始化配置或依赖。
为文本中每个词标注词性的任务。
Contrastive Language-Image Pre-training,连接文本和图像的模型。
一种基于令牌级别的向量检索方法,保留细粒度匹配信息。
NVIDIA 的并行计算平台和编程模型,允许开发者使用 GPU 进行通用计算。
检测容器是否存活的健康检查,不通过时重启容器。
参数规模巨大的深度学习模型,通常指具有数十亿到数万亿参数的语言模型。
一种能够理解和生成人类语言的深度学习算法。
一组结合了软件开发(Dev)和 IT 运营(Ops)的实践。
训练时随机丢弃部分神经元的正则化技术,防止过拟合。
将权重矩阵分解为两个小矩阵乘积的压缩技术。
Low-Rank Adaptation,一种高效的大模型微调技术。
结构随时间变化的图。
动态资源分配的管理。
一种设计模式,用于检测故障并防止故障扩散。
Multi-Process Service,一种用于在多个进程之间共享 GPU 资源的技术。
涉及多个集群的部署架构。
处理多种数据类型(文本、图像、音频等)的模型或系统。
Multi-Instance GPU,一种将单个 GPU 分割成多个实例的技术。
并行执行多个注意力操作的机制,捕捉不同的特征表示。
涉及多个服务网格的架构。
为文档的不同部分(如标题、正文)分别生成向量并检索。
Extended Berkeley Packet Filter,一种允许在 Linux 内核中运行沙箱程序的技术。
一个分布式、可靠的键值存储,用于存储分布式系统的最关键数据。
一种用于训练神经网络的算法。
Non-Uniform Memory Access,一种计算机体系结构,其中内存访问速度取决于内存位置。
跟踪请求在微服务间传播路径的技术,用于性能分析和故障排查。
一种强调编程环境和心理状态的编程方式。
PagedAttention,一种通过分页机制来提高注意力机制效率的技术。
维护一组 Pod 副本运行的 Kubernetes 控制器,确保指定数量的 Pod 副本始终运行。
Service Level Objective,定义服务性能的具体目标。
Service Level Agreement,服务提供商与客户之间的正式协议。
服务提供商与客户之间的正式协议,定义服务质量和责任。
自动检测和定位网络中可用的服务实例的机制。
标识微服务身份的机制,用于服务间的认证和授权。
用于处理服务间通信的基础设施层。
Quality of Service,一种用于描述系统性能和可靠性的指标。
在多个计算资源之间分配工作负载。
用于分配网络流量的设备或软件。
用于 GPU 的高速内存,提供比传统 GDDR 更高的带宽。
High Bandwidth Memory,用于 GPU 的高速内存,提供比传统 GDDR 更高的带宽。
一种使用 Git 仓库作为基础设施即代码的单一事实来源的操作模型。
Agent 执行外部操作的能力,扩展 AI 的功能边界。
NVIDIA 的技术,允许 GPU 直接访问网络或存储设备数据,绕过 CPU 和主机内存。
结合 GPUDirect 和 RDMA 技术,实现 GPU 间直接高速数据传输。
开源可视化监控平台,支持多种数据源和丰富的面板类型。
按固定大小分割文档的分块策略,简单但可能破坏语义。
一种开发方法,其中规范驱动主要的开发流程。
逐步替换旧版本 Pod 的更新策略,实现零停机部署。
模型在训练集上表现好但泛化能力差的现象,通常由模型过于复杂或训练数据不足引起。
Istio Ambient 模式下的代理组件,处理 L7 流量管理和策略执行。
LLM 调用外部函数的机制,实现与外部系统的集成。
无需管理服务器即可运行代码的云计算服务模式。
Kubernetes 的包管理器。
Helm 包。
Hierarchical Navigable Small World,一种高效的向量索引算法。
一种文档分块策略,保持相邻块之间的重叠。
模型生成看似合理但实际上错误或荒谬的信息。
逐步将新版本发布给部分用户,以验证新版本的稳定性和性能。
限制 AI 模型输出范围的约束机制,确保输出符合预期和安全要求。
限制 AI 模型输出范围的约束机制,确保输出符合预期和安全要求。
通过主动注入故障提升系统韧性的工程方法,帮助发现系统弱点。
结合关键词搜索和语义搜索的检索策略。
Mixture of Experts,一种通过结合多个专家网络来提高模型容量和效率的架构。
通过激活部分专家网络来处理输入的模型架构,提高模型效率。
保存模型训练状态的快照,用于训练中断后的恢复或模型部署。
定期检查应用或服务是否正常运行的方法。
Retrieval-Augmented Generation.
结合信息检索和生成模型的技术,提升生成内容的准确性和可靠性。
结合了信息检索和生成模型的技术。
移除模型中不重要参数或神经元的技术。
Key-Value Cache,一种用于存储和检索键值对的数据结构。
使用代码来管理和配置基础设施的方法。
提供虚拟化计算资源的云计算服务。
神经网络中负责将内部表示转换为输出的部分。
逐步将流量导向新版本的部署策略,降低风险并快速发现问题。
逐步将流量导向新版本的部署策略,降低风险并快速发现问题。
自动将文本从一种语言翻译成另一种语言的任务。
一种数据分析方法,能让计算机自动从经验中学习。
Computer Vision,使计算机能够从数字图像或视频中获得高层理解的领域。
检测容器是否准备好服务请求的健康检查,不通过时从 Service 中移除。
Role-Based Access Control,基于角色的权限管理系统,通过角色定义用户权限。
Reinforcement Learning from Human Feedback,利用人类反馈来微调模型的方法。
Convolutional Neural Network,常用于分析视觉图像的深度神经网络。
JSON Web Token,一种用于安全传输信息的紧凑标准。
Kubernetes 的通用缩写,源自 K 和 s 之间有 8 个字母。
Open Container Initiative,制定容器格式和运行时标准的开放治理结构。
通过系统外部输出理解系统内部状态的能力,包括日志、指标和链路追踪。
Control Group,一种用于限制、记录和隔离进程组资源的机制。
Kubernetes 的命令行工具,用于与集群通信。
通过逐步去噪生成数据的生成模型。
通过两套环境实现零停机部署的策略,快速切换流量。
在分布式设备上训练模型而不共享原始数据的隐私保护技术。
降低模型精度(如 FP32 转 INT8)以减少计算量和内存占用的技术。
将多个操作或函数调用串联起来的编程模式。
动态合并请求以提高 GPU 利用率的批处理技术,也称为迭代级批处理。
Local Interpretable Model-agnostic Explanations,局部可解释模型解释方法。
一方收益等于另一方损失的博弈场景。
不默认信任任何用户或设备的网络安全模型,所有访问都需要验证。
不需要任何样本就能完成新任务的能力。
Streaming Multiprocessor,一种 GPU 的计算核心。
强化学习中的数学框架,描述智能体与环境交互。
Trillion Floating Point Operations Per Second,一种衡量计算能力的指标。
Trillion Operations Per Second,衡量 AI 加速器性能的指标,表示每秒可执行的整数运算次数。
Kubernetes 中用于隔离资源的虚拟集群,实现多租户和资源配额管理。
从文本中识别和分类命名实体的任务。
移除神经网络中不重要连接或神经元的技术,减小模型大小和计算量。
Model Context Protocol.
减小模型大小和计算开销的技术集合。
Istio 中定义流量去向后服务的配置,实现负载均衡、连接池和熔断等策略。
摩尔线程的统一系统架构,支持其 GPU 的通用计算。
博弈论中所有玩家都不愿单独改变策略的状态。
分布在不同地理位置的服务器网络。
寒武纪的 AI 软件栈,包括开发工具、运行时和驱动。
NVLink,一种用于连接 GPU 的高速串行通信接口。
一种开放标准的授权协议。
BM25 算法的原始实现,广泛用于信息检索系统。
一种训练一次即可适应多种部署场景的神经网络架构搜索方法。
Out of Memory,一种内存不足的错误。
可观测性数据收集的开放标准,统一 traces、metrics 和 logs 的采集。
Orca,一种用于大规模分布式训练的优化器。
PCI Express,一种高速串行计算机扩展总线标准。
管理系统配置的过程,包括创建、更新和维护配置文件。
用于存储非敏感配置数据的 Kubernetes 资源,将配置与容器镜像分离。
一次训练迭代使用的样本数量,影响训练速度和模型效果。
提供应用程序开发和部署环境的云计算服务。
控制 Pod 同时中断数量的机制,保证应用在维护期间的最小可用性。
开源监控告警系统,采用拉取模型采集时序数据。
Prompt Operations.
Reinforcement Learning,通过试错来训练代理以最大化奖励的机器学习方法。
通过试错来训练代理以最大化奖励的机器学习方法。
模型未能充分学习训练数据特征的现象,通常由模型过于简单或训练时间不足引起。
将离散数据(如词语)映射到连续向量空间的表示方法。
用于生成文本嵌入的模型。
识别文本情感倾向的任务,如正面、负面、中性。
在模型不同部分共享相同参数的技术,减少参数量。
在损失函数中添加权重范数的正则化技术,防止过拟合。
一种去中心化的分布式账本技术。
Reasoning + Acting,结合推理和行动的智能体框架。
一种文档分块方法,按段落、句子、词的层级递归分割。
一种让智能体从失败中学习的自我反思机制。
验证用户身份的过程。
AMD 的开放 GPU 计算平台,提供类似 CUDA 的开发体验,支持 AMD GPU。
系统在部分组件发生故障时仍能继续运行的能力。
一种软件包,包含运行软件所需的所有内容。
自动化管理容器部署、扩展和连接的技术。
Container Storage Interface,用于将存储系统暴露给容器化工作负载的标准接口。
将应用程序及其依赖打包到容器中的技术。
Container Network Interface,配置容器网络接口的规范和库。
Container Runtime Interface,Kubernetes 定义的容器运行时插件接口。
一种将关系建模为复数旋转的知识图谱嵌入方法。
简易信息聚合。
通过互联网提供软件应用的云计算服务模式。
Kubernetes 中管理外部访问的 API 对象,提供 HTTP 和 HTTPS 路由规则。
模型生成响应时所依赖的信息背景。
模型能处理的最大 token 数量,决定了模型的上下文理解能力。
优化上下文窗口使用以提高模型性能。
只用少量样本就能学会新任务的能力。
SHapley Additive exPlanations,一种模型解释方法。
Kubernetes 中用于硬件设备资源扩展的插件机制,支持 GPU、FPGA 等专用硬件。
一种基于人工神经网络的机器学习方法。
Generative Adversarial Network,由两个神经网络(生成器和判别器)相互博弈的深度学习架构。
受到生物神经网络启发的计算模型。
自动搜索最优神经网络架构的技术。
CPU 调度的基本单位,每个进程轮流使用 CPU 的时间段。
通过时间片轮转实现 GPU 共享的技术,不同进程在不同时间片使用 GPU。
将 Transformer 架构应用于计算机视觉任务的模型。
从文本中识别命名实体的任务,如人名、地名等。
节点和边随时间变化的图结构。
在后台运行并执行系统级任务的进程,通常在系统启动时自动启动。
确保在每个节点上运行一个 Pod 副本的 Kubernetes 资源,常用于系统级守护进程。
确定用户是否有权执行特定操作的过程。
Time To First Token,衡量推理响应速度的指标,表示从收到请求到生成第一个 token 的时间。
服务间双向认证的加密通信,确保服务身份验证和数据传输安全。
通信双方互相验证身份的安全机制,增强安全性。
Time Per Output Token,生成阶段每个 token 的时间间隔,衡量生成速度的指标。
根据负载自动调整 Pod 数量的机制,实现应用的弹性伸缩。
将辅助功能与主应用容器部署在同一 Pod 中的设计模式。
Chain of Thought,通过生成一系列中间推理步骤来提高大模型复杂推理能力的提示技术。
通过生成一系列中间推理步骤来提高大模型复杂推理能力的提示技术。
将思维链扩展为树形结构的推理方法,探索多种可能的推理路径。
为动态环境提供身份的标准,SPIRE 是 SPIFFE 的实现。
用于在计算机网络上提供通信安全的加密协议。
一种基于扩散模型的文本到图像生成模型。
限制网络请求频率的技术。
根据负载自动调整资源的能力,包括水平和垂直伸缩。
评估每个特征对模型预测贡献度的指标。
Term Frequency-Inverse Document Frequency,衡量词语在文档中重要性的指标。
优化算法中指导参数更新的方向,表示函数变化最快的方向。
一种用于优化神经网络的一阶迭代优化算法。
输入给 AI 模型的指令或文本。
设计和优化输入提示词以获得最佳输出的技术。
大模型处理文本的基本单位,可以是单词、词子或字符。
允许在加密数据上直接计算的加密方式。
NVIDIA 的并行计算平台和编程模型,允许开发者使用 GPU 进行通用计算。
Artificial General Intelligence,具备与人类同等或超越人类的广泛认知能力的 AI。
一种简单的知识图谱嵌入方法,将关系视为平移向量。
一种基于注意力机制的深度学习模型。
将文本转换为语音的技术。
使用训练好的模型进行预测的过程。
专门用于模型推理的软件或硬件加速器,优化推理性能。
根据图像生成文本描述的任务。
结合知识图谱的 RAG 技术,提供更结构化的上下文信息。
可在浏览器中运行的二进制指令格式,提供接近原生的性能。
一种允许应用向其他应用提供实时信息的机制。
一种架构风格,将应用程序构建为一组小型服务。
在预训练模型基础上进行额外训练,使模型适应特定任务或领域。
为序列中每个位置添加位置信息的技术,使模型理解顺序关系。
根据文本描述生成图像的任务。
输入和输出都是文本的模型任务类型。
将文本分配到预定义类别的任务。
自动生成文本内容的任务。
从长文本中生成简短摘要的任务。
根据给定上下文回答问题的任务。
能够承受或克服不利条件。
系统维持其功能的能力。
不需要在每个应用旁边部署代理的服务网格架构,如 Istio Ambient 模式。
一种云计算执行模型,云提供商动态分配机器资源。
Istio 的无 Sidecar 服务网格模式,通过节点级代理实现流量管理,简化应用部署。
高性能计算机网络通信标准,提供高带宽、低延迟的互联解决方案。
高性能计算机网络通信标准,提供高带宽、低延迟的互联解决方案。
不保存任何会话状态的应用程序,可以随时扩展或缩减实例数量。
用于服务身份认证的数字证书标准,定义公钥证书的格式和分发方式。
将数据转换为向量表示的过程,用于机器学习和信息检索。
专门用于存储和查询向量数据的数据库。
显示输入图像各部分对模型输出重要性的热力图。
将大芯片分解为多个小芯片的设计方法,通过先进封装技术实现芯片间高速互联。
百度的 AI 芯片架构,专为深度学习训练和推理设计。
控制模型参数更新步长的超参数,影响训练收敛速度和最终效果。
Recurrent Neural Network,一种专门处理序列数据的神经网络。
Istio 中定义流量路由规则的资源,实现请求路由、故障注入和超时重试等流量管理功能。
GPU 虚拟化技术,将物理 GPU 分割成多个虚拟 GPU 供多个虚拟机或容器使用。
创建虚拟版本的计算机系统资源的技术。
使用数据集调整模型参数的过程,使模型能够学习数据中的模式。
完整遍历训练数据集一次,是模型训练的基本单位。
在查询和文档的所有向量嵌入之间进行交互的检索方法。
远程收集和传输数据的技术,用于系统监控和分析。
分析句子中词语之间依存关系的任务。
识别用户查询意图的分类任务。
满足 SLO 前提下的实际可用吞吐,更能反映系统真实性能的指标。
Kubernetes 中用于管理有状态应用的工作负载资源,为 Pod 提供稳定的标识和持久化存储。
需要保持状态数据的应用程序,如数据库,每个实例都有唯一的标识和持久化存储。
Remote Direct Memory Access,绕过操作系统内核的直接内存访问技术,降低网络延迟。
绕过操作系统内核的直接内存访问技术,降低网络延迟。
在向量检索中通过元数据过滤结果的技术。
用于封装和管理 Kubernetes 应用运维知识的控制器,实现应用的自动化部署和运维。
充分利用云计算优势的应用程序开发和部署方法。
Cloud Native Computing Foundation,致力于推广云原生技术的非营利组织。
在大规模数据集上训练模型的基础阶段,学习通用知识。
根据语义边界分割文档的分块策略,保持语义完整性。
基于语义理解而非关键词匹配的搜索方法。
Pod 中负责共享网络命名空间的容器,也称 sandbox 容器。
多维数组,AI 计算的基本数据结构,用于表示神经网络中的数据和参数。
Tensor Processing Unit,一种由 Google 开发的专用硬件加速器,用于机器学习。
将大模型知识迁移到小模型的技术,保持性能的同时降低部署成本。
颁发和管理数字证书的机构,负责验证身份和签发证书。
数值化的可测量数据点,用于监控和告警。
识别文本中指代关系的任务,如将'他'指向具体的人。
存储在区块链上的自动执行的合约。
一个能够感知环境并采取行动以实现目标的智能体。
执行动作的实体。
具有代理能力的 AI。
Agent-to-LLM,Agent 与语言模型的交互。
Agent-to-Tool,Agent 调用外部工具的能力。
Agent-to-Agent,Agent 之间的协作与通信模式。
由智能体交互构成的网络。
支持智能体运行的执行环境。
用图结构表示实体及其关系的知识表示方法。
将知识图谱中的实体和关系映射到向量空间的技术。
将大模型知识迁移到小模型的技术。
对初次检索结果进行二次排序以提升相关性的技术。
让模型关注输入数据重要部分的机制,提升模型性能。
可视化模型注意力分布以理解模型关注点的技术。
Custom Resource Definition,允许用户扩展 Kubernetes API 的机制。
Natural Language Processing,人工智能的一个分支,致力于使计算机能够理解人类语言。
限制命名空间资源使用量的策略,包括 CPU、内存、存储等资源的配额。
资源限制的管理。
Transformer 中的核心机制,计算序列内部元素之间的关系。
Istio Ambient 模式的隧道代理,负责 L4 流量转发和 mTLS 加密。
一种重排序策略,平衡相关性和多样性。
本页术语均可用于文章写作、翻译对照与站内统一表述。