AI算法 当前主流大模型文件格式解析对比 2025-06-10 2025-06-10 1. HuggingFace Transformers 格式(.bin / .safetensors) 项目 说明 用途 训练/推理通用 … …
机器学习 Scikit-learn(sklearn)对比 2025-06-10 2025-06-10 安装:pip install scikit-learn 以下是关于Scikit-learn(sklearn)与PyTorch/Tenso … …
NLP 停用词 2025-06-10 2025-06-10 停用词(Stop Words)是指在自然语言处理(NLP)或信息检索中,因出现频率极高、语义贡献低而被自动过滤的词汇。其核心目的是节省存 … … #NLP
AI算法 张量简述 2025-06-10 2025-06-10 张量 就像向量是标量的推广,矩阵是向量的推广一样,我们可以构建具有更多轴的数据结构。 张量是描述具有任意数量轴的n维数组的通用方法。 例 … …
机器学习 强化学习概述 2025-06-10 2025-06-10 一、概述 强化学习(Reinforcement Learning, RL)是机器学习的核心范式之一,其核心目标是让智能体(Agent) … …
机器学习 什么是深度学习 2025-06-10 2025-06-10 引言 时至今日,人们常用的计算机程序几乎都是软件开发人员从零编写的。 比如,现在开发人员要编写一个程序来管理网上商城。 经过思考,开发人 … …
NLP Transformer 和 MOE 的比较 2025-06-06 2025-06-06 在自然语言处理(NLP)领域,Transformer模型凭借其强大的性能成为主流架构。然而,随着模型规模的不断扩大,计算效率和推理速度成 … …
NLP vllm推理初体验 2025-06-06 2025-06-06 一、环境 系统已装 cuda11.8 教程文档:https://docs.vllm.com.cn/en/latest/getting_s … …
NLP Transformer中的 QKV 2025-06-06 2025-06-06 Transformer模型中的注意力机制使得模型能够捕捉序列中的长距离依赖关系,并且提高了模型处理复杂任务的能力。这个注意力机制包含了自 … … #transformer
NLP LLaMA Factory微调 2025-06-06 2025-06-06 概述 官网教程:https://llamafactory.readthedocs.io/zh-cn/latest/getting_sta … …