作者小头像 Lv.7
更多个人资料
8092 成长值
24 关注
81 粉丝
+ 关注 私信

个人介绍

菠萝菠萝蜜,急急如律令

感兴趣或擅长的领域

自动化运维、人工智能、测试、网络技术
个人勋章
  • 活跃之星
  • 考证狂人
成长雷达
5510
1587
525
450
20

个人资料

个人介绍

菠萝菠萝蜜,急急如律令

感兴趣或擅长的领域

自动化运维、人工智能、测试、网络技术

达成规则

以上满足项可达成此勋章

  • 博客
  • 关注
  • 粉丝
  • 论坛
全部时间
全部时间
最近三天
最近一周
最近一月
  • 全部
  • MindSpore
  • CUDA
  • DeepSeek
  • 昇腾
  • DPDK
  • 监控观察
  • 网络基础
  • 流媒体
  • Firewall
  • 数据安全
  • IoT
  • 编程语言
  • 鸿蒙
  • 虚拟化
  • 鲲鹏
  • Linux
  • AI
  • 大数据-数仓
  • 网络安全
Vision Transformer中的Patch概念解析
简单来说,Patch就是ViT将图像分割成的一个个小图像块。你可以把它想象成将一张完整的拼图打散成一个个小拼图块,然后模型再对这些小拼图块进行处理。 1. 核心概念:什么是Patch?在传统的卷积神经网络中,我们使用滑动窗口的卷积核来提取图像的局部特征。而ViT的思路完全不同,它借鉴了Transformer在NLP领域的成功经验。类比NLP中的Token(词元):在NLP中,一句话会被切分成...
自然语言处理基础
作者小头像 黄生 2025-10-22 20:00:39
99
0
0
2025-10-22 20:00:39
99
0
0
自注意机制的名称来源和QKV设计
自注意机制的名称来源于其核心计算特性——它使模型能够为序列中每个元素计算一个“自我聚焦”的权重分布。这里的“自”并非指代自己与自己交互的狭义概念,而是指在同一个序列内部,所有元素之间进行的相互注意力计算。在传统的循环神经网络中,一个词的表征通常依赖于其前一个隐藏状态,信息需要按顺序传递,距离较远的词之间难以直接建立联系。而自注意机制的设计初衷,正是为了突破这一限制。它允许序列中的任意一个词,...
机器学习 网络
作者小头像 黄生 2025-10-21 22:28:22
112
0
0
2025-10-21 22:28:22
112
0
0
好文推荐:漫画 Transformer: 手把手用数学公式推导
这篇关于Transformer数学原理的解析文章提供了一个从基础数据集处理到完整模型架构的清晰推导路径,其价值在于用具体的数值计算将抽象机制可视化。作者从构建微型数据集开始,逐步演示词汇表生成、编码、位置嵌入等关键步骤,这种自底向上的方法有助于理解模型如何从原始文本中提取并组织信息。文章重点解析了自注意力机制中查询、键、值矩阵的生成与交互过程。通过维度的设定与矩阵乘法的分步演示,直观展示了注...
网络
作者小头像 黄生 2025-10-20 21:47:47
144
0
0
2025-10-20 21:47:47
144
0
0
BERT模块化架构解析
理解BERT的模块化设计对掌握其代码实现至关重要。这种设计模式将模型分解为功能独立的组件,每个组件都通过forward方法定义明确的数据处理流程。这种架构源于深度学习框架的通用范式,类似于PyTorch中nn.Module的设计理念。从层次结构来看,BERT的嵌入层首先将输入符号转化为向量表示。这里融合了三种嵌入信息:词嵌入捕捉语义内容,位置嵌入记录序列顺序,类型嵌入区分句子边界。这种多源信...
深度学习
作者小头像 黄生 2025-10-18 23:52:11
177
0
0
2025-10-18 23:52:11
177
0
0
MindNLP项目的快速入门例子评估模块加载问题和解决
在进行MindNLP项目的快速入门例子学习的过程中,我遇到了一个问题。当时我按步骤构建了一个文本分类模型,需要定义评估函数来监控训练过程中的模型性能。按照例子里的做法,我使用了evaluate库来加载准确率指标:from mindnlp import evaluatemetric = evaluate.load("accuracy")def compute_metrics(eval_pred...
网络
作者小头像 黄生 2025-10-12 23:03:32
199
0
0
2025-10-12 23:03:32
199
0
0
Transformer 架构的产生和发展
Transformer 架构的产生源于 2017 年 Google 研究团队在序列建模领域对循环神经网络(RNN)和卷积神经网络(CNN)局限性的根本性突破。在 Transformer 出现之前,序列转换任务主要依赖 RNN 及其变体 LSTM 和 GRU,这些模型按时间步顺序处理输入,存在梯度消失和并行化困难的问题。CNN 虽能并行计算但难以捕获长距离依赖关系,注意力机制作为辅助手段仅在编...
神经网络
作者小头像 黄生 2025-10-11 16:38:54
268
0
0
2025-10-11 16:38:54
268
0
0
BERT的产生和发展
BERT(Bidirectional Encoder Representations from Transformers)的产生源于2018年谷歌研究团队对预训练语言模型范式的根本性重构。在BERT出现之前,主流语言模型如GPT采用单向自回归训练,仅能从左到右或从右到左理解文本,这种单向性限制了模型对上下文的全貌把握。ELMo虽然尝试通过双向LSTM结合两个方向的表示,但本质仍是浅层特征拼接...
机器学习
作者小头像 黄生 2025-10-11 16:30:47
143
0
0
2025-10-11 16:30:47
143
0
0
MindNLP框架下IMDB数据集加载的问题与解决
最初,没有人想到会出问题。我按照常规方式调用MindNLP的load_dataset函数加载IMDB数据集:from mindnlp.dataset import load_dataset 然后执行 imdb_ds = load_dataset('imdb', split=['train', 'test'])。这个看似简单的操作却抛出了FileNotFoundError,提示在本地路径/ho...
作者小头像 黄生 2025-10-11 13:57:41
125
0
0
2025-10-11 13:57:41
125
0
0
MindNLP:基于MindSpore的NLP开发与实践
MindNLP作为一个基于MindSpore生态的自然语言处理套件,其核心思路是“站在巨人的肩膀上”进行创新,既充分拥抱现有生态(特别是Hugging Face),又融合MindSpore框架的独特优势。从问题意识来看,MindNLP抓住了当前NLP领域,尤其是大语言模型(LLM)时代的几个核心痛点:一是Transformer架构已成为统一范式,但模型开发与训练对科研人员仍存在高门槛;二是任...
MindSpore 自然语言处理基础
作者小头像 黄生 2025-10-10 16:45:29
8599
0
0
2025-10-10 16:45:29
999+
0
0
mindnlp中的Qwen2-VL多模态模型导入功能
Qwen2VLForConditionalGeneration是Qwen2-VL(视觉语言)模型的核心生成类,具有以下功能:多模态理解 :能够同时处理文本和图像输入条件生成 :根据输入的图像和文本提示生成相应的文本响应预训练模型加载 :支持从预训练模型路径加载权重使用示例:from mindnlp.transformers import Qwen2VLForConditionalGenera...
作者小头像 黄生 2025-10-10 16:20:23
558
0
0
2025-10-10 16:20:23
558
0
0
总条数:326
10
10
20
50
100
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • ...
  • 33

上滑加载中

https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
作者小头像
作者小头像
快速交付
+ 关注