作者小头像 Lv.6
更多个人资料
3619 成长值
2 关注
6 粉丝
+ 关注 私信

个人介绍

这个人很懒,什么都没有留下

感兴趣或擅长的领域

自动化运维、大数据、数据库
个人勋章
TA还没获得勋章~
成长雷达
3575
24
0
0
20

个人资料

个人介绍

这个人很懒,什么都没有留下

感兴趣或擅长的领域

自动化运维、大数据、数据库

达成规则

以上满足项可达成此勋章

  • 博客
  • 关注
  • 粉丝
  • 论坛
全部时间
全部时间
最近三天
最近一周
最近一月
  • 全部
  • 暂无专栏分类
LoRA+AdaLoRA 混合微调:梯度低秩自适应到底该选哪一档 rank?
LoRA+AdaLoRA 混合微调:梯度低秩自适应到底该选哪一档 rank? 引言:微调范式的演进与挑战随着大语言模型(LLM)参数规模突破千亿级别,传统全参数微调已变得不切实际。以GPT-3 175B为例,单次微调需要数百GB显存,这催生了参数高效微调技术(PEFT)的快速发展。在众多PEFT方法中,低秩自适应(LoRA)以其简单高效的特性脱颖而出,但固定秩的设置限制了其灵活性。为此,A...
机器学习
作者小头像 江南清风起 2026-01-14 17:39:03
991
0
0
2026-01-14 17:39:03
991
0
0
从 FlashAttention-1 到 FlashAttention-3:矩阵乘法如何砍掉 87% 访存
从 FlashAttention-1 到 FlashAttention-3:矩阵乘法如何砍掉 87% 访存 引言:注意力机制的内存瓶颈在Transformer架构中,注意力计算的时间和内存复杂度与序列长度的平方成正比,这成为大语言模型处理长上下文的主要瓶颈。传统注意力机制需要将大小为 O(N2)O(N^2)O(N2) 的注意力矩阵存储到内存中,其中N是序列长度。当序列长度达到数万甚至数十万...
作者小头像 江南清风起 2026-01-08 15:01:41
683
0
0
2026-01-08 15:01:41
683
0
0
DeepSpeed-Ulysses 实战:在 8×A100 上把 176B 模型压缩到 24GB 显存
DeepSpeed-Ulysses 实战:在 8×A100 上把 176B 模型压缩到 24GB 显存 引言:大模型训练的内存困境近年来,随着 Transformer 架构的崛起,大语言模型的参数量呈现指数级增长。从 GPT-3 的 1750 亿参数到最新的万亿级模型,这种增长带来了性能的突破,但也带来了前所未有的计算挑战。以 1760 亿参数的模型为例,仅模型参数就需要约 352 GB ...
作者小头像 江南清风起 2026-01-07 11:17:54
730
0
0
2026-01-07 11:17:54
730
0
0
教育大模型的认知过载风险:个性化推荐与学习者自主性的矛盾
教育大模型的认知过载风险:个性化推荐与学习者自主性的矛盾 引言:智能教育的双刃剑随着教育大模型(Educational Large Language Models)的快速发展,个性化学习推荐系统已成为智能教育的核心组件。这些系统通过分析学习者的行为数据、知识状态和学习偏好,能够提供高度定制化的学习路径和内容推荐。然而,这种技术驱动的个性化正带来一个隐忧:认知过载(Cognitive Ove...
5G教育
作者小头像 江南清风起 2026-01-06 11:18:55
643
0
0
2026-01-06 11:18:55
643
0
0
大模型中的“自组织临界性”:智能涌现的统计物理机制
大模型中的“自组织临界性”:智能涌现的统计物理机制 摘要随着大规模语言模型的参数量突破千亿级别,研究者们开始从复杂系统的视角审视智能涌现现象。本文探讨了大模型训练动态与“自组织临界性”理论之间的深刻联系,提出了智能涌现可能遵循类似沙堆崩塌的统计物理机制。我们将通过理论分析和代码实验,揭示大模型如何通过简单的梯度下降达到临界状态,从而产生突现能力。 一、自组织临界性:从沙堆模型到神经网络 1...
机器学习 神经网络
作者小头像 江南清风起 2025-12-28 15:49:21
2371
0
0
2025-12-28 15:49:21
999+
0
0
AI与认知科学的互惠启发:预测编码理论与Transformer架构的趋同
AI与认知科学的互惠启发:预测编码理论与Transformer架构的趋同 从神经科学第一原理到人工智能的范式转移人工智能的发展正经历着一场深刻的范式转移。从传统的模式识别和函数逼近,转向以预测为核心的智能计算范式。这一转变的深层逻辑,竟然与神经科学中一个革命性的理论——预测编码理论(Predictive Coding Theory)形成了惊人的趋同。预测编码理论,由Karl Friston...
作者小头像 江南清风起 2025-12-27 09:35:10
806
0
0
2025-12-27 09:35:10
806
0
0
农业AI的“数字鸿沟”:小农户技术适配能力与精准农业的排斥性
农业AI的“数字鸿沟”:小农户技术适配能力与精准农业的排斥性 引言:当算法遇上田园在加利福尼亚的万亩智慧农场,无人机正以厘米级精度喷洒农药;而在印度旁遮普邦的小麦田里,农民仍在依靠祖辈经验判断灌溉时机。这两种场景勾勒出农业AI应用的两极——一边是资本与技术密集的精准农业乌托邦,另一边则是被数字浪潮边缘化的传统耕作现实。这场技术革命正悄然在农田中划出一道深刻的“数字鸿沟”,其背后是小农户技术...
机器学习
作者小头像 江南清风起 2025-12-26 16:58:20
3231
0
0
2025-12-26 16:58:20
999+
0
0
人工智能的“理解”是否可能:从中文房间到生成式表征的语义鸿沟
人工智能的“理解”是否可能:从中文房间到生成式表征的语义鸿沟 引言:理解之谜与哲学困境1980年,哲学家约翰·塞尔提出了著名的“中文房间”思想实验:一个完全不懂中文的人被锁在房间中,通过一套复杂的规则手册处理中文符号。对于外界的中文提问,他能够给出正确的答案,但他本人并不“理解”中文。这个思想实验直指人工智能的核心问题:符号处理是否等同于理解?随着生成式AI的崛起,这个问题变得更加紧迫。现...
作者小头像 江南清风起 2025-12-25 14:55:43
892
0
0
2025-12-25 14:55:43
892
0
0
AI医疗的“证据困境”:算法准确率与临床有效性的鸿沟
AI医疗的“证据困境”:算法准确率与临床有效性的鸿沟 引言:当准确率99%的算法遇上真实患者在2023年的《自然·医学》期刊上,一项研究揭示了AI医疗领域令人不安的现象:一个在测试集上达到99.2%准确率的皮肤癌检测算法,在实际临床环境中面对真实患者时,诊断准确率骤降至68.7%。这个数字差距不仅仅是统计误差,而是暴露了AI医疗从实验室到临床转化过程中存在的根本性困境——我们称之为“证据鸿...
作者小头像 江南清风起 2025-12-24 09:44:27
860
0
0
2025-12-24 09:44:27
860
0
0
当GNN遇见长尾图:基于CogSL的消息传播与节点增强方法
当GNN遇见长尾图:基于CogSL的消息传播与节点增强方法 引言:GNN在现实世界图数据中的困境图神经网络(GNN)已经在社交网络分析、推荐系统、生物信息学等领域取得了显著成功。然而,大多数现有研究都假设图中的节点类别分布是平衡的,这与现实世界中广泛存在的长尾分布形成了鲜明对比。在实际应用中,我们常常面临这样的场景:少数类别拥有大量样本(头部类别),而多数类别只有极少样本(尾部类别)。以学...
机器学习
作者小头像 江南清风起 2025-12-23 16:10:56
782
0
0
2025-12-23 16:10:56
782
0
0
总条数:372
10
10
20
50
100
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • ...
  • 38

上滑加载中

https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
作者小头像
作者小头像
快速交付
+ 关注