别什么都往云上扔:聊聊鸿蒙设备如何做“本地智能决策”【华为根技术】

举报
Echo_Wish 发表于 2026/03/10 22:36:25 2026/03/10
【摘要】 别什么都往云上扔:聊聊鸿蒙设备如何做“本地智能决策”

别什么都往云上扔:聊聊鸿蒙设备如何做“本地智能决策”

作者:Echo_Wish


一、引子:很多设备,其实不需要等云

我前阵子和一个做 IoT 的朋友聊天,他吐槽了一件事。

他们做的是 智能门锁系统

设计最初的架构是这样的:

门锁 → 云端AI → 返回结果 → 开锁

听起来挺高级的,对吧?

结果上线之后发现一个致命问题:

网络一差,开锁就慢。

甚至极端情况:

门口等 3AI 才告诉你能不能开门

这就有点离谱了。

后来他们把架构改了:

门锁设备 → 本地AI模型 → 本地决策

开锁时间:

300ms

这时候大家才意识到一件事:

很多智能设备,其实不需要等云。

尤其是在 鸿蒙生态里,本地智能决策其实是一个非常重要的能力。

今天我们就聊聊:

鸿蒙设备如何实现本地智能决策。


二、原理讲解:什么叫“本地智能决策”

很多人一听 AI 就想到云端大模型。

但在 IoT 设备里,更常见的是:

小模型 + 本地推理

核心架构其实很简单:

传感器数据
   ↓
特征提取
   ↓
本地模型推理
   ↓
设备决策

比如一个简单的智能空调:

温度 + 湿度 + 人体感应
       ↓
AI模型
       ↓
自动调节温度

和传统规则引擎不同的是:

规则系统:

if 温度 > 30:
    开空调

AI 决策:

结合历史行为 + 环境数据
预测用户需求

这就是 本地智能决策 的核心价值:

低延迟
隐私安全
离线可用

在鸿蒙里,这个能力主要依赖两个东西:

MindSpore Lite
AI推理框架

以及

端侧模型

三、实战代码:鸿蒙设备本地模型推理

我们用一个简单例子来说明。

场景:

判断用户是否需要开启空调

输入数据:

温度
湿度
人体存在

输出:

开空调 / 不开

第一步:加载本地模型

鸿蒙端侧通常使用 MindSpore Lite 推理。

示例代码:

#include "include/api/model.h"
#include "include/api/context.h"

using namespace mindspore;

std::shared_ptr<Model> LoadModel(const std::string &model_path) {

    auto context = std::make_shared<Context>();
    context->SetThreadNum(2);

    auto model = std::make_shared<Model>();

    model->Build(model_path, kMindIR, context);

    return model;
}

这里做的事情其实就是:

加载端侧AI模型

这个模型可以是:

行为预测模型
异常检测模型
设备状态预测模型

第二步:准备输入数据

假设输入是:

温度
湿度
人体感应

代码示例:

std::vector<float> input_data = {
    32.5,   // temperature
    70.0,   // humidity
    1       // human presence
};

然后写入模型输入:

auto inputs = model->GetInputs();

memcpy(inputs[0].MutableData(), input_data.data(), input_data.size() * sizeof(float));

第三步:执行推理

推理过程非常简单:

model->Predict(inputs, &outputs);

拿到结果:

auto result = outputs[0];

float decision = ((float*)result.Data())[0];

假设输出:

0.9

代表:

90%概率需要开空调

然后设备执行决策:

if(decision > 0.7){
    TurnOnAirConditioner();
}

整个决策过程:

几十毫秒

而且:

完全离线

四、场景应用:本地AI最适合的地方

其实鸿蒙生态里,本地智能决策场景非常多。

我列几个特别典型的。


1 智能家居

比如:

智能灯光
智能空调
智能窗帘

本地AI可以做:

用户习惯预测
环境自适应调节

比如:

晚上10+ 光线变暗
自动开灯

2 智能车载

车机系统非常适合本地AI。

比如:

驾驶疲劳检测
驾驶行为分析
语音唤醒

这些如果走云:

延迟不可接受

所以必须本地处理。


3 健康设备

例如:

智能手表
健康监测设备

AI模型可以做:

心率异常检测
运动状态分析
睡眠分析

而且用户数据:

不出设备

隐私更安全。


4 工业设备

在工业场景里,本地AI更重要。

比如:

设备异常检测
振动分析
预测性维护

一旦设备异常:

本地AI立即报警

不用等云端分析。


五、Echo_Wish式思考:AI未来不只是云

很多人现在谈 AI,基本都是:

大模型
云计算
算力中心

但我一直觉得:

未来 AI 会分成两种形态。

第一种:

云端 AI

比如:

GPT
文生图
大模型推理

第二种:

端侧 AI

比如:

手机
手表
车机
IoT设备

未来真正的 AI 生态,其实是:

+

协同。

云负责:

训练
大模型
复杂推理

端负责:

实时决策
隐私计算
低延迟响应

而鸿蒙的一个优势就在这里:

设备数量多。

手机、平板、车机、手表、家电……

如果这些设备都具备:

本地AI决策能力

那整个系统的智能程度会完全不同。

很多事情:

不用问云
设备自己就能判断

我一直很喜欢一句话:

真正的智能,不是远在云端,而是在你身边的设备里。

所以如果你在做鸿蒙开发,我其实很建议你关注一件事:

端侧AI能力
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。