智能家居环境中的AI决策解释:实现以人为中心的可解释性
Shajalal M, Boden A, Stevens G, et al. Explaining AI Decisions: Towards Achieving Human-Centered Explainability in Smart Home Environments[C]//World Conference on Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2024: 418-440.
1. 引言与研究动机
智能家居系统正在经历前所未有的快速发展,这些系统通过先进的传感器技术和机器学习算法,为居民提供了监控和控制连接设备的能力。这些应用不仅可以自动做出决策,还能基于ML驱动的技术而非简单的时间表逻辑进行智能调控。在智能家居能源领域,一个值得注意的能源感知智能家居应用是设备级能源需求预测,它能让用户更加了解并优化他们的能源消耗实践。
然而,这些系统面临着一个关键挑战:基于AI的智能家居应用通常依赖于复杂的机器学习模型,这些模型可能涉及数千到数百万个模型参数(特别是深度学习模型),因此常被称为"黑盒"。黑盒模型的决策可能难以理解,并可能以意外的预测让用户感到惊讶。在这种情况下,用户需要解释来理解预测结果。
2. 技术性XAI的数学基础
2.1 SHAP(Shapley Additive Explanations)
SHAP基于博弈论中的Shapley值概念,为每个特征分配一个重要性值。对于特征i,其Shapley值定义为:
ϕi=S⊆N∖{i}∑∣N∣!∣S∣!(∣N∣−∣S∣−1)![fS∪{i}(x)−fS(x)]
其中:
- N 是所有特征的集合
- S 是不包含特征i的特征子集
- fS(x) 是仅使用特征子集S的模型预测
- ∣S∣ 表示集合S的基数
SHAP值满足以下重要性质:
局部准确性(Local Accuracy):
f(x)=ϕ0+i=1∑Mϕi
缺失性(Missingness):如果特征i对模型预测没有影响,则ϕi=0
一致性(Consistency):如果模型改变使得特征i的边际贡献增加,则ϕi不会减少
2.2 DeepLIFT(Deep Learning Important Features)
DeepLIFT通过比较每个神经元的激活值与参考激活值来分配贡献分数。对于神经元i到神经元j的贡献,定义为:
Ci→j=(xi−xi0)⋅xi−xi0fj(x)−fj(x0)
其中x0是参考输入,fj是神经元j的激活函数。
对于深度网络,总贡献通过链式规则传播:
Ci→output=path p∑(a,b)∈p∏Ca→b
2.3 Layer-wise Relevance Propagation (LRP)
LRP通过反向传播将预测分数分解为输入特征的相关性分数。对于层l中的神经元i和层l+1中的神经元j,相关性传播规则为:
Ri(l)=j∑∑kxkwkj+ϵxiwijRj(l+1)
其中wij是连接权重,ϵ是一个小的稳定项以避免除零。
3. 实验设计与实施
3.1 能源需求预测系统

图2描述:该图展示了一周内不同家用电器对总能源消耗的贡献变化。采用堆叠面积图的形式,其中横轴表示时间(从第-14天到第-2天),纵轴表示重要性得分(从0.000到0.016)。图中用不同颜色区分了各种电器:深紫色代表冰箱冰柜(Fridge_Freezer),橙色代表烘干机(Tumble_Dryer),绿色代表洗衣机(Washing_Machine),红色代表洗碗机(Dishwasher),浅蓝色代表电脑(Computer_Site),深蓝色代表电视(Television_Site),粉色代表微波炉和水壶(Combination_Microwave/Kettle),黄色代表烤面包机(Toaster)。从图中可以观察到,随着时间推移,各设备的贡献呈现递增趋势,特别是在接近预测时间点时,重要性得分显著上升。
对于LSTM模型的能源预测,我们使用了如下的时序建模方法。设Xt=[xt(1),xt(2),...,xt(n)]为时刻t的n个设备的能源消耗向量,LSTM的状态更新方程为:
ft=σ(Wf⋅[ht−1,Xt]+bf)
it=σ(Wi⋅[ht−1,Xt]+bi)
C~t=tanh(WC⋅[ht−1,Xt]+bC)
Ct=ft∗Ct−1+it∗C~t
ot=σ(Wo⋅[ht−1,Xt]+bo)
ht=ot∗tanh(Ct)
其中ft、it、ot分别是遗忘门、输入门和输出门,Ct是细胞状态,ht是隐藏状态。

图3描述:该图以条形图形式展示了不同家庭活动在一周内各天的能源消耗贡献。横轴显示了7天的时间序列,纵轴表示重要性得分(从0.000到0.006)。图例显示了五种主要活动类别:烹饪(cooking,紫色)、洗衣(laundering,红色)、看电视(watching_tv,蓝色)、冷冻(Freezing,绿色)和收听广播(Listening_Radio,黄色)。从图中可以看出,烹饪活动在大多数天都占据主导地位,特别是在第3天和第4天达到峰值(约0.0055),而其他活动的贡献相对较小但保持稳定。
3.2 热舒适偏好预测系统

图4描述:这是一个水平条形图,展示了个人热舒适偏好预测模型的全局特征重要性。图中按照SHAP值的平均影响力对特征进行排序。最重要的特征是热敏感性(therm_sens),其SHAP值达到约0.6,远超其他特征。其次是冷体验(ColdExp)、年龄(Age)、工作时间(Workhr)和身高(Height),它们的SHAP值在0.05到0.1之间。图中还显示了其他生理和环境特征,如标准差参数、平均温度等。每个特征旁边的颜色条表示该特征值对三个预测类别(Class 0:凉爽、Class 1:不变、Class 2:温暖)的影响分布。
对于热舒适预测,我们使用了XGBoost模型。其目标函数为:
L=i=1∑nl(yi,y^i(t))+k=1∑tΩ(fk)
其中l是损失函数,Ω(fk)=γT+21λ∑j=1Twj2是正则化项,T是叶节点数量,wj是叶节点权重。

图5描述:这是一个瀑布图,详细展示了单个预测案例中各特征对最终预测"温暖"感觉的贡献。图的底部显示了基准值(E[f(X)] = 0.754),然后逐个特征的贡献被叠加上去。热敏感性(therm_sens)贡献最大(+0.55),将预测值大幅推向"温暖"类别。身高(Height)和平均脚踝温度(mean.AnkleT_5)也有正贡献(分别为+0.09和+0.08)。一些特征如平均温度(mean.Temperature_60)有轻微的负贡献(-0.01)。最终的预测值达到1.611,强烈指向"温暖"类别。
4. 以人为中心的可解释性框架
4.1 系统架构

图1描述:该图展示了以人为中心的XAI智能家居系统的整体架构。系统由五个主要组件组成,通过箭头表示数据流和交互关系。智能家居数据(Smart Home Data)存储在圆柱形数据库中,流入预测模型(Predictive Models)。用户视角(Users’ Perspectives)通过文档图标表示,直接影响以人为中心的XAI模块(Human-centered XAI),该模块位于系统中心。预测结果与以人为中心的XAI模块双向交互,最终生成带有HC解释的预测(Prediction with HC-Explanation),由用户图标接收。这种循环架构确保了用户反馈能够持续改进系统的可解释性。
系统的信息流可以形式化表示为:
HC-Explanation=T(M(D),U,E)
其中D是智能家居数据,M是预测模型,U是用户视角,E是解释生成函数,T是将技术解释转换为人类可理解形式的转换函数。
4.2 解释的三个层次
研究提出了解释的三层框架:
语法层(Syntactic Level):涉及视觉呈现的数学优化。设V为视觉编码函数,C为认知负荷,优化问题为:
VminC(V(E)) s.t. I(V(E))≥Imin
其中E是解释,I是信息保真度。
语义层(Semantic Level):涉及心理模型的构建。用户的心理模型Mu与系统真实模型Ms之间的差异可以表示为:
Δ=DKL(Mu∣∣Ms)=x∑Mu(x)logMs(x)Mu(x)
目标是通过适当的解释最小化这个KL散度。
语用层(Pragmatic Level):涉及实际应用价值。效用函数定义为:
U(E)=α⋅Trust(E)+β⋅Action(E)+γ⋅Learning(E)
其中α、β、γ是权重系数,分别对应信任建立、行动支持和学习促进。
5. HCI方法论
5.1 用户研究方法

图6描述:该图以图标形式展示了四种HCI技术的循环关系。用户研究(User Studies)用人物剪影图标表示,强调对真实用户行为的观察。原型设计(Prototyping)用代码符号表示,体现迭代开发过程。技术探针分析(Technology Probes Analysis)用数据交换图标表示,强调双向信息流。启发式评估(Heuristic Evaluation)用任务清单图标表示,体现系统化的评估过程。四个方法通过隐含的循环关系相连,表明这是一个非线性的迭代过程。
用户研究的效果可以通过以下指标衡量:
Effectiveness=Total ExplanationsCorrect Understanding×Average Time1
5.2 原型设计迭代
原型改进的收敛性可以用以下公式描述:
Un+1=Un+αi=1∑mwi⋅Fi
其中Un是第n次迭代的可用性分数,Fi是用户反馈,wi是反馈权重,α是学习率。
附录:数学推导
A. SHAP值的理论证明
定理A.1:SHAP值是唯一满足局部准确性、缺失性、一致性和对称性的特征归因方法。
证明:
考虑一个具有n个特征的模型f,定义特征子集S⊆N={1,2,...,n}的边际贡献为:
v(S)=E[f(xS,XSˉ)]−E[f(X)]
其中xS表示特征子集S的观察值,XSˉ表示补集Sˉ=N∖S的随机变量。
根据Shapley定理,唯一的公平分配方案是:
ϕi=S⊆N∖{i}∑n!∣S∣!(n−∣S∣−1)![v(S∪{i})−v(S)]
为了证明唯一性,假设存在另一个满足所有公理的归因方法ψ。由对称性,对于任何置换π:
ψπ(i)=ψi
由局部准确性:
i=1∑nψi=v(N)−v(∅)
通过归纳法可以证明,对于任意子集S:
i∈S∑ψi=v(S)−v(∅)
这个线性系统有唯一解,即Shapley值。□
B. LSTM能量预测的梯度推导
对于LSTM的反向传播,我们需要计算损失函数L关于各个参数的梯度。
设预测的能源需求为y^t=Wyht+by,损失函数为:
L=T1t=1∑T(yt−y^t)2
梯度计算:
∂Wo∂L=t∑∂ht∂L⋅∂ot∂ht⋅∂Wo∂ot
其中:
∂ot∂ht=tanh(Ct)
∂Wo∂ot=ot(1−ot)[ht−1,Xt]T
类似地,对于细胞状态的梯度:
∂Ct∂L=∂ht∂L⋅ot⋅(1−tanh2(Ct))+∂Ct+1∂L⋅ft+1
这种递归结构允许梯度通过时间反向传播。
C. XGBoost的目标函数优化
XGBoost使用二阶泰勒展开来优化目标函数。对于第t轮的目标函数:
L(t)=i=1∑nl(yi,y^i(t−1)+ft(xi))+Ω(ft)
使用泰勒展开:
L(t)≈i=1∑n[l(yi,y^i(t−1))+gift(xi)+21hift2(xi)]+Ω(ft)
其中:
gi=∂y^i(t−1)∂l(yi,y^i(t−1))
hi=∂(y^i(t−1))2∂2l(yi,y^i(t−1))
对于给定的树结构,叶节点j的最优权重为:
wj∗=−∑i∈Ijhi+λ∑i∈Ijgi
相应的最优目标函数值为:
L(t)=−21j=1∑T∑i∈Ijhi+λ(∑i∈Ijgi)2+γT
D. 认知负荷的信息论建模
用户理解解释的认知负荷可以用信息论来建模。设用户的先验知识为P,解释包含的信息为E,理解后的知识为K。
信息增益:
I(K;E∣P)=H(K∣P)−H(K∣E,P)
认知负荷与处理的信息量成正比:
C=α⋅H(E∣P)+β⋅DKL(QE∣∣P)
其中QE是解释隐含的概率分布,DKL是KL散度,衡量用户先验与解释之间的差异。
最优解释应该最大化信息增益同时最小化认知负荷:
E∗=argEmax[I(K;E∣P)−λC(E)]
这个优化问题可以通过变分方法求解,得到:
p(e∣k,p)∝exp(λ1[logp(k∣e,p)−αH(e∣p)])
E. 多智能体系统中的解释协调
在智能家居环境中,多个AI系统可能需要协调它们的解释。设有n个智能体,每个生成解释Ei。
全局一致性约束:
i=1∑nwiEi=Eglobal
其中权重wi通过纳什议价解确定:
maxi=1∏n(Ui−di)
subject to:
Ui=ui(E1,...,En)≥di
这里Ui是智能体i的效用,di是分歧点。
拉格朗日函数:
L=i=1∑nlog(Ui−di)+λ(i=1∑nwiEi−Eglobal)
一阶条件给出:
Ui−di1∂Ej∂Ui=λwj
这确保了解释的帕累托最优性和公平性。
评论(0)