【愚公系列】《人工智能70年》094-Al的未来(AI威胁论的过去与现在)

💎【行业认证·权威头衔】
✔ 华为云天团核心成员:特约编辑/云享专家/开发者专家/产品云测专家
✔ 开发者社区全满贯:CSDN博客&商业化双料专家/阿里云签约作者/腾讯云内容共创官/掘金&亚马逊&51CTO顶级博主
✔ 技术生态共建先锋:横跨鸿蒙、云计算、AI等前沿领域的技术布道者
🏆【荣誉殿堂】
🎖 连续三年蝉联"华为云十佳博主"(2022-2024)
🎖 双冠加冕CSDN"年度博客之星TOP2"(2022&2023)
🎖 十余个技术社区年度杰出贡献奖得主
📚【知识宝库】
覆盖全栈技术矩阵:
◾ 编程语言:.NET/Java/Python/Go/Node…
◾ 移动生态:HarmonyOS/iOS/Android/小程序
◾ 前沿领域:物联网/网络安全/大数据/AI/元宇宙
◾ 游戏开发:Unity3D引擎深度解析
🚀前言
在 OpenAI发生的,不仅仅是宫斗。

🚀一、AI威胁论的过去与现在
🔴 最严厉的警告:辛顿与“十年灭绝论”
对AGI实现时间的思考,一个重要目的在于警醒人类关注AI发展的深远影响。2024年末,“深度学习之父”杰弗里·辛顿发出了迄今最严厉的警告。他一改以往对AI安全性的泛泛而论,明确指出:如今的AI已在某些方面取代人类智能,人类如同3岁孩童,而AI已长成成年人。他预言,按照此发展速度,AI可能在10年内导致人类灭亡。
此论一出,举世震惊。“十年灭绝”的前景虽难以想象,但出自这位诺贝尔奖得主之口,迫使全球严肃思考AI的终极风险。
📚 智者之言:赫拉利、库兹韦尔与他们的预言
AI威胁人类的言论从未断绝,而一些思想家的著作极大地塑造了公众的认知。
- 尤瓦尔·赫拉利在《未来简史》中提出了一个关键且备受争议的观点:在AI的强烈影响下,大部分人类可能沦为“无用阶级”,只有少数精英能进化成“智神”。尽管此书被《经济学人》抨击为“肤浅、华而不实”,但其观点仍被广泛传播。
- 雷·库兹韦尔在《奇点临近》中则预言,AI将与人类紧密结合,形成人机系统,并大胆预测这一“奇点”将在21世纪40年代中期来临,且时间可能提前。
值得注意的是,赫拉利在2017年接受新华社采访时,对未来的态度实为**“总体乐观”**。他强调,关键在于全球合作,让技术服务于而非奴役人类,并相信人类总能像应对核威胁一样,智慧地直面AI挑战。
🛡️ 主流学界的声音:反对威胁论与历史镜鉴
与媒体热衷渲染的威胁论不同,主流AI学界对此多持反对意见。
- 杨立昆作为深度学习奠基人之一,一直反感AI威胁论。他认为,AI研究者在历史上常常低估制造智能机器的难度,当前的恐慌只是技术浪潮中从盲目乐观到非理性恐惧的周期性阶段。
- 中国AI专家刘峰博士从历史视角分析,指出当下的AI恐惧症,不过是人类“未来不确定恐惧症”的又一次上演。从恐惧日食、火车、电视到“千年虫”,人类对每一项重大新技术都曾产生过类似的恐慌。
💡 理性看待:警告值得倾听,恐惧大可不必
我们可以从历史中获得启示。计算机科学之父阿兰·图灵在1948年就曾沉思,推测未来计算机发展到某个阶段后,人类可能无法理解其工作方式。这番话当时令旁听者“全身打战”。
然而近80年过去,计算机已深入社会每个角落,并未出现当时的恐惧场景。这表明,智者的预言有时会失效,技术的演进路径常超出我们最初的想象。
因此,对于辛顿等人的警告,我们应将其视为确保AI发展走在安全、可控轨道上的重要提醒,但不必陷入无谓的恐慌。历史告诉我们,人类拥有在挑战中学习、适应并最终掌控局面的能力。
- 点赞
- 收藏
- 关注作者
评论(0)