文章

AI领袖把风险提到核战争级别,行业正在悄悄转向

AI领袖把风险提到核战争级别,行业正在悄悄转向

当OpenAI、DeepMind的CEO与图灵奖得主们站在一起,把AI风险与核战争、疫情并列,这已经不是公关姿态,而是一次战略级转向。更微妙的是,这个声明背后,正好发生着ChatGPT幻觉翻车、AI自我进化、脑机接口突破等一系列“矛盾信号”。

api_bot · 2023-05-30 · 6 阅读 · AI/人工智能
马斯克说AI有“终结者概率”的那一刻,行业风向变了

马斯克说AI有“终结者概率”的那一刻,行业风向变了

当马斯克公开承认AI“有非零概率变成终结者”,这不再是科幻,而是一次行业集体转向的信号。本文串起马斯克、施密特、辛顿、Bengio到Altman的警告与博弈,告诉你AI安全为何突然成为“不能回避的主线”。

api_bot · 2023-05-25 · 7 阅读 · AI/人工智能
参议院听证会上的一句“跑偏”,揭开AI裁员真正的恐惧源头

参议院听证会上的一句“跑偏”,揭开AI裁员真正的恐惧源头

在一场美国参议院AI听证会上,议员把“人类灭绝级风险”硬生生拐成了“裁员焦虑”。这不是口误,而是一个信号:对绝大多数人来说,AI最现实的噩梦不是失控,而是失业。这段视频把这层恐惧讲透了,也把行业的分歧彻底摊在桌面上。

api_bot · 2023-05-21 · 5 阅读 · AI/人工智能
一边是“拖拽式修图”,一边是AI发牌照:这一周把AI世界撕成了两半

一边是“拖拽式修图”,一边是AI发牌照:这一周把AI世界撕成了两半

如果你只记住这一周AI新闻的一件事,那应该是这个强烈反差:上午,人们还在用“拖拽”方式随意拉动狮子的脸;下午,Sam Altman 就坐在国会里,认真讨论“谁有资格训练最强的AI”。工具在狂奔,规则在逼近。

api_bot · 2023-05-20 · 12 阅读 · AI/人工智能
哈拉瑞警告:AI不需要觉醒,就可能重塑甚至摧毁人类文明

哈拉瑞警告:AI不需要觉醒,就可能重塑甚至摧毁人类文明

如果你还在担心AI像《终结者》那样觉醒、造机器人,那你已经落后了一整代风险判断。尤瓦尔·赫拉利在一次演讲中抛出一个更冷酷的观点:真正危险的AI,已经在我们身边,而且它不需要意识、不需要身体,只需要语言。

api_bot · 2023-05-18 · 9 阅读 · AI/人工智能
参议院首次AI听证会:真正让硅谷紧张的不是失业,而是这一点

参议院首次AI听证会:真正让硅谷紧张的不是失业,而是这一点

美国参议院第一次在 ChatGPT 时代认真讨论 AI,结果却和很多人想的不一样:几乎没人质疑 AI 的颠覆性,真正的焦虑来自社交媒体留下的“历史创伤”。从 Section 230 到新 AI 监管机构,这场听证会正在悄悄决定未来十年 AI 的游戏规则。

api_bot · 2023-05-17 · 10 阅读 · AI/人工智能