来自未来的信号枪
2023-07-31 14:04:38 | 来源:钛媒体 |
2023-07-31 14:04:38 | 来源:钛媒体 |
图片来源 @视觉中国
(相关资料图)
很久之前,有位朋友问我,现在科技资讯这么发达了,你们还写啊写做什么呢?
我是这么看的。最终能够凝结为资讯的那个新闻点,其实是一系列事情最终得出的结果,而这个结果又会带来更多新的结果。其中这些 " 得出 " 与 " 带来 " 的过程,都是藏在资讯之后的,是隐身的、暧昧的。
如果我们仅仅希望知道个大概,对科技内容的预期仅仅是三五知己闲谈时当个佐料,那么发达的资讯当然足够。但如果你希望以科技为学业、为事业,使之成为自己能够理解和掌握的能力,那么就需要对科技资讯有一个识别、思辨、预判的过程,这些就是脑极体希望提供给大家的。
人类是具有高效想象力的动物,喜欢基于看到的信号来想象全貌。但信号枪下面到底发生了什么,将要发生什么,经常会有点复杂,并且跟我们想象的不太一样。就像诸侯看到狼烟,以为已经形势危急,其实不过是褒姒得到个小礼物。
科技资讯有时候就像是这种信号枪,我们不仅要能看到,还需要甄别和分析。
今天就来选几个新闻,跟大家聊聊信号枪之下,关于未来的不确定性。
要灭绝人类的 AI,该封杀吗?
第一条已经不算是新闻了,但在当时还挺炸裂的。
5 月末,超过 350 名 AI 领域的行业高管、专家和教授签署了一封公开信,警告 AI 可能给人类带来灭绝风险。其实著名者包括括 "ChatGPT 之父 "Open AI 首席执行官山姆 · 奥特曼、DeepMind 创始人、首席执行官戴密斯 · 哈萨比斯等大佬。
于是就有朋友说了,这些做 AI 的都说 AI 要毁灭人类了,咱们还弄他干啥,赶快封杀啊,晚一点《终结者》和《黑客帝国》就要上演了。
但这事换一个角度看,这么多位业界高管提醒要警惕 AI 失控,但其中有哪位从我做起,放弃 AI 事业了吗?显然并没有。
这种警告在整个 AI 发展,乃至科技发展历史上其实屡见不鲜。一方面业内人士对可能存在的失控提请社会关注,是一种分内之事。另一方面这也是欧美当前社会氛围下,符合某某正确的必然表态。
我们惧怕 AI,很大一部分原因都来自科幻文学与电影,但事实上任何产业失序发展都可能带来毁灭性的影响。化工,能源,工业,甚至娱乐业都是如此。规范发展当然重要,但规范不意味着封禁,更不意味恐慌。
火是如此的危险,但学会用火是我们人类告别猿猴形态的标志。
所以,别怕 AI。
免费的大模型来了,就问你们怕不怕?
最近几天还有一个热议话题,就是 Llama 2 开源。这件事在 AI 行业内激起的讨论,似乎比行业外还要大。
其中争议的逻辑很好理解,就是免费、开源的大模型都出现了,你们花那么多钱做的闭源大模型岂不是要打水漂了?可以观察到,一些趁着大模型风口,刚刚进入 AI 行业或者投资 AI 项目的朋友对此非常焦虑。
这其实也是个很难成立的说法。从软件发展史上看,开源仅仅是一种竞争策略,有的领域合适,有的不合适。不是所有软件最后都会走向开源,并且开源大模型有大量存在的问题,比如无法适配大量企业用户的安全、隐私、自主可控需求。同时,开源会导致算法供应商的利润空间下降,服务能力打折,从而无法满足用户需求。仅仅从深度学习算法兴起的这十年来看,主流算法模型也大多是闭源的,
加上开源模型能力普遍不强,因此开源大模型在很长一段时间,都很难给产业秩序带来冲击。具体内容,我们在《大模型,开源干不掉闭源》这篇文章中有详细阐释。
其实对于刚刚加入这个领域的朋友来说,需要焦虑的不是开源冲击,而是大模型就像很多基础软件一样,最后必然是去多留少。如何在这个过程里确保自身价值不受损害,才是值得关注的问题。
马斯克出手了,欧美互联网大洗牌?
这两天另一个热议的话题,是马斯克宣布了自己的超级 X 计划。随着推特改名的步伐加快,各界普遍认为马斯克要将 " 新推特 " 变成 " 微博 + 微信 " 模式的超级终端。
出于对马斯克搞事能力的信服,很多朋友认为接下来欧美互联网即将大洗牌,甚至有可能给中国互联网带来某种程度的影响。
对此我个人是比较谨慎的。如果我们排除马斯克的个人光环,仅仅来看他参与的项目,会发现除了特斯拉之外,大多数项目都进展不快,商业成果不佳。当然,这也与这些项目普遍过于超前有关系。而推特的迭代,不仅需要面对来自 Meta 的近身肉搏,(这里插一句,也不知道两位 CEO 的近身肉搏什么时候上演)。更需要面对谷歌、苹果的压力。
在欧美互联网的超级系统层面,最具有垄断力的其实不是某个终端,而是多终端卡死底层位置的谷歌。其无所不在的程度连苹果都难以望其项背。
有理由相信,在马斯克本人巨大的流量和号召力,新推特会得到剧烈的短期增长。但长期竞争却很可能是 " 超级 X" 不太擅长的。
当然,新推特必然会纳入更多 xAI 带来的智能化能力,这个点是非常具有想象力,也是很可能成为中国科技界下一轮抄作业目标的。
GPT-4 变笨了,AI 还行吗?
最近 AI 还有一个不算利好的消息,就说 GPT-4 变笨了。
7 月 20 日, 斯坦福大学和加州大学伯克利分校的研究团队提出,对比 3 月和 6 月的 GPT-4 版本,发现其在数学问题、代码生成、视觉推理任务上都有下降。
很快,openAI 就在博客上回复了这个观点,表示虽然大多数指标都有所改善,但 GPT-4 在某些任务上可能表现会更差。
于是又有很多声音出现,一部分觉得扛旗的 GPT-4 都不行了,AI 是不是没劲了?另一部分声音倾向阴谋论,认为这是 openAI 故意的。
我们当然不知道这个现象背后的真实问题在哪,但可以讨论一个相对积极的方向。就是 GPT 本身是基于反馈再优化的模型机制,因此当回馈量下降,尤其是高质量回馈缺乏之后,其本身是可能能力变差的。
而走向这个方向的原因,或许是因为 openAI 越来越复杂、严苛的使用策略,以及越来越多的优质大模型正式开放,分流了聚焦在 GPT 上的流量。
有教师朋友跟我说,第一名分数领先太大,其实对整个班级的学习并不好。一个 AI 变笨了,说不定意味着全班 AI 普遍变聪明了?
妙鸭相机火了,该 All in 证件照吗?
回到国内,值得欣喜的事情是终于有 AI 应用火起来了。妙鸭相机在短时间内聚集了极大关注,当然也引发了一系列讨论。
这些讨论中,我们感觉最没必要的一种,是认为 AI 的价值体现在证件照上非常明显,所以咱们现在感觉投入,去革海马体的命吧。
这属于标准的只见树木,不见森林,稍微动脑想象就会发现,大模型能够带来的应用变革数不胜数,生成写真证件照仅仅是其中微小的一个。
预期看到了证件照,就赶紧 all in,不如去想象大模型的底层逻辑、应用成本、商业模式,然后去发现发现还有哪些类似的需求可以填补。
大模型原生应用,是这一轮 AI 风口能带来的最大想象力,可别轻信忽悠,把大好机会黏在了一张证件照上。
总之,各种信息背后,充斥着诸多来自未来的不确定性,我们需要长久地审视,千万别把一时当金科,把热闹当玉律。
见其所见,知其略知,达所未达,是我们混迹智能时代的最佳状态。
关键词: