银湖资本会将Altera带向何方?

英特尔近期宣布将其FPGA子公司Altera 51%的股权出售给技术投资公司银湖资本。此交易对Altera的估值约为87.5亿美元(英特尔当初在2015年以167亿美元收购Altera),意味着估值较收购时几乎腰斩。这一交易使Altera在并入英特尔9年后重新独立运营。

 

 

银湖资本(Silver Lake)是一家全球知名的私募股权投资公司,专注于科技行业的后期投资及杠杆收购,每次买卖几乎都能抓到最合适的点,收获颇丰。银湖在收购历史上有很多成功的经典案例:

1、Skype的收购及出售(2009-2011年)

2009年,银湖资本联合A16z、加拿大退休金计划等组成投资集团,以19亿美元从eBay手中收购Skype,控股约65%。收购后,银湖资本帮助Skype解决了与创始人的法律诉讼,并投入资金进行研发,推动其业务增长。2011年,Skype以85亿美元被微软收购,银湖资本在18个月内实现了资金增长两倍。

2、戴尔公司私有化及收购EMC(2013-2016年)

2013年,银湖资本联合戴尔公司创始人迈克尔·戴尔,以250亿美元将戴尔公司私有化,这是金融危机以来美国市场上最大的杠杆收购。2015年,银湖资本和戴尔联手,以670亿美元收购了计算机存储巨头EMC,成为当时有记录以来最贵的科技收购案。

3、收购恩智浦半导体(2006年)

2006年,银湖资本联合其他财团以64亿欧元收购飞利浦半导体部门80.1%的控股权,新公司更名为“恩智浦半导体”。此次收购帮助恩智浦半导体在汽车电子、移动支付等领域取得了重要发展。

4、收购安捷伦半导体部门(2005年)

2005年,银湖资本与KKR联合收购安捷伦半导体部门,后更名为安华高。此后,安华高通过收购LSI Logic和博通等公司,进一步巩固了其在半导体领域的地位。

除了银湖资本之外,还有几家公司曾对收购英特尔旗下的 Altera 表现出兴趣,但随着收购交易水落石出,这些潜在收购方均已退出竞争:

1、莱迪思半导体(Lattice Semiconductor)

– 曾试图收购:莱迪思半导体曾考虑对 Altera 发起收购要约,并与顾问合作寻求私募股权投资公司的支持。

– 放弃原因:莱迪思的规模相对较小,其市值仅为74.8亿美元,而英特尔2015年收购Altera时的交易金额高达170亿美元。莱迪思获得Altera控制权的难度较大,因此这一合作最终不了了之。

2. 贝恩资本(Bain Capital)

– 曾试图收购:贝恩资本是潜在收购方之一,曾准备竞争收购英特尔可编程芯片业务Altera的少数股权。

– 放弃原因:在银湖资本与英特尔达成独家谈判并最终敲定收购协议后,贝恩资本的收购计划自然终止。

3. Francisco Partners

– 曾试图收购:Francisco Partners也曾被列入英特尔Altera业务单元的下轮竞标名单。

– 放弃原因:随着银湖资本在2025年2月进入独家谈判阶段并最终达成收购协议,Francisco Partners的收购计划也随之结束。

随着银湖资本与英特尔达成协议,Altera的CEO Sandra Rivera也已确认,该公司正朝着2026年IPO的目标迈进,且未来不会被整体出售。(意味着这次银湖不是某家的白手套)新任 CEO Raghib Hussain 将于 2025 年 5 月 5 日正式上任。Hussain 拥有丰富的行业经验,曾在 Marvell 担任产品与技术总裁,并联合创办 Cavium。

重获独立身份后,Altera将以“纯FPGA厂商”的姿态重新参与市场竞争。这使其成为目前全球最大的纯FPGA供应商(因为主要竞争对手赛灵思已并入AMD)。

我之前写过几篇文章,在Altera嫁入Intel的九年间,FPGA市场发生了很多变化,Altera受到了Intel的掣肘,在战略和产品上都经历了“迷失的九年”。

参考我之前的文章:

FPGA圈大地震?聊一聊Lattice收购Altera

Intel砸锅卖铁,Altera沦为弃子了吗?

即使重新独立,Altera也没机会了

独立FPGA赛道已不复存在

英特尔当年重金收购Altera本希望将FPGA与CPU紧密结合,提供异构计算优势,以抵御来自GPU和ARM阵营的竞争。如今的分手,意味着英特尔当初这个战略目标已经完全放弃。GPU和ARM分别在数据中心和边缘端赢得统治地位,赛灵思凭着和ARM以及AMD的整合,通过FPGA加速卡占到了一部分数据中心份额,但是整体上FPGA作为一个独立的赛道,在数据中心市场和边缘AloT市场,基本上已经不复存在。

目前FPGA市场的主要玩家除了Altera以外就是三家公司,他们都有清晰的定位:

1、AMD/Xilinx

市场领导者,AMD在FPGA/可编程逻辑市场占据了最大份额。

2、Microchip

通过收购Microsemi掌握了中等规模FPGA市场,特别是在航空航天、国防和安全应用上有一定优势(其FPGA可满足抗辐照等特殊需求)。

3、Lattice

专注低功耗小容量FPGA,布局于IoT终端、消费电子等领域。尽管莱迪思规模较小,但在其细分市场具有竞争力。

Altera独立后,到底是定位主打哪个市场,高端、高可靠性还是低功耗市场?还是全部都打?目前似乎没有人能说得清楚,据Altera自己表示,将更加灵活地调整战略,特别是在 AI 驱动的新兴领域,如边缘计算和机器人技术中寻找新的增长点,也许这是其在2026年IPO的重要故事。

不过无论如何,Altera独立运营后拥有了自主决策的权力,在技术路线选择上不再受到Intel的制约。以前Altera在FPGA中异构ARM或者其他非X86方案时可能不太方便,现在如果市场和客户需要,在SoC FPGA中整合ARM甚至RISC-V架构,都不再有障碍了。

AI处理器全景解析:从CPU到RPU的算力分工图谱

从手机刷脸解锁到ChatGPT秒回复杂问题,从自动驾驶识别路况到云端大模型训练,AI技术的落地离不开各类处理器的算力支撑。随着AI应用场景不断丰富,算力体系已进入“专芯专用”的分工时代,CPU、GPU、TPU、NPU等各类处理器各司其职,构建起从终端到云端的完整算力网络,共同支撑AI时代的高效运转。

 

 

CPU作为AI系统的“全能管家”,承担统筹调度核心职责。如同企业CEO,CPU无需参与基层重复计算,却负责制定战略、分配资源、协调其他处理器协同工作。其核心数量较少(常见4-64核),但单核性能极强,缓存层级丰富,擅长复杂逻辑判断与串行计算,单精度算力通常在几十到几百GFLOPS。在AI场景中,CPU主要负责小型推理任务、大模型训练的资源分配与数据格式转换,以及经典机器学习算法的原型开发,是AI系统不可或缺的核心枢纽,但并行算力不足的短板,使其无法承担大规模模型训练任务。

GPU作为AI训练的“超级工厂”,是当前大模型算力的核心来源。采用“众核架构”的GPU,核心数量可达数千甚至数万,如NVIDIA RTX 50系列配备超20000个CUDA核心,搭配Tensor Cores支持混合精度计算,单卡AI算力可达数百TFLOPS,高带宽显存(HBM)能高效存储海量模型参数,完美适配深度学习的矩阵运算需求。其应用场景集中在CNN、Transformer等大模型训练、大规模数据并行处理及高并发AI推理,是AI绘画、智能客服等场景的核心算力支撑,但高功耗(高端型号超400W)、串行任务效率低的问题,限制了其在轻量场景的应用。

NPU作为设备端AI的“节能专家”,聚焦边缘场景低功耗推理。模仿人脑神经元连接模式的NPU,内置专用乘加单元(MAC),支持INT4/FP8低精度计算,在2-5W的低功耗下实现几十TOPS的算力,2025年旗舰手机NPU能效较前代提升45%。其核心应用场景包括手机端Face ID解锁、AI摄影优化,智能摄像头异常检测、智能手表健康预警等边缘设备实时推理任务,仅支持推理、依赖厂商软件生态的特性,使其成为终端AI的专属算力单元。

其他专用处理器则在细分场景构建独特优势。Google TPU作为云端定制引擎,专为TensorFlow框架优化,通过大量矩阵乘法单元实现高效张量运算,在Gemini大模型训练、Google搜索语义分析中发挥核心作用,能效比远超同级别GPU,但通用性极差,仅适配Google生态。Graphcore IPU聚焦大模型内存瓶颈,采用“智能内存处理”架构,将计算单元与内存紧密结合,擅长处理Transformer架构的稀疏计算需求。APU则作为CPU与GPU的融合体,主打消费级场景性价比,适配轻薄本AI办公、家庭智能设备简单推理等轻量需求,形成多元化算力补充。

AWS Inferentia:专为AI推理而生的成本优化利器

在生成式AI规模化落地过程中,推理环节的成本控制与性能平衡成为企业核心诉求。AWS自主设计的Inferentia芯片,以“高性能+低成本”为核心定位,在Amazon EC2实例中构建起高效的深度学习推理解决方案,成为众多企业部署AI应用的优选算力支撑。

 

 

Inferentia芯片历经两代迭代,性能与成本优势持续升级。第一代Inferentia芯片为Amazon EC2 Inf1实例提供支持,与同类实例相比,吞吐量提升多达2.3倍,每次推理成本降低70%,已被Finch AI、Sprinklr、Amazon Alexa等客户广泛采用,验证了其在实际场景中的实用性。升级后的Inferentia2芯片实现性能跨越式提升,吞吐量较初代提高4倍,延迟低至前者的1/10,基于该芯片的EC2 Inf2实例成为首个支持横向扩展分布式推理的推理优化实例,通过芯片间超高速连接,可高效部署大语言模型(LLM)、潜在扩散模型等复杂模型。

硬件参数的优化的是Inferentia竞争力的核心支撑。Inferentia2芯片搭载两个第二代NeuronCore,每个芯片支持高达190万亿次浮点运算(TFLOPS)的FP16性能,配备32GB HBM内存,较初代实现内存容量4倍、内存带宽10倍的提升,为处理海量模型参数提供坚实基础。在数据类型支持上,Inferentia2新增FP32、TF32及可配置FP8(cFP8)类型,配合AWS Neuron SDK的自动转换功能,可将高精度FP32模型自动转换为低精度格式,在保障准确性的同时优化性能,无需额外进行低精度再培训,大幅缩短上市时间。

生态适配与场景落地能力进一步放大了Inferentia的价值。Neuron SDK与PyTorch、TensorFlow等主流机器学习框架原生集成,开发者可沿用现有代码与工作流程,降低迁移成本,避免供应商绑定。在实际应用中,Leonardo.ai通过采用Inferentia2,在不牺牲性能的前提下将成本降低80%,彻底重构价值主张;Metagenomi借助该芯片将大规模蛋白质设计成本降低56%;NetoAI实现300-600毫秒的低推理延迟,为实时AI服务提供保障。此外,Inferentia2还针对动态输入大小、自定义运算符进行硬件优化,支持随机舍入技术,兼顾高性能与高精度,同时Inf2实例较同类产品实现50%的性能功耗比提升,助力企业达成可持续发展目标。

AI巨头的惊人数字

在上海开世界人工智能大会(WAIC),刚好看了一份小摩(JP Morgan)发布了关于OpenAI的报告,就把看到的一些基础信息分享给大家。

虽然不知道这家公司会不会上市(公司性质上有点特殊),但是它大概率会成为美股七巨头一样的科技巨无霸。

OpenAI成立于2015年,到现在刚好十年,员工数大概4500人(2025年3月24日的数据,后面提及的数字,皆是这个截止日),总用户8亿,占世界人口的10%,每周活跃用户数是5亿,支持57种语言,并在188个国家和地区提供服务。

 

 

公司目前的估值大概是3000亿美金,历史上总共募资了639亿美金,主要的投资方有微软和软银。不过成立之初的公司是以非营利为目标的,2019年改成了“有封顶的盈利型”公司,2025年又有计划改成公益公司(PBC),细节就不展开了。

大家记得之前提到订阅公司的一个关键指标叫‌年经常性收入(ARR),可以简单理解为公司可以获得的一年订阅收入。

而ChatGPT的ARR目前已经到了72亿美元:

72亿美元是516亿元人民币,远超中国一众公司,一个是产品的确好,第二个是全球性市场,公司产品一发布就是面向全球用户,所以不同视野和定位的公司,天花板很不一样。

过去中国的大部分企业在创立之初只是服务于国内市场,当国内市场卷的不行了,才想起来去海外,当然这和市场、创业人的自身情况都有关系,我相信未来会有越来越多的中国企业,在成立之初就定位全球市场。

之前的文章中也多次提及投资上的一个基础逻辑,那就是投资要投资龙头,为什么?

因为其他公司有的,龙头公司有;其他公司没有的,龙头公司也有。如果你投资非龙头公司,一定要问一个问题:为什么龙头公司做不出来,一个小公司能做出来?考虑清楚了这个问题,也可以投小公司。

当然,这不是绝对的事情,只是投资最后要落到一个成功概率的问题上,出手十次成功七次,和出手十次成功三次,那结果是不一样的。

OpenAI是大模型行业的领头羊,在过去 2 年里,该行业18%的投资流向了这一家公司:

其他还拿到比较大的一级市场投资的有xAI(马斯克的AI公司)和Anthropic。

从AI应用的下载量来看也是如此,ChatGPT一个APP下载量占比整个AI APP的70%(不过统计里面排除了中国和俄罗斯,否则豆包等也能排上名):

上次有朋友留言,提到一个问题,就是关于公司的趋势预测的问题,其实没有任何公司的发展是一帆风顺的,即便是炙手可热的OpenAI,也发生过非常狗血的事情,比如说公司的CEO奥特曼要被解雇:

这在当时也给公司带来前所未有的搜索和曝光率,真是祸福相依。

头部公司会发生,那些小的公司就更可能发生了,没人可以100%预测公司十年后、二十年后一定怎么样,但作为投资人,我们能够做的是我们大概率预测一个公司的趋势,但是如果真的发生了未预料到的事情,或者看错了,那就得认。

怕的是我们Allin一家公司,还很固执或者抱有侥幸的心态,那错了就连翻身的机会都没有了,投资还是有一套基本方法去遵循。

AI很热,市场很大,但是到底有多大市场,OpenAI一年赚了多少钱?这份报告也给了一些数据和预测。

AI的下游用户可以分为个人消费者市场和企业市场,彭博估计,到 2030 年,个人消费者市场 3000 亿美金和企业市场 4000 亿美金,总共 7000 亿美金,折合人民币约 5 万亿元。

不过,AI大模型只能说有一个非常“脆弱的护城河”,比如2023年3月发布的GPT-4模型,在当时是排名第一,但是今天再看这个模型,排名到了95名左右。

当然OpenAI最新的模型还是排名最高的,但是问题是,2年时间就有几十个模型超过了之前的模型,说明它是一个“不进则退”的行业,而且退得很快。

大家都看过跨栏比赛项目,第一名是领先别人,但是不小心被一个跨栏绊倒了,就会被其他人一批人超过。

而大模型的竞争又不是百米冲刺就完事了,而是一个若干年的跨栏比赛,这样的高强度赛跑,有一个跨栏被绊了,就出现问题了,所以说这是一个脆弱的护城河。

即便如此,市场还是给了OpenAI一个很高的收入预期,预计2030年收入到底1740亿美金左右(1.25万亿人民币),用户数达到20亿,市场还预测公司的毛利率也从当下的40%冲到70%,不过这种预测都是动态调整的,看看就好。

对应给OpenAI的估值是3000亿美金,大概是27倍PS(什么是PS?看我文章的应该是比较熟悉了)。

这个估值在非上市公司的估值里面,紧紧排在4000亿美金的SpaceX和3150亿美金的字节后面,真是妥妥的巨无霸。

报告还给出了全球科技巨头实现千亿美金收入花费的时间,最慢的微软,花了四十多年,而OpenAI预计是14年就能达到,真是坐了火箭:

OpenAI有多种模型,简单分类可以分为:GPT,推理模型“o系列”和多模态模型,做个简单解释:

GPT就是大家常用的对话框后面的那个模型,比如你问个问题它就能答复你;而 “推理模型” 则侧重于处理那些需要多重步骤的任务。

简单说,你对个话,比如问中国有哪些省份,根本不需要多重步骤。但是大家在初高中做数学题的时候,经常要做很多步骤才能解答,放在AI那里就叫推理,用到的模型就是“推理模型”,需要先拆解,然后一步一步的往下做,最后给出完整答案。

多模态就是文字、语音、图片之间的转换,大家今天输入一段文字让生成一张图片,或者给一张图片问上面是什么,然后大模型用文字形式回答出来,都是叫多模态模型,这些基本概念可以初步了解一下。

当然,市场端火热时,对供应端的拉动自然就很强劲,最近出现了Meta“亿薪挖人”真正让我震惊了,大厂愿意这么重金挖人,那对GPU的疯狂拉货就显得可以理解了.

不过这种“高强热度”可以持续多久,可能也是需要投资人需要考虑的,这也是 AI 产业链上游呈现 “涨了又跌、跌了又涨、涨了再跌” 的原因,核心在于市场分歧。

涨了之后都需要谨慎一点,但是跌了后,可以乐观起来,因为AI是一场实实在在的革命。虽然现在最热的是上游的比如通信、PCB甚至是偏代工的公司,最终会成为一个全链条受益的产业。

上面的这些数字中,虽然有部分可能会落空,但是仍然有一部分会变成真金白银的财富,所以这不仅仅是一场投资,还是一场国家和国家之间的较量。

传统软件也变天了?

上次写的AI可能让互联网行业变天,我当时主要围绕AI对手机行业的影响,有朋友问,那是不是对传统PC(电脑)端软件的影响是一样的?

的确,都是软件,手机应用要是变天,那传统的PC端应用是不是也变天?这是非常合理的问题,而且作为投资人,也的确需要非常严谨地分析。

 

 

先说结论,我认为对移动互联网可能是利空,但是对传统的软件,是利好。

为什么是两个完全不同的结论?不过在展开之前,我们先看看移动互联网和PC应用,里面都包含什么。

首先,我们说移动互联网,基本是指那些C端用户使用的移动APP。

而传统PC应用,可以分为2大类,一类是2C的应用,比如Office软件这种,一类是企业的应用,比如ERP。

AI对移动应用和传统软件的影响,可以从两个角度来讨论。

第一方面,移动互联网更多是流量入口的逻辑,流量入口模式之所以较为稳固,其中一个原因是用户的习惯变化非常缓慢,所以过去移动互联网公司,业务还是比较稳定的。

移动互联网公司赚钱,并不是向C端直接收费,而是因为自己占据了入口,可以向后端的第三方企业收广告费、业务分成费等。

比如说百度可以收广告费,阿里可以收平台入驻费,如果在平台完成销售,还可以分成。

而传统软件的商业化是基于功能或者工具属性,软件可以帮助用户解决特定的问题,软件企业向客户直接收费。

比如WPS主要是收订阅费,ERP企业过去收软件授权,现在也是收订阅费。

我们说移动互联网可能变天,主要是因为手机AI帮我们完成一个任务的时候,带来以下变化:

首先,用户是有使用习惯的,正是这种习惯,让每个APP的用户基数非常稳定,如果变成AI操作手机的话,用户习惯就不再起作用了,使用哪个APP的选择权落到了AI手中。

第二,移动互联网应用公司之所以非常赚钱,很大一部分来源于广告,而广告之所以有价值,是因为用户的眼睛盯着屏幕。

当手机AI帮我们完成任务的时候,用户的眼睛不再看着屏幕,广告就没有价值了。

而传统软件行业就不一样,我们以ERP为例。

一个企业使用ERP,是因为ERP可以把供应链、仓库、生产、销售和财务打通,并通过一个系统管理起来。

AI来了,这些功能依旧需要,大量的数据依旧需要各个部门进行录入:

这些AI可以替代吗?目前看不到,比如仓库、生产、销售的人,依旧需要使用。

有人说如果是黑灯工厂呢?的确,生产车间没有人了,但是依旧需要系统管理车间的数据,依旧需要这个系统。

相反,AI还可以把ERP里面的数据价值挖掘出来,让ERP产生更大的价值,企业也可能因此愿意付更高的价格购买软件。

那些过去认为ERP没有那么高价值的用户,会发现有AI的ERP带来了更多的价值,从而成为ERP的用户,客户基数也会增加。

所以对于移动互联网是利空,对于传统软件反而是利好。

第二方面,手机端AI来操作软件,要比传统PC上AI操作软件更容易一些,替代难度更低一些,使用体验也更好一些。

首先,手机端的操作是“相对”标准化的,比如点餐就是输入菜名或者餐厅,然后就是找到对应的菜和主食,加入购物车,紧接着就到了下单付款的步骤。

购物也是如此,比价已经算是非常复杂的流程了,而且常用的APP就是那些。也就是手机端AI的模型训练相对标准,几个步骤做好,就可以完成一个任务。

但是电脑端的应用操作就复杂得多,当我们做一个文档的时候,一会写点内容,一会又调整下格式。

做表格的时候,一会添加个数据,一会又要画个柱状图,更不要说还有很多非标的企业应用。

相比手机端较为标准的步骤,电脑端应用在使用上五花八门,这让电脑端AI模型的训练就更复杂,那些非标的企业应用要使用AI,难度则更大。

用户会发现,手机端AI会比较早地变得好用,而电脑端AI就要慢很多,使用效果不同,替代的进度肯定就不一样。

之前的文章中也提到过,手机端会有操作系统(OS)层面的AI,也会有各个应用自己的AI,所以市场的竞争格局是手机操作系统AI和各个应用AI竞争的结果。

所以,我也并不认为手机端应用会被AI全部替代,最终更可能的情况是利益的再分配,但是这种影响我们不能完全忽视。

而在传统的PC端,有系统级的AI可能性要小一些,相反,各个应用内的会有自己的AI。

我认为传统软件不大会因为AI变天,加上前面提到的价值挖掘的逻辑,我更倾向于认为AI对于传统软件偏利好。

今天从整体的角度,讨论了AI对移动应用和传统软件的影响,具体到个股,需要结合实际情况分析,也欢迎提出不同的观点,一起迪拜(debate)一下……

AI芯片:智能计算的专用引擎

从通用计算到智能加速的范式转移

AI芯片的兴起标志着计算架构正在经历根本性变革。随着神经网络算法的广泛应用,传统CPU和GPU在能效比上面临瓶颈,专用AI加速器应运而生,成为智能时代的算力基石。

 

 

技术路径多元化

当前AI芯片市场呈现出多种技术路径并存的局面:

1. 训练芯片

高精度浮点计算能力

大规模并行架构

高速互联接口

2. 推理芯片

注重能效比和延迟

支持多种量化精度

灵活的网络结构适配

3. 端侧AI芯片

极低功耗设计

轻量级网络加速

成本敏感优化

架构创新亮点

现代AI芯片采用了多种创新架构:

脉动阵列:数据流式计算,减少内存访问

可重构计算:适应不同网络结构

存算一体:突破内存墙限制

异构集成:CPU+AI加速器协同工作

应用场景差异化

不同AI芯片针对的应用场景存在明显差异:

text

云端训练芯片 → 大规模模型训练 → 高算力需求

云端推理芯片 → 在线服务推理 → 高吞吐需求

边缘AI芯片 → 实时响应应用 → 低延迟需求

终端AI芯片 → 设备端智能 → 低功耗需求

挑战与发展方向

AI芯片领域仍然面临诸多挑战:软件生态碎片化、算法快速迭代带来的兼容性问题、以及不同应用场景下的能效比平衡。未来趋势将更加注重软硬件协同设计和领域专用架构,在通用性与效率之间寻找最优平衡点。

Deepseek:DS不再是Diaosi的简称

Deepseek是春节期间最亮的那颗星,连篇累牍的报道已经汗牛充栋,我作为AI行业的边缘人(MCU芯片只能算是AI应用领域的边缘外围),从我的观察来分享一些个人看法和预测。

1、摩尔定律普适性

芯片行业最重要的定律,由1965年英特尔创始人摩尔提出,成为半导体技术最著名的发展规律,大意是集成电路上可容纳的晶体管数目大约每隔 18-24 个月便会增加一倍,性能也将提升一倍,而价格却保持不变。

2000年的时候,我在电信做互联网骨干网的项目,记得当时采购EMC的磁盘阵列就花了200万美元,总容量不过4T,而今天一个普通的硬盘容量都远远超过这个规格了。当时家庭拨号上网的Modem速率是28.8kbps,下载个图片都费劲,现在家庭宽带光纤入户,已经没有人关心速率到底是多少了。

 

 

Deepseek印证了,在AI算力领域,似乎也符合摩尔定律。即人工智能的算力成本会迅速降低,性能将不断提升。看了最新的Cathie Wood采访,木头姐说,在DeepSeek之前,人工智能训练成本每年下降75%,推理成本甚至下降85%到90%。

如果 AI 训练成本的下降趋势是 每年 4 倍,如果 DeepSeek-V3 的训练成本比一年前开发的美国当前模型低约 8 倍,那其实完全符合正常趋势。仅靠行业的正常发展,2024 年训练一个模型的成本,理应比 2023 年低 3 到 4 倍。同时,训练成本的下降也带动了推理成本的下降。比如,Claude 3.5 Sonnet 相较 GPT-4 晚了 15 个月发布,但几乎在所有基准测试中都胜出,同时 API 价格也下降了 约 10 倍。

按照这个趋势走下去,那么大模型的收费商业模型似乎很难成立,OpenAI那个200美元的月费服务很快流产就是明证。大模型之间的内卷竞争加速,意味着大模型未来必然是免费的。

大模型和算力作为基础架构,有点像运营商的带宽建设,最终会近乎免费。想起互联网初代的时候,电子邮箱也需要会员收费服务,后来就没有后来了。

2、炮灰定律

这个定律名称是我杜撰的,经验来自过去二十年的互联网历史。

当某个行业成为热点后,必然会有大量风险投资乃至传统资金蜂拥而入,导致行业出现大批无序竞争者,最后经过一系列竞争整合,最终行业会整合到1-3家头部企业中,但即使是行业No1也很有可能走不到最后。

比如说百团大战,硝烟散尽现在美团一家独大,当初曾领跑的团购独角兽们比如糯米团、拉手、F团等已经消失无踪,其他几百家团都已成为炮灰。网约车和共享单车大战,也是一样的结果。

行业赛道处于快速迭代过程中的时候,领先者往往没有太多护城河可以防守,技术快速演进时很容易被突然冒出的意外事件打垮,当年网络视频网站流量前三位除了优酷土豆外还有一家56,结果在一夜之间被黑垮掉。OpenAI目前虽然还暂时没有对手,但是能不能存活到最后我看并没有把握。

还有一种情况是整个热门赛道被全灭,某个热门技术方向突然不成立了,比如某个投资机构押注元宇宙赛道,八年前All in了所有的VR头盔厂家,结果可想而知,自己都成为了时代的浪花。

AI大模型赛道,国内有名有姓的厂商也已超过百家,头部的五六家格局渐渐形成,Deepseek异军突起,其实是远超业内业外人士的预见的,之前没有投资机构关注DS,就是证明。技术快速变化的时候,不管是OpenAI,还是Sora,还是Deepseek,都可能只有三分钟热度。

没有投资机构裹挟的Deepseek能走出来,也说明在无脑机构热钱喂出来的公司,往往反而会动作走样,为了迎合资本做出错误的决策。

3、杰文斯悖论

根据杰文斯悖论,当某种资源的使用效率提高后,虽然单次使用时消耗更少,但因为成本降低、使用更方便,反而可能让人们用得更多,导致整体消耗量反而上升。

Anthropic 的CEO认为各公司在训练强大的AI模型上的投入不断增加,尽管成本曲线会周期性下移,训练特定智能水平模型的成本也在迅速下降。然而节省下来的成本又被投入到使用相同巨额预算开发更智能的模型中。

Deepseek短期看似乎降低了市场对算力的需求,但是中长期看成本降低后大量新应用出现,对算力的需求会指数级激增。

电脑、手机和互联网的发展历史基本上都是这么过来的,硬件和应用相互刺激,市场迅速扩大,用户普及下沉,增量市场蛋糕出现,比如前几年手机资费增速降费后,智能手机普及下乡,PDD和某音迅速从三四线城市和农村崛起,续写了当年淘宝弯道超车易趣的历史。

4、ToB/ToCAI算力成本大幅降低后,无疑将是AI应用的时代,谁将受益最大?

C端市场里的消费电子(智能眼镜)、人形机器人、智能驾驶确实是主流看法,但我更看好B端应用市场,主要原因是C端全部被互联网巨头和终端巨头卡位了,其他公司进入的机会基本上被封死了。

推理成本降低将带来极大的利好。推理成本的降低意味着企业能够更高效、更经济地部署AI模型,而无需承担昂贵的训练成本。因此,那些专注于AI推理的公司——例如云计算服务提供商、边缘计算公司,以及AI应用企业——都可能迎来强劲的市场需求增长。

有了AI算力支撑,所有的政府机构和企业都需要对所有工作流程进行重组,以提升效率和降低成本。PLTR的模式已经走在了前面,从Palantir的业务来说,目前主要是超大B端客户,前20大客户占了40%的营收,最小的客户也要200万美金,业务属性有30%偏向定制化服务。大型企业先行,中小企业跟进,未来会出现更多针对行业客户的AI应用。

AI流程重组应该算是第四次企业流程重组浪潮,之前三次流程重组风口分别是:

1)1990年代,IT初次进入企业,财务电算化和MIS管理

2)2000年代,互联网进入企业

3)2010年代,移动互联网进入企业

5、去IOE化

IOE是三个国外大的厂商的缩写,I是IBM ,O是Oracle,E是EMC。当初所有的IT的基础建设几乎都是由这3家公司来提供的。阿里巴巴首先提出逐步去除对IBM小型机、Oracle数据库及EMC存储设备的依赖,取而代之的是成本更低、更灵活的X86服务器和开源软件解决方案,从而实现技术自主、成本控制和系统架构的优化。

国外去IOE的鼻祖是谷歌,谷歌自己起家的数据中心里,几乎都是自己组装的X86服务器和自研廉价设备和开源系统。

开源的Deepseek降低了企业部署AI基础设施的成本和技术门槛,对于普及企业AI应用将是很大的助力,也可以通过自研和国产替代,去掉传统的产品模式,变成彻底灵活的互联网服务模式。意味着哪怕用一堆破设备,哪怕没有顶尖的英伟达GPU,也可以自己DIY取胜。

开源vs闭源,通过开源迅速打开市占率,Deepseek不会是最后一个,与企业倾向于部署私有云的需求不谋而合。

6、赢家通吃法则

产业链是残酷的,通行的法则是谁占主导地位,谁吞噬利润。最典型的例子是果链,苹果吃掉了最多的利润,当然苹果的供应商也得到了合理的利润,相比而言给其他品牌手机供货的供应商就更惨了点。

相应的供应链还有汽车(新势力)、电池(宁德)、PC(联想)、小家电(小米),服务和内容行业的供应链有电商(阿里)、游戏(腾讯)、视频(抖音)、音乐(腾讯)等。在AI整个供应链上,目前英伟达占据主导地位,但是随着应用的崛起,是否会让出主导地位只是迟早的事情。

至于在AI整个供应链上,英伟达及其上游台积电、下游服务器(配件如CPO、液冷等)、大模型、行业应用平台、边缘侧设备、集成商,谁主沉浮,就看谁更稀缺,谁更能抓住客户了。

7、MCU是否能搭上AI的车?

最近几天,各行各业都在宣布争相接入Deepseek,生怕错过了这班车。正好蹭一下热度,我司AG32 MCU采用的开发工具是开源的VSCode,已经实现通过插件方式接入Deepseek进行辅助开发编程,实现代码的补全、生成、查错和对话等功能,甚至可以通过我们官方提供的例程来生成需要的代码,提升编程效率。

2024年也被称为MCU的AI元年,将边缘AI技术融入MCU是各家厂商都在关注的话题。

边缘AI技术可以使MCU兼顾更高性能的数据处理任务,实现实时决策功能。例如,在智能工控领域,需要系统执行太阳能和储能系统中的电弧故障检测,以及用于预测性维护的电机轴承故障检测等功能,边缘AI帮助MCU对设备和传感器收集的数据进行实时分析和处理,提供更准确的决策,使系统实现更高的故障检测准确率。

以上这些应用肯定不是AI MCU应用的全部,只不过是欧洲MCU大厂以其贫乏的想象力所能想到的一些有限场景。未来的MCU AI创新应用一定会在中国大放异彩并让欧美原厂大跌眼镜。

物联网、边缘计算等应用场景对MCU性能要求的不断攀升,需要MCU在有限的功耗预算内实现高性能计算。MCU自身计算资源与存储空间受限,实现高算力 AI功能更是难上加难。轻量级AI框架才是MCU需要的技术,螺蛳壳里做道场,能否做出适合边缘推理的类似Deepseek这样节省算力和功耗的算力模型,可能是AI MCU能否跑出来的关键点。

跟训练市场相比,LoT终端的边缘推理需求的数量级大得多得多(百亿朝上),MCU作为不起眼的小器件,承担的是最后一米的活儿,可以称得上是蚂蚁雄兵,也许市场还未关注到这一步,但是早晚会发生。

智能玩具的边缘推理场景:在线or离线?

今年的消费电子里,伴随着人工智能技术的快速推进,智能玩具,特别是萌宠机器人的新品越来越多。

早在2019年,日本公司GROOVE X就打造出了家庭陪伴机器人“LOVOT”,并在2023年2月进入中国大陆市场。2023年5月,日本松下公司也推出了同类产品NICOBO,用其可爱呆萌的外观治愈了很多孤独的人。

最近卡西欧自主开发的小型宠物机器人“Moflin”也成为热门话题,可放在手掌上的可爱外观和动作加上合适的价格,使得这款首次发售的产品比预期更早售罄,颇受欢迎。

 

 

Moflin去掉了传统的高性能机器人具备的活动手脚等。减少了直接关系到成本的马达数量等,呈现出可放在掌上的像小动物一样的外观和动作。此外,考虑到即使不说话也能显得可爱和带来治愈,并没有搭载说话功能。没有设定主题,只注重让人感到可爱的尺寸、外观和动作。虽然去掉了说话和走路等要素,但Moflin拥有最尖端的技术。搭载了卡西欧自主开发的专注于情感的AI。根据主人的触碰方式和说话方式等,Moflin的情感会发生变化,逐渐形成自己的性格。据悉,花费50天左右,经过情感表现范围扩大等成长后,形成不同个性,总共有400万种以上。

国内由萌友智能研发的AI毛绒萌宠Ropet,产品在去年12月完成研发并上线众筹平台Kickstarter,筹集金额已超500万港元。Ropet立足情感陪伴,从视觉、听觉、触觉等多个方面打造出了萌宠机器人,为那些高情感需求的人提供了一种另类的陪伴,特别适用于年轻独居女性群体。

我注意到,Ropet采用了离线方式的推理技术,将使用过程中所有的原始数据,都只通过端侧大脑处理,将数据矩阵变成一些简单的代码长时间储存至本地,并保证在断网环境下能够完成。对人们的行为也只是识别并不会记录,以此来保证用户隐私不受到人工智能的“侵犯”。

按照其团队的说法,在欧美对隐私安全十分敏感的地区,如不能很好地保证隐私安全,将失去很多潜在购买者。无论是AI软件还是硬件产品,隐私安全一直以来都是被关注的重点。随着与AI“相处”得越来越默契,依赖感增强的同时,用户也变得警惕起来。并发出类似“AI这么了解我,是否窃取了个人隐私数据?”这样的疑问。

欧美对于智能玩具有比较严格的隐私保护法规:

1. 美国的COPPA法案:美国1998年通过的《儿童网络隐私保护法》(COPPA)明确规定,智能联网玩具和其他物联网设备属于COPPA涵盖的在线服务范围,必须遵守隐私保护要求。

2. 欧盟的GDPR和AI法案:欧盟2016年通过的《一般数据保护条例》(GDPR)首次明确为儿童数据提供特别保护。此外,欧盟新《人工智能法》要求使用人工智能技术的玩具必须遵守网络安全、个人信息保护和隐私要求。

智能玩具的隐私风险是客观存在的。智能玩具通常内置麦克风、摄像头、GPS和语音识别技术,通过Wi-Fi和蓝牙连接互联网,可能收集儿童的姓名、地理位置、照片、音频和视频等信息,存在数据泄露风险。例如,2017年美国FBI曾警告,联网玩具可能被黑客利用,获取儿童的隐私信息。

采用离线推理模式,可以减少数据传输过程中的隐私风险,避免儿童信息被上传到云端或第三方服务器,从而更好地保护儿童隐私。

欧美对隐私保护的高度关注确实会促使智能玩具更多地采用离线模式进行推理,以减少隐私风险并符合相关法规要求。

在边缘推理中,从技术和运营成本的角度,离线和在线方式各有利弊。

离线边缘推理:

优点

1. 低延迟:数据处理在本地完成,无需依赖网络传输,响应速度更快,适合对实时性要求高的场景。

2. 隐私保护:数据在本地处理,不上传到云端或外部服务器,减少了隐私泄露的风险。

3. 离线可用:即使在网络不可用的情况下,设备仍能正常运行。

4. 节省带宽:减少了数据传输量,降低了网络带宽的使用。

5. 降低成本:减少了对云端资源的依赖,降低了长期运营成本。

缺点

1. 计算资源有限:边缘设备的计算能力、存储空间和能源供应通常有限,难以处理复杂的模型。

2. 模型更新困难:离线模式下,模型的更新和优化需要手动操作,不如在线模式灵活。

3. 初始部署成本高:需要在边缘设备上部署硬件和软件,可能增加初始投资。

4. 维护复杂:边缘设备分布广泛,管理和维护难度较大。

在线边缘推理:

优点

1. 计算能力强大:可以利用云端的强大计算资源,处理复杂任务。

2. 模型更新灵活:模型可以在云端进行训练和更新,实时同步到边缘设备。

3. 易于扩展:通过云端管理,可以快速扩展到更多设备和场景。

4. 资源优化:可以根据需求动态分配计算资源。

缺点

1. 依赖网络:需要稳定的网络连接,否则可能导致延迟或服务中断。

2. 隐私风险:数据需要传输到云端,增加了隐私泄露的风险。

3. 带宽需求高:大量数据传输会增加网络带宽的使用。

4. 成本较高:长期依赖云端资源会增加运营成本。

离线边缘推理更适合对实时性、隐私保护和可靠性要求较高的场景,如自动驾驶、智能医疗等。在线边缘推理则适合对计算能力和灵活性要求较高的场景,如复杂的数据分析和动态模型更新。实际应用中,云边协同模式(结合离线和在线的优点)可能是更优的选择。

智能玩具领域,如果是从儿童的隐私保护出发,可能要更关注离线边缘推理的方案,尤其是以欧美市场为目标的产品,带边缘推理的MCU可能是未来主流选择。

AI怎么看AI对芯片设计行业的影响

上周参加了个关于Deepseek对芯片设计行业影响的会议,大家对于以Deepseek为代表的AI造成的各种影响讨论热烈,并对很多职业可能被AI取代忧心忡忡。回来之后,我对Deepseek问了四个问题,看看它能不能给我答案。

问题一:AI对芯片设计工程师的技能替代影响有多大?

Deepseek:

AI技术在芯片设计领域的应用正逐步改变工程师的工作模式,但其对技能的替代影响更多体现为工具化辅助和职业转型,而非完全取代。以下是综合分析:

一、AI在芯片设计中的主要应用与效率提升

1. 布局与布线优化

AI(如谷歌的AlphaChip)通过强化学习算法,能在数小时内完成传统需要数月的芯片布局任务,且性能可能优于人类专家。例如,谷歌TPU和Nvidia的DREAMPlace工具已实现高效布局,缩短设计周期并降低成本。

2. 验证与测试自动化

传统EDA工具结合AI(如Synopsys的DSO.ai)可自动生成测试向量、优化时序分析,减少验证时间并提高准确性。数据显示,部分工具可降低15%的功耗,并加速设计流程3-5倍。

3. 代码生成与辅助设计

大语言模型(如GitHub Copilot)可辅助编写RTL代码,减少基础编码错误,提升效率。未来可能通过自然语言指令生成初步代码框架。

 

 

二、对工程师技能需求的转型

1. 重复性任务的替代

– 低技能任务转移:布局布线、基础验证等重复性工作逐渐由AI接管,工程师需转向更高阶任务(如架构设计、约束设定和结果验证)。

– 效率提升:AI将设计周期从“月级”压缩到“分钟级”,工程师需适应快速迭代的设计流程。

2. 新技能需求

– AI工具操作与调优:工程师需掌握AI工具的输入约束设定、模型微调及数据管理,例如利用历史设计数据训练专用模型。

– 跨领域协作:AI推动芯片设计与软件优化的深度融合,工程师需理解系统级功耗平衡、算法与硬件的协同优化。

3. 创新与复杂问题解决

AI无法替代工程师在架构创新、伦理决策(如安全与成本平衡)及复杂问题动态调整中的核心作用。例如,芯片设计中的微架构优化仍需人类经验判断。

三、局限性及人机协作的必要性

1. 数据依赖与领域限制

AI训练需大量高质量数据,但芯片设计数据多为企业私有,跨领域迁移难度大。例如,高文院士指出,国内EDA公司因数据积累不足,AI应用仍面临挑战。

2. 动态性与创新瓶颈

AI在解决模糊需求(如“在地性”调整)和创造性设计(如光子芯片架构)时表现有限,需依赖工程师的经验和直觉。

3. 伦理与安全考量

芯片设计涉及安全认证、法规合规等,需工程师综合判断,AI无法独立承担此类责任。

四、行业趋势与职业前景

1. 岗位转型而非消失

历史经验表明,EDA工具的每次升级(如90年代合成技术)均推动工程师转向更高阶任务,AI时代将催生更多“AI优化工程师”和系统架构师岗位。

2. 初创企业与技术民主化

AI降低设计门槛,使中小企业和初创公司也能参与复杂芯片开发,推动行业创新。

结论

AI对芯片设计工程师的技能替代主要体现在自动化工具对重复性任务的接管,但工程师的核心价值转向创新决策、跨领域协作与复杂问题解决。未来,人机协同模式将成为主流,工程师需持续学习AI工具操作、系统级设计及数据管理技能,以应对技术变革带来的挑战与机遇。

这个回答还是令人欣慰的,AI体现出了一定的人文关怀,尽管我知道前途不一定如它所说的这么乐观。

问题二:AI对于开源芯片 IP的理解会不会导致芯原微电子这类 IP授权公司的商业模式崩塌?

Deepseek:

AI技术的发展和开源芯片IP的兴起确实对传统IP授权企业构成一定挑战,但结合芯原微电子(以下简称“芯原”)的业务模式、技术布局及行业趋势来看,其商业模式崩塌的可能性较低。以下从多个角度综合分析:

一、AI与开源IP的挑战及其局限性

1. 开源IP的生态尚未成熟

尽管RISC-V等开源架构降低了芯片设计的门槛,但其生态成熟度与传统商用IP仍有差距。芯原的IP库覆盖GPU、NPU、VPU等多种处理器IP,且在车规认证、高性能计算等领域具备技术壁垒,这些是开源社区短期内难以复制的。例如,芯原的NPU IP已应用于82家客户的142款芯片,覆盖从汽车到服务器的多个场景,而开源IP往往缺乏此类实际落地的验证。

2. AI设计工具的局限性

AI虽能加速芯片设计(如谷歌AlphaChip的布局优化),但其输出仍需工程师验证和调优,尤其在功能安全、可靠性要求高的领域(如汽车电子)仍需人类经验主导。芯原的设计流程已通过ISO 26262认证,其IP在车载芯片中的广泛应用依赖长期的行业积累,AI工具难以完全替代此类复杂场景的需求。

3. 开源IP与商用IP的互补性

开源IP更适合中小企业的低成本试错,而芯原的SiPaaS模式(芯片设计平台即服务)提供“IP+设计服务”的一站式解决方案,客户可快速集成已验证的IP并降低研发风险。例如,芯原的Chiplet技术已帮助客户实现高性能计算芯片的2.5D封装,这种能力是开源社区难以提供的。

二、芯原商业模式的抗风险能力

1. 多元化业务布局

芯原不仅依赖IP授权,还通过芯片定制服务(设计+量产)和系统平台解决方案拓展收入。2024年其芯片设计业务收入同比增长37%,量产业务新签订单增长303%,显示其在产业周期波动中通过服务模式分散风险。

2. AI驱动的增量需求

AI热潮反而推动了芯原的核心业务:

– NPU IP需求激增:芯原的NPU IP已支持Transformer类模型优化,被用于AIGC芯片和自动驾驶领域,2024年前三季度AI相关IP授权收入占比达48.59%。

– Chiplet技术领先:芯原在基于Chiplet的AIGC和智驾芯片设计中处于领先地位,与行业巨头合作开发2.5D封装方案,这一领域的技术门槛较高。

3. 全球化与垂直领域深耕

芯原的客户覆盖系统厂商、互联网巨头(如谷歌、亚马逊)及汽车OEM,其IP在车载信息娱乐系统、AR/VR设备等垂直场景中已形成生态壁垒。例如,内置芯原GPU的汽车超千万辆,且其IP正在加速通过车规认证。

三、行业趋势与芯原的应对策略

1. 从IP授权到系统级服务

芯原正在向“IP+设计+软件”的全栈服务转型。例如,其低功耗IP组合与健康监测平台解决方案已应用于超20家智能手表厂商,这种软硬件协同的生态能力是单纯开源IP无法替代的。

2. 拥抱AI工具提升效率

芯原积极利用AI优化设计流程,如采用Synopsys的DSO.ai进行参数调优,同时通过自研AI加速子系统(如AI-ISP、AI-Display)增强IP竞争力。这种“AI增强设计”模式反而巩固了其技术优势。

3. 应对开源生态的差异化竞争

芯原通过以下策略应对开源挑战:

– 聚焦高附加值领域:如车规级IP、Chiplet技术,避开与开源IP在通用领域的直接竞争。

– 构建IP平台化优势:提供包含多个IP的子系统解决方案(如AI加速平台),降低客户集成复杂度。

四、风险与未来展望

1. 潜在风险

– 开源社区的长期技术积累可能侵蚀中低端IP市场。

– AI设计工具若突破可解释性瓶颈,可能减少对成熟IP的依赖。

2. 芯原的护城河

– 技术壁垒:在14nm/5nm等先进制程的IP设计经验,以及Chiplet、功能安全等领域的先发优势。

– 客户黏性:与头部客户的深度绑定(如为国际互联网巨头定制AR芯片),形成生态闭环。

– 商业模式韧性:无自有芯片产品的轻资产模式,使其更灵活应对市场波动。

结论

AI和开源IP的兴起更多是补充而非替代芯原的商业模式。芯原通过技术升级(AI增强设计、Chiplet)、服务延伸(系统级解决方案)和垂直领域深耕(汽车、AIGC),正在将挑战转化为机遇。其核心壁垒——经过大规模验证的IP库、全流程设计能力及全球化客户网络——在可预见的未来仍将保持竞争力。短期内,商业模式崩塌的可能性极低,但需持续关注AI工具在高端IP设计领域的突破进展。

IP授权的商业模式基点在于知识产权很难,但是假设AI抓取并学会了开源IP的精髓,能否帮助客户直接用来设计芯片呢?这一点我是存疑的,这两天正好碰到两个案例。

1)现场芯易荟的老板说他在DS上查一个Cadence的内部指令集,DS居然知道还给了他详细的解释分析,并“好意”地建议他联系原厂获取授权。

2)昨天某方案商聊天说,他们设计某个产品时卡在降噪方面,他求助于DS,DS居然给他贴出了完整的降噪核心算法代码。

我在想,以后凡是已经被印成铅字或者被数字化的知识,可能都是唾手可得的,真正核心的高价值信息,只能通过口口相传了。

问题三:AI参与芯片设计的进程是否会最终颠覆 Cadence?

Deepseek:

AI参与芯片设计确实对EDA(电子设计自动化)行业带来了深远影响,但结合Cadence的技术布局、市场策略及行业趋势来看,AI更可能成为其技术升级的助推器而非颠覆者。以下从多个维度综合分析:

一、AI对Cadence的赋能作用而非替代

1. AI工具提升设计效率,巩固市场地位

Cadence已将AI深度整合至其工具链中,例如:

– Cerebrus智能优化工具:通过强化学习算法优化芯片的PPA(性能、功耗、面积),帮助联发科在2nm芯片设计中实现模块面积减少5%、功耗降低6%。

– Verisium AI验证平台:利用大数据和机器学习加速验证流程,覆盖率达传统方法的数倍,显著缩短设计周期。

– JedAI平台:基于大语言模型(LLM)的自然语言交互设计系统,降低复杂芯片设计的门槛,支持从RTL到GDS的全流程优化。

这些工具通过AI增强而非取代现有流程,使Cadence在AI芯片设计领域保持技术领先,进一步巩固其EDA市场领导地位。

2. 应对复杂设计挑战的技术护城河

AI芯片设计面临3D-IC集成、内存墙突破、多物理场仿真等复杂问题,而Cadence的解决方案(如Integrity 3D-IC平台)结合AI能力,提供从系统规划到热分析的完整工具链,支持异构集成和Chiplet技术,成为行业稀缺资源。例如,其3D-IC平台已被用于高性能计算和自动驾驶芯片设计,优化系统级PPA和能效比。

3. 商业模式转型:从工具到生态

Cadence通过“IP+设计服务+系统级解决方案”构建生态壁垒。例如:

– IP业务增长:2024年IP收入同比增长28%,尤其在AI相关NPU、HBM接口等领域形成技术壁垒。

– Chiplet技术领先:与Arm合作推出系统芯片组,支持UCIe标准,简化多芯片集成,被应用于ADAS和AI数据中心。

这种多元化业务模式降低了单纯依赖AI工具的风险,增强了抗颠覆能力。

二、AI对EDA行业的变革边界

1. AI的局限性:依赖数据与人类监督

– 数据壁垒:AI训练需高质量芯片设计数据,而Cadence积累的专有数据(如先进制程IP库、客户历史设计案例)构成竞争壁垒。例如,其JedAI平台分层训练架构中,客户私有数据可微调专属模型,形成差异化优势。

– 人类经验不可替代:AI生成的芯片设计(如普林斯顿大学的逆向设计案例)虽性能优异,但结构难以解释,需工程师验证和调优,尤其在功能安全(如车规认证)和伦理合规领域。

2. 行业需求驱动技术融合

AI芯片设计复杂度提升(如2nm工艺、3D堆叠)反而需要更强大的EDA工具支持。Cadence通过AI+多物理场仿真(如热分析、功耗预测)满足客户对高可靠性的需求,例如其Fidelity CFD软件被丰田用于车载空调仿真,预处理时间缩短91%。

三、Cadence的应对策略与护城河

1. 技术前瞻性布局

– AI与先进制程结合:联发科采用Cadence Virtuoso Studio和Spectre X Simulator设计2nm芯片,AI工具使设计效率提升30%。

– 系统级设计能力:推出业界首款系统芯片组,整合Arm架构与UCIe互连标准,支持ADAS、无人机等场景,形成硬件-软件协同生态。

2. 客户黏性与行业生态

– 头部客户绑定:与谷歌、英伟达、联发科等合作开发AI芯片,深度参与其设计流程,形成技术依赖。

– 垂直领域深耕:在汽车电子领域,其IP已通过ISO 26262认证,应用于超千万辆汽车,技术壁垒显著。

3. 财务与市场表现

2024年Cadence收入达46.4亿美元,积压订单68亿美元,非GAAP运营利润率46%,显示其商业模式的强韧性。AI驱动的工具链贡献核心增长动力,预计未来三年年复合增长率15%。

四、未来挑战与风险

1. 潜在威胁

– 开源工具与社区:RISC-V等开源生态可能侵蚀中低端IP市场,但Cadence通过聚焦高附加值领域(如车规级IP)差异化竞争。

– AI技术突破:若AI实现端到端自主设计,可能减少对传统EDA工具的依赖,但目前仍受限于数据与可解释性。

2. 应对措施

– 持续投资AI研发:如将大语言模型整合至设计流程,推出自然语言交互工具。

– 扩展系统级服务:从芯片设计延伸到软件协同(如SOAFEE虚拟平台),提升客户粘性。

结论

AI参与芯片设计不会颠覆Cadence,反而成为其技术升级的核心驱动力。Cadence通过AI工具增强设计效率、系统级解决方案构建生态壁垒,以及垂直领域技术深耕,成功将挑战转化为机遇。其核心竞争力——数据积累、全流程设计能力、客户生态——在可预见的未来仍难以被替代。行业趋势更倾向于人机协同,而非AI单方面颠覆传统EDA巨头。

看来Cadence还是稳如狗。

问题四:通过AI,国产 EDA有没有弯道超车的机会?

Deepseek:

通过AI技术,国产EDA(电子设计自动化)在特定领域存在弯道超车的可能性,但需结合技术创新、生态构建和政策支持等多方面因素综合推进。以下是具体分析:

一、AI为国产EDA带来的突破机会

1. 技术起点的同步性

AI在EDA中的应用(如布局优化、验证加速等)仍处于早期阶段,中国与全球领先企业(如Synopsys、Cadence)几乎处于同一起跑线。例如,合见工软的部分核心产品已能对标甚至超越美国最先进的工具性能,尤其在AI驱动的时序分析和布局算法上取得显著进展。

2. 创新架构的差异化竞争

美国传统EDA工具多基于1990年代的软件架构,难以进行颠覆性调整,而国产EDA企业(如芯华章、合见工软)可直接采用现代AI技术重构工具链。例如,芯华章的“敏捷验证”理念和双模验证系统HuaPro P2E,通过统一数据库和云原生部署,实现验证效率提升30%-50%,填补了传统工具链的空白。

3. 学术研究与产业应用的协同

中国高校团队在AI+EDA领域的研究成果已具备国际竞争力。例如,南京大学钱超团队提出的时序驱动布局方法,在关键时序指标上提升60%,并斩获EDA顶会最佳论文奖;其算法在华为海思的落地验证中,将寄存器寻优效率提升22倍。

二、国产EDA弯道超车的具体路径

1. 聚焦高附加值细分领域

– 数字验证:芯华章通过敏捷验证工具链(如HuaPro P2E)和统一编译器技术,解决大规模芯片验证效率痛点,已在数十家客户中落地。

– Chiplet与3D-IC设计:合见工软与华为合作开发基于Chiplet的2.5D封装方案,结合AI优化系统级PPA(性能、功耗、面积),在高性能计算领域形成技术壁垒。

2. AI赋能的工具链升级

– 设计效率提升:AI可加速芯片布局、布线、验证等环节。例如,钱超团队的时序驱动布局算法实现6倍加速,且精度优于传统方法。

– 数据驱动的优化:通过大模型分析海量设计数据,生成优化建议。如EDA集团控股接入DeepSeek大模型,优化库存管理和供应链决策,提升业务智能化水平。

3. 生态构建与产业链协同

– 客户深度绑定:华为等终端企业推动EDA国产化,例如华为14nm以上EDA工具已基本实现国产替代,并与国内EDA厂商形成案例-技术-案例的正向循环。

– 开源社区合作:通过RISC-V等开源架构降低设计门槛,吸引中小企业和开发者参与生态建设,加速技术迭代。

三、面临的挑战与应对策略

1. 数据与生态短板

– 数据积累不足:EDA工具依赖高质量设计数据训练AI模型,但国内企业数据量远少于国际巨头。需通过客户合作(如华为、中芯国际)积累私有数据池。

– 生态碎片化:国际EDA巨头通过并购形成全流程工具链,而国内企业多聚焦点工具。需通过资本整合(如芯华章收购瞬曜电子)和技术协同,构建完整解决方案。

2. 技术可解释性与标准化

AI算法的“黑箱”特性可能影响工程师信任度,需加强算法可解释性研究。同时,制定行业标准(如AI模型接口规范)以提升工具兼容性。

3. 人才与资金压力

– 研发投入高企:华大九天、概伦电子等头部企业净利润下滑,需依赖政策补贴和资本市场支持。

– 复合型人才稀缺:需加强“AI+EDA”跨学科人才培养,如南大AI学院本硕博生直接参与芯片设计研究。

四、未来展望

国产EDA的弯道超车需把握两大趋势:

1. AI驱动的设计范式变革:从传统规则驱动转向数据驱动,结合强化学习、演化算法等解决复杂优化问题。

2. 垂直领域的深度整合:例如,针对汽车电子、AI芯片等场景定制工具链,结合国产成熟制程(如14nm)形成差异化竞争力。

短期内,国产EDA难以全面替代国际巨头,但在数字验证、Chiplet设计等细分领域已具备突破能力;长期来看,通过AI技术重构工具链、构建开放生态,有望实现从“点工具突破”到“全流程覆盖”的跨越。

本文来源于微信公众号:土人观芯

AI这条赛道,大家都在卷

现在大家都在说国内各行各业都太卷了,国内的牛马们羡慕国外的work life balance的生活。但硅谷目前也是卷的不行,正在上演一场史无前例的人才争夺战,焦点集中在AI领域的顶尖专家。

与此同时,AI芯片(GPU 和 AI ASIC)的厂商们,也都公开了自己的roadmap,几乎是每年都有一个新的AI平台。按老美之前的work life balance的节奏,完全是无法想象的。

现在B300已经出来了,国内也可以拿到货。按照英伟达的roadmap,在明年的下半年,基于Rubin架构的产品就可以出货了,再过一年就是Rebin Ultra.

 

 

AMD虽然现在的市场占有率并不是很高,但MI400明年上半年也出来了。

AI ASIC的厂商们,后面几年也都是一年一次平台的升级。

再来看AI方面的竞争,这个主要就是体现在抢人才。自2022年底ChatGPT的惊艳亮相以来,AI技术的突破引发了对稀缺人才的激烈竞争。Meta、OpenAI、Google DeepMind和Anthropic等科技巨头不惜重金,通过天价薪酬、股权激励和战略收购争夺能够推动技术革新的精英。

根据SignalFire的《2025年科技人才报告》,自疫情以来,入门级技术岗位需求下降了50%,而中高级AI人才的需求却急剧上升。硅谷和纽约作为AI生态系统的核心,吸引了超过65%的AI工程师,尽管高昂的房价和远程工作的灵活性并未削弱这些地区的吸引力。

顶尖AI人才的稀缺性是这场争夺战的核心,Sam Altman估计,全球真正能够推动AI技术突破的研究人员仅有几十到一千人,其生产力可能是普通工程师的10,000倍。这种稀缺性使得公司不惜一切代价争夺这些人才。甚至连苹果这样的科技巨头也难以招到顶尖AI专家。根据傅盛的说法,苹果等大公司因组织臃肿、效率低下,难以吸引AI人才,而像OpenAI和Anthropic这样的新兴AI创业公司则因高成长潜力、优厚股权激励和扁平化管理更具吸引力。

Meta近期在AI人才市场中的动作尤为引人注目,扎克伯格亲自领导了一场招聘热潮,成功从OpenAI挖走四名核心研究人员:Shengjia Zhao(参与GPT-4开发)、Shuchao Bi(多模态模型经理)、Jiahui Yu(前Google Brain和DeepMind高级研究科学家,擅长序列建模和计算机视觉)和Hongyu Ren(负责OpenAI o3和o4 mini模型后期训练)。此外,Meta还从OpenAI苏黎世办公室挖走三位开发人员:Lucas Beyer、Alexander Kolesnikov和Xiaohua Zhai。这些人才的加入显著增强了Meta新成立的“Meta Superintelligence Labs”的实力,目标是开发多模态AI和推理模型,弥补与竞争对手的差距。

Meta还从Anthropic和Google DeepMind招募了开发Claude和Grok等模型的专家,挖角比例在与OpenAI和DeepMind的竞争中分别达到8:1和11:1。此外,Meta尝试收购多家AI初创公司,如Perplexity AI、Runway和Safe Superintelligence,虽然多未成功,但小扎的抢人的决心可见一斑。

2025年6月,Meta以14.3亿美元收购了AI初创公司Scale AI 49%的股份,这是Meta历史上最大的外部投资之一。Scale AI成立于2016年,专注于提供海量标注数据及定制化训练数据,是训练大型语言模型的关键供应商。作为交易的一部分,Scale AI创始人兼首席执行官Alexandr Wang加入Meta,领导“Superintelligence Labs”。还是按照傅盛的说法,这次收购,其实主要是为了Alexandr Wang,至于数据标注的业务,Meta本身并不需要收购。年仅27岁的Alexandr Wang被任命为Meta首席人工智能官,甚至连图灵奖得主杨立昆也要向其汇报。

Meta能成功挖来这么多人,基本都是通过天价的薪酬来吸引,Meta提供的签约奖金高达1.5亿美元,首年薪酬超过1000万美元,包括前置股权和奖金。Meta为OpenAI研究员提供的四年合同总值高达3亿美元,首年股权立即归属,这一做法在行业内极为罕见。尽管Meta否认了部分高额报价,但业内普遍认为其薪酬极具竞争力。此外,Meta还提供尖端芯片的无限访问权限。

而国内目前的状况,曾经的AI六小龙,自从Deepseek出来后,现在基本都挣扎在存亡线上,像kimi,笔者去年用的还比较多,但今年基本都在用豆包和元宝了,再也没用过国内的其他AI平台,app也早就卸载了。

本文来源于微信公众号:土人观芯

CES2026前瞻:这次会跑出哪些消费级黑马?

下周就是每年的CES,是观察新一年度科技新品的最佳时机,很多大品牌的重磅新品会保持神秘,在展会开启首日才会发布,但综合 CES 2026 官方议程与展前爆料,今年“顶流”将集中在六大相互交叉的硬科技赛道,每条赛道都有明确的“量产级”爆点,而非往年概念Demo为主:

1. 贯穿全场的“底层主线”——AI芯片与端侧大模型

343项CES创新奖里AI类占比40%,高通、英特尔、AMD、英伟达集体发布新一代PC/汽车AI算力平台;中国品牌展前透露的“离线LLM玩具”“端侧 Vlog相机”都把本地1–30TOPS算力做成99–299美元消费级硬件,端侧AI体验首次大规模可感可买 。

 

 

2. “物理AI”硬件——人形/陪伴机器人、AI眼镜、空间计算机

机器人展商289家,其中明确“人形”27家,Agility、Amazon Robotics将现场跑无保护搬运;XR赛道出现34g AI眼镜、8K MR空间计算机,光学与传感完成轻量化拐点,2026被视作“空间计算消费元年” 。

3. 显示技术“三国杀”——RGB-Mini LED、RGB-Micro LED、QD-OLED 同场盲测

中日韩品牌首次把RGB背光/Micro芯片做到65″以上量产机同台对比:海信/TCL推RGB-Mini LED 电视,三星 50 µm RGB Micro LED、LG柔性透明 Micro RGB LCD 齐亮相,谁现场画质领先将直接决定2026高端电视技术路线 。

4. 智能汽车与感知链——L3 City NOA、舱驾一体、LiDAR平价化

284家汽车科技展商,26家主推LiDAR;高通Snapdragon Cockpit Elite 舱驾融合平台将落地LG新车机,多家中国品牌把128 线半固态LiDAR压到499美元,2026被定义为“L3量产准入”落地首年 。

5. 数字健康 2.0——无创连续监测+AI辅助诊断

381家健康相关展商,86次出现“可穿戴”,Abbott、Oura、Garmin 领衔“无创+连续”血糖/血压/睡眠监测;FDA刚给3款AI心电算法发510(k),CES现场将同步演示“医院级精度”消费终端 。

6. 智能家居与连接协议——Matter/Thread大规模互通+储能家电

428 家展商覆盖全屋智能、IoT连接;松下将发布“谷电相变储能”AI冰箱,4h断电保冷,拿到美电网需求响应补贴,家电从“智能”升级到“能源节点”,连接芯片订单直接受益 。

我重点关注的有几个热点赛道。

1、显示(RGB-Mini LED)

海信将携全新一代RGB-Mini LED技术和新品亮相CES。海信CES邀请函上的信息显示,海信将在美国当地时间1月5日举行新闻发布会,很可能会再次实现中国品牌在高端显示领域对日韩品牌的代际领先。届时,海信、三星、索尼、LG等全球显示巨头将齐聚展会,一场围绕RGB-Mini LED技术的全球大战即将上演。

三星 50 µm 芯片、LG 柔性透明、索尼 1000 nits 亮度,三家都将在 CES 2026 摆出现场可商用的 65″ 整机,而非去年“玻璃箱” demo。海信、TCL 则把 RGB-Mini LED 拉到 115″ 8K,售价压进 3500 美元区间,直接对标 OLED 旗舰。若现场对比画质胜出,RGB 技术将一夜转正,成为 2026 高端电视最大黑马赛道。

2、清洁(扫地机)

明年的CES上扫地机绝对会白热化,因为每家都会推出你从来没见过的产品。

比如石头将推出会爬楼梯的扫地机,追觅将推出四足扫地机,这还不算新奇的,据说MOVA将推出会飞的扫地机。

3、AI 玩具+情感陪护

今年CES出来的很多概念将继续深化,衍生出各种新奇的产品。

比如希瑞的毛绒伴侣、TommyK的AI 宠物蛋、ThingX的情绪监测吊坠、松下的AI家用交互型机器人NICOBO、Vbot超能机器狗大头BoBo,三星也会推出其家庭陪伴机器人Ballie。

4、影像和佩戴式硬件

影石 Insta360 的兄弟公司“影石零镜”将发布胸夹式 AI 相机 ZeroShot,砍掉屏幕与镜片,只靠端侧 4 nm ASIC 做 30 帧实时“视觉摘要”。

hohem浩瀚首创的AI跟拍稳定器。

FARSEER首款产品RocX AI远景相机,通过AI 赋能摄影,自动追踪 + 自动拍摄等功能,在AI影像中以便携长焦驾驭运动拍摄、动物拍摄、风光与人像摄影等各类场景需求。

Rokid的AI+AR智能眼镜,主打全天候佩戴和多功能交互。其他参展的智能眼镜公司还包括影目科技、致敬未知、雷鸟创新的新品。

所有的消费电子产品,背后都是半导体芯片厂商的强力支撑,国产芯片领域自然会受到一定程度的刺激。上届CES爆火的ESP32+OpenAI方案带火了智能玩具,这次依然可以重点关注。

小米AI智能眼镜可以期待点什么?

据某行业媒体报道,小米可能会在6月26日正式发布AI智能眼镜,和Redmi K80至尊版以及小米Yu7一起发布。

AI 眼镜这个品类在去年(2024 年)在国内根本没有多少人知道,全球也就是一款Ray-Ban Meta,国内目前雷声大雨点小,还没有真正能撬动大众市场的产品。但是跟其他品类相比,AI 眼镜无疑是今年最值得关注的消费电子新品类,正因为目前的市场规模小,因此大家才觉得增长潜力巨大。业内认可的预测,2025年全球AI眼镜销量可能达到350万副。

 

 

RayBanMeta 是 Meta(科技巨头)与雷朋(隶属全球眼镜巨头EssilorLuxottica)合作推出的智能眼镜,融合时尚设计与科技,涵盖拍摄、通话、音频娱乐及AI 交互等功能;在 AI 智能眼镜领域地位领先,2024 年全球销量占比超 96%,主导市场,随智能眼镜市场规模增长持续扩张;技术上集成Meta Llama 大模型,实现物体识别、实时翻译等AI 应用,配备 1200 万像素摄像头、五麦克风阵列等硬件,还规划 HUD技术及AR功能拓展,推动行业向AI深度赋能方向发展。

这次CES2025 科技春晚上,全球多家消费电子厂商发布自有 AI 眼镜产品,推动 AI眼镜的市场关注度持续提升,有所耳闻的包括且不止于:雷鸟V3、联想Lecoo斗战者G1、雷神AI智能眼镜、Rokid Glasses等,接下来预计将会发布智能眼镜的还有字节跳动(预计 2025 年 8 月)、Meta(预计 2025 年 9 月)、三星(预计 2025年 9 月)、魅族(预计 2025 年 9 月)。

以往的米家眼镜,其核心是“音频”。即使可以连接手机使用各种AI应用,本质上也就是个“眼镜形态的蓝牙耳机”。这次的小米AI眼镜就完全不同,将是一款集摄影录像、AI语音交互、音频播放等核心功能的“全功能AI眼镜”。

AI 大模型给眼镜这个品类注入了全新的「卖点」,无论是第一人称拍摄、AI 翻译,还是基于大模型的 AI 语音助手,AI 眼镜至少在功能认知上要比之前智能眼镜好讲故事,也更容易让消费者理解其价值。

按照目前的爆料,小米 AI 智能眼镜将采用高通骁龙 AR1 Gen 1 + 恒玄 2700 的双芯组合,前者支撑影像,后者(本身是耳机芯片)支撑音频。简单来说,小米的思路是用恒玄 2700 实现日常基础运行,从而降低功耗,同时基于骁龙 AR1 实现更好的影像能力,保证 AI 视觉和影像方面的表现。

AI眼镜在使用体验和技术上要能够真正赢得市场,需要有几个核心的“东风”支持:

1.技术拐点:4nm制程芯片量产(如高通AR1Gen2)、光波导显示技术成熟(FOV提升至70度)、MicroLED成本下降,推动产品轻量化(50g以下)与功能集成(语音交互、物体识别、AR导航)、续航能力提升至8小时以上;

2.场景渗透:从听力辅助、工业巡检向消费级场景扩张,覆盖智能助理、即时翻译、运动健康等领域,成为“第一视角”交互终端;

3.价格下探:Meta产品降至299美元,国内厂商闪极、雷鸟定价进入1500元区间,小米新品有望进一步拉低门槛,推动渗透率提升。

我个人一直是小米眼镜的客户,我大概买了不下三幅小米的防蓝光眼镜,和米家的音频眼镜,就是那个“眼镜形态的蓝牙耳机”,对我来说用于工作生活确实带来了很大的便利:

1、听音乐,音频眼镜不入耳,就不太伤听力,外界声音也可以听到,这个比耳机好;

2、在公共场所接电话听语音看视频的时候,尽量不影响别人;

3、工作中经常需要电话会议,我就不需要用手一直拿着手机,并且可以边开会边查找手机上的资料;

 

 

眼镜行业的发展不断迭代,从一开始的传统眼镜→音/视频眼镜→A1+音/视频眼镜→AI+AR/MR 眼镜。AI眼镜提供了新的渐进式发展思路,即放弃大而全的设计理念,先解决轻便美观的问题来提升用户体验,同时也给行业更多的时间逐步攻克微显示的成本、重量与性能问题,助力 AR 行业跨越初期的发展障碍,实现加速放量。

二级市场估计届时肯定会扫描智能眼镜的上游产业链,主要为AI智能眼镜硬件结构供应商。如主控Soc芯片、光学模组、显示模组,音频模组,传感器模组、交互模组、电源、结构件等。除了高通骁龙 AR1 Gen 1 + 恒玄BES 2700外,歌尔代工也已经是明牌了。其他的上游供应链还包括:

1.光学与显示:光波导模组、MicroLED为核心增量。

-舜宇光学:全球摄像头模组龙头,为多款AI眼镜提供光学解决方案;

-水晶光电:AR光波导技术领先,已切入雷鸟、Rokid供应链;

-利亚德:MicroLED显示技术布局深厚,合作Meta等海外客户。

2.芯片与传感器:端侧算力决定用户体验。

-瑞芯微:RV系列视觉芯片适配AI眼镜,低功耗优势显著;

-恒玄科技:智能音频芯片龙头,小米AI眼镜核心供应商;

-韦尔股份:CIS传感器龙头,受益于AI眼镜多摄像头需求。

3.声学与结构件:轻量化与交互刚需。

-歌尔股份:声学组件+整机代工双轮驱动,Meta、华为核心供应商;

-佳禾智能:小米AI眼镜声学模组主力供应商,募投450万副产能即将释放;

-蓝思科技:纳米微晶玻璃材料突破,解决镜片轻量化与耐磨损痛点。

4.生态与终端:品牌卡位与内容生态构建者。

-创维数字:与Meta合作开发智能眼镜,布局AR内容平台;

-博士眼镜:线下渠道龙头,切入AI眼镜验光配镜服务赛道。

以上仅做供应链参与方列举,不代表推荐投资,交易还是需要自己了解企业具体信息,责任自负。

如果小米智能AI眼镜能一炮打响,并且带动AI眼镜行业一起爆发,那么可能会创造出一个新的消费电子热点,我个人感觉这个市场的量,比蓝牙耳机小很多,但是会比VR头盔和手环要大很多,毕竟存在大量真实用户需求,只要解决了佩戴舒适度、续航时间、价格、大模型和手机功能集成,很多操作可以解放双手操作来进行,那么还是有很大希望的。

本文来源于微信公众号:土人观芯