【交付】英伟达H200订单Q3开始交付;苹果寻求中国法院在判决中抹去“支配地位”措辞;台积电提前完成2纳米工艺生产设备安装

来源:爱集微 #5#
1765

1.苹果寻求中国法院在反垄断应用判决中抹去“支配地位”措辞

2.台积电提前完成2纳米工艺生产设备安装

3.芯片工厂建设推动日本土地价格增长 菊阳町涨幅第二

4.英伟达H200订单Q3开始交付 预计B100明年上半年出货

5.Ceva增添用于AIoT设备的全新TinyML优化NPU,扩展智能边缘IP领导地位


1.苹果寻求中国法院在反垄断应用判决中抹去“支配地位”措辞

苹果公司正寻求让中国一家法院改变其在iPhone制造商赢得的诉讼中的书面裁决,这一不同寻常的举动凸显了这家美国公司在中国地位的敏感性。

据一份文件显示,苹果向中国最高法院提交了一份诉状,要求对一项裁决中的部分语句进行修改,该裁决判决了围绕苹果从大多数开发商那里收取的应用程序收入分成的纠纷。苹果希望中国最高法院从下级法院的裁决中删除对苹果公司“市场支配地位”的提及。

据悉,原告金某因不满苹果在购买中抽取的30%佣金,在2021年将苹果公司告上法庭,要求苹果停止收取30%的“苹果税”,并停止应用内购买强制使用苹果支付渠道的行为,这是中国首例消费者起诉苹果公司垄断案。今年5月底有消息显示,上海知识产权法院就该案进行一审宣判,法院认定苹果公司在中国区软件市场具有“市场支配地位”,但苹里没有滥用市场支配地位。

苹果似乎正试图淡化其在中国的市场地位。在全球监管机构密切关注科技巨头之际,官方法院判决中对苹果“支配地位”的描述可能会在未来的文件或案件中被引用。

该裁决恰逢中国主要开发商和应用商店运营商试图改变国内应用生态系统。

问题在于苹果及其竞争对手向开发者收取费用,以将他们的应用程序置于应用商店中。在中国,流行的安卓手机游戏收取的渠道抽成费用高达50%,而世界其他大部分地区一般为30%。

2.台积电提前完成2纳米工艺生产设备安装

台湾媒体援引投资银行瑞银集团(UBS)的最新报告称,台湾半导体制造公司(TSMC)2025 年的资本支出将增至 370 亿美元。瑞银补充说,由于台积电采取积极措施提前部署 2 纳米芯片技术,该公司 2024 年的支出可能达到其指导值的上限,即 320 亿美元。瑞银认为,苹果公司对下一代 iPhone 及其 3 纳米产品的强劲需求将使台积电在今年第三季度实现 13% 的年收入增长。

从细节来看,瑞银对人工智能对半导体周期的影响相当乐观。芯片行业具有很强的周期性,制造商会根据订单预测来决定产能,而企业要么达不到需求,要么满足或超过需求。在 AMD 和英特尔等公司完成产品升级后,台积电等晶圆厂会喘口气,等待下一代技术的出现。

瑞银认为,得益于人工智能,台积电 2024 年至 2028 年的每股收益将分别达到 40.14 新台币、53.27 新台币、60.75 新台币、69.5 新台币和 80.23 新台币。人工智能和高性能计算也将帮助台积电提高毛利率,该公司还在加强封装能力。最新数据显示,到今年年底,台积电的CoWoS封装产能将达到每月4万片,到2024年底,明年年底将增至每月5.5万片。

在资本支出方面,据报道,瑞银估计今年的支出将达到台积电指导目标的最高值。目前的指导范围在 280 亿美元到 320 亿美元之间。今天的报告显示,2025 年的支出可能达到 370 亿美元。

该报告还指出,台积电的资本支出主要由其对 2 纳米芯片生产的投资所驱动。虽然台积电计划明年开始 2 纳米量产,但估计该公司在设备部署方面已提前完成计划。此前有传言称,台积电可能会将 2 纳米芯片的生产扩大到台湾各地的工厂。

如上所述,台积电每股收益的增长还将受到其现有制造技术强劲需求的推动。瑞银认为,该公司的 N3 和 N5 技术(涵盖 3 纳米和 5 纳米制程技术)将在 2024 年下半年继续保持强劲需求。除了苹果公司通常在 9 月份推出的新一代智能手机阵容外,高通公司和联发科公司也将获得部分订单。

Apple Intelligence手机的潜在强劲需求也可能意味着,台积电的 3 纳米产能在 2024 年和 2025 年仍将捉襟见肘。与其他芯片公司一样,台积电在经历了冠状病毒疫情后长达一年的紧缩后,其营收也出现了飙升。人工智能订单,尤其是英伟达(NVIDIA)公司的订单帮助了该公司,其美国存托凭证(ADR)今年迄今已上涨了 71%。(来源:cnBeta)

3.芯片工厂建设推动日本土地价格增长 菊阳町涨幅第二

受日本旅游业蓬勃发展和全球半导体供应链变化的影响,日本的土地价值出现有史以来的最大涨幅。

根据日本国税厅7月1日公布的数据,白马村(Hakuba)因旅游胜地评估地价的增幅最大,在过去一年中增长32.1%。熊本县的小农业城镇菊阳町,因是台积电新芯片工厂所在地,土地价值涨幅位居第二,已上涨24%。

在日本全国范围内,土地价值平均增长2.3%,这是连续第三次年度增长,也是自2010年有可比数据以来增长最快的一次。

日本努力提升国内芯片产量,成功吸引了台积电等企业入驻熊本。台积电熊本一厂在今年2月底开幕,预计将在今年第四季度量产12nm~16nm、22nm~28nm的成熟半导体。最新消息称,台积电熊本二厂也落脚菊阳町,已开始进行整地工程,预计今年第四季度开工建设,目标在2027年内投入运营。

日本经济产业省指出,台积电熊本二厂位于熊本一厂东侧,用地面积约32.1万平方米,较熊本一厂增加约50%,投资额约2.2万亿日元,而日本政府最高将提供7320亿日元的补贴。

据悉,几十年来首次出现的通胀回升,加上日元疲软和低借贷成本吸引了外国投资者,这些因素都促进了日本房地产市场的复苏。根据日本国土交通省的数据,去年农村土地价格出现30年来的首次上涨。

4.英伟达H200订单Q3开始交付 预计B100明年上半年出货

据报道,英伟达AI GPU H200上游芯片端于Q2下旬起进入量产期,预计在Q3以后大量交货。但英伟达Blackwell平台上市时程提前至少一到两个季度,影响终端客户采购H200的意愿。

供应链指出,目前待出货的客户端订单仍多集中于HGX架构的H100,H200比重有限,Q3将量产交货的H200主要为英伟达DGX H200;至于B100则已有部分能见度,预计出货时程落在明年上半年。

H200作为H100 GPU的迭代升级产品,基于先进的Hopper架构,首次采用了HBM3e高带宽内存技术,实现了更快的数据传输速度和更大的内存容量,尤其针对大型语言模型应用表现出显著优势。根据英伟达官方发布的数据,在处理诸如Meta公司Llama2这样的复杂大语言模型时,H200相较于H100在生成式AI输出响应速度上最高提升了45%。

H200被定位为英伟达在AI计算领域的又一里程碑式产品,不仅继承了H100的优势,还在内存性能上取得了重大突破。随着H200的商业化应用,对高带宽内存的需求预期将持续攀升,这将进一步带动整个AI算力硬件产业链的发展,特别是HBM3e相关供应商的市场机会。

而B100 GPU将采用液冷散热技术。散热成为芯片性能提升的关键因素,英伟达H200 GPU的TDP为700W,保守估计B100的TDP接近千瓦,传统风冷或不能满足芯片工作过程中对于散热需求,散热技术将全面向液冷革新。

英伟达CEO黄仁勋称,从B100 GPU开始未来所有产品的散热技术都将由风冷转为液冷。银河证券认为,英伟达推出B100GPU在性能方面至少是H200的两倍,将超过H100的四倍,而芯片性能的提升一方面来源于先进制程,另一方面散热也成为芯片性能提升的关键因素,英伟达H200 GPU的TDP为700W,保守估计B100的TDP接近千瓦,传统风冷或不能满足芯片工作过程中对于散热需求,散热技术将全面向液冷革新。

5.Ceva增添用于AIoT设备的全新TinyML优化NPU,扩展智能边缘IP领导地位

帮助智能边缘设备更可靠、更高效地连接、感知和推断数据的全球领先半导体产品和软件IP授权许可厂商Ceva公司(纳斯达克股票代码:CEVA) 宣布推出Ceva-NeuPro-Nano NPU以扩展其Ceva-NeuPro Edge AI NPU产品系列。这些自给自足的高效NPU可为半导体企业和OEM厂商提供所需的功耗、性能和成本效益,以便在用于消费、工业和通用 AIoT 产品的SoC 中集成TinyML模型。

TinyML是指在低功耗、资源受限的设备上部署机器学习模型,从而将人工智能引入物联网 (IoT)。物联网设备对高效、专业的人工智能解决方案的需求日益增加,推动了TinyML市场快速增长。根据研究机构ABI Research预测,到 2030 年,超过40% 的TinyML出货量将采用专用 TinyML 硬件,而非由通用MCU驱动。Ceva-NeuPro-Nano NPU解决了TinyML所面临的特定性能难题,以实现无处不在和经济实用的人工智能,广泛应用于消费和工业物联网应用中的语音、视觉、预测性维护和健康感知等领域。

新型 Ceva-NeuPro-Nano 嵌入式AI NPU架构完全可编程,可高效执行神经网络、特征提取、控制代码和 DSP 代码,并支持最先进的机器学习数据类型和运算符,包括原生变换器计算、稀疏性加速和快速量化。与需要结合CPU或DSP并且基于 AI 加速器架构的现有TinyML 工作负载处理器解决方案相比,这种优化的自给自足架构使得Ceva-NeuPro-Nano NPU具有更高的能效、更小的硅片尺寸以及更佳性能。此外,Ceva-NetSqueeze AI压缩技术可直接处理压缩模型权重,省去中间的解压缩阶段,这减少了80%的Ceva-NeuPro-Nano NPU内存占用,从而解决了阻碍AIoT处理器广泛应用的关键瓶颈问题。

Ceva副总裁兼传感器和音频业务部门总经理Chad Lucien表示:“Ceva-NeuPro-Nano将TinyML应用集成到低功耗物联网SoC和MCU中,并且以我们的企业战略为基础,通过先进的连接、传感和推理能力为智能边缘设备赋能,为企业开创了难能可贵的机会。Ceva-NeuPro-Nano系列NPU使得更多公司能够将人工智能带入边缘应用,从而制造具有先进功能集的智能物联网设备,为客户创造更多的价值。我们在无线物联网连接方面具有行业领先地位,在音频和视觉传感方面亦拥有强大专业技术,具备独一无二的市场条件,能够帮助客户发挥TinyML的巨大潜力,实现创新的解决方案,从而增强用户体验、提高效率,并为建设更智能、更互联的世界做出贡献。”

ABI Research 行业分析师 Paul Schell 表示:“对于在智能边缘物联网设备上实现人工智能,Ceva-NeuPro-Nano可以满足电池供电设备对功耗、性能和成本的要求,实现语音、视觉和传感用例在广泛终端市场的始终在线应用,令人刮目相看。从 TWS 耳机、耳塞、可穿戴设备和智能扬声器到工业传感器、智能电器、家居自动化设备、摄像头等,Ceva-NeuPro-Nano可以在能源受限的 AIoT 设备中实施 TinyML。”

Ceva-NeuPro-Nano NPU提供两款配置,包括配备32个int8 MAC的Ceva-NPN32和配备64个int8 MAC的Ceva-NPN64,两种配置都通过Ceva-NetSqueeze获得直接处理压缩模型权重功能。Ceva-NPN32 针对语音、音频、物品检测和异常检测用例的大多数 TinyML工作负载进行了高度优化;Ceva-NPN64则利用权重稀疏性、更大内存带宽、更多MAC和4位权重支持提供2倍性能加速,从而提供更强大的性能,在设备上实现更复杂的人工智能用例 (如物品分类、人脸检测、语音识别和健康监测等) 。

这些NPU随附完整的人工智能SDK - Ceva-NeuPro Studio,这是为整个Ceva-NeuPro NPU系列提供一套通用工具的统一人工智能堆栈,支持包括TensorFlow Lite for Microcontrollers (TFLM) 和 microTVM (µTVM)的开放式人工智能框架。

Ceva-NeuPro-Nano 主要特性

灵活的可扩展NPU 架构

  • 完全可编程,高效执行神经网络、特征提取、控制代码和 DSP 代码 

  • 设计具备可扩展性能,满足广泛用例需求

    • 具有每周期最多 64 个 int8 MAC的MAC 配置

  • 面向未来的架构,支持最先进的 ML 数据类型和运算符 

    • 支持 4 位至 32 位整数 

    • 原生变换器计算 

  • 利用先进的机制为所有用例提供终极 ML 性能 

    • 稀疏性加速 

    • 非线性激活类型加速  

    • 快速量化

超低内存需求边缘 NPU

  • 用于NN计算、特征提取、控制代码和DSP代码的高效单核设计,可让这些计算密集型任务省去配套MCU

  • 通过 Ceva-NetSqueeze 直接处理压缩模型权重,省去中间的解压缩阶段,最多可减少 80% 的内存占用

通过创新能源优化技术实现超低能耗

  • 自动化的即时能源调整

  • 通过使用权重稀疏性加速对计算进行提炼,大幅降低能耗和带宽需求

易于使用的完备人工智能 SDK

  • Ceva-NeuPro Studio为所有Ceva-NeuPro NPU (从全新Ceva-NeuPro-Nano到功能强大的Ceva-NeuPro-M) 提供统一的人工智能堆栈,具有简便的点击运行使用体验 

  • 加速软件的开发和部署,从而缩短产品上市时间

  • 经过优化,可与包括 TFLM 和 µTVM 在内的领先开放式人工智能推理框架无缝协作  

  • Model Zoo包含预训练和优化的TinyML 模型,涵盖语音、视觉和传感用例

  • 灵活适应新的模型、应用和市场需求 

  • 全面的优化运行时间程序库和现成的特定应用软件组合  

供货

Ceva现在提供Ceva-NeuPro-Nano NPU授权许可,如要了解更多信息,请访问公司网页:https://www.ceva-ip.com/product/ceva-neupro-nano/


责编: 爱集微
来源:爱集微 #5#
THE END

*此内容为集微网原创,著作权归集微网所有,爱集微,爱原创

关闭
加载

PDF 加载中...