从ChatGPT概念发展到算力芯片的炒作,技术逻辑分析
相关算力个股:芯原股份-U、寒武纪-U、景嘉微、海光信息、中科曙光
这几天每天复盘笔记中一直在提ChatGPT,但是没有完整整理过思路。机器学习和深度学习已经是三四年前学习的知识,都陌生了,但是当这个消息出来,那就不一样了:
2月2日消息,免费聊天机器人ChatGPT火爆后,OpenAI宣布将推出“ChatGPT Plus”付费订阅版本,每月收取20美元,约合人民币134元。作为付费用户,ChatGPT Plus用户将获得在高峰时段更快的响应、优先使用新功能和改进。
其实上个月,OpenAI还发布了每月42美元(约285人民币)的专业版ChatGPT Pro。但当时月活并没有那么吓人。而按照瑞银的最新研究报告数据,ChatGPT 的月活跃用户在1月份预计达到了1亿,成为史上增长最快的消费者应用。
当一件新事物,月活上亿,流量上来,并且开启商业变现之后,硬着头皮掏出西瓜书,再熟悉熟悉一些概念和原理,再把各种资料看起来,把这个东西扒一扒。
一、ChatGPT是什么?
简单说,可以理解成一个超智能的小爱同学或者天猫精灵。
他具备基础的世界知识(比如2022年以前的所有,只要训练集中包含),比绝大多数人掌握的知识面要广,要深。
他具有语言生成能力。并且根据他“掌握”的知识,可以拟人化的和你交流,根据对话内容,做出翔实和公正的回应,与各种AI聊天相比,他的回应会更加的长,更加的拟人。
他可以结合上下文,**应对与你的交流,而不仅仅是一问一答。
他还可以拒绝某些不当的问题,他的设定是要遵循人类正确的价值观,对于某些不当的问题,比如颜色类,歧视类会拒绝,并可能反向给你灌输正确的价值观(当然,目前据说可以引导他跳出这种底线)。
他具有强大的推理和泛化能力,除了应答之外,可以进行推理,比如完成简单的作业;编写代码和debug;甚至可以进行创作,比如**、诗词、剧本等。
当然,根据当前的知识和能力,他有可能给你编造出一个毫无逻辑,但又不容易看出对错的答案。但对于深度精细和专业化的问题,他无法做到的时候,也会承认自己的不足。
根据他的能力,他有可能通过图灵测试,你在交流时,可能完全不知道,对面是一个AI。
二.ChatGPT不能做什么?
ChatGPT的两个重要能力:知识和推理。但他的能力还存在一些问题:
(1)知识具有时效性。他的知识来源于训练过程中数千亿的参数和数据集,如果这个数据是2022年12月提供的,那么2023年1月发生的事情他无法知晓。
互联网虽然可以实时更新各种信息,但目前为止,他还不能实时的从互联网检索,不过,OpenAI已经进行过相关的测试。
(2)推理能力有限。在自然语言处理中,对于模棱两可不需要推理的,或者某些地方具有简单逻辑,但某些地方模糊的,它可以很好的处理。
但对于非常严谨,不能有任何歧义的问题,他无法进行推理。比如严格的数学证明。
(3)不能实时修改模型信念:如果模型中含有的部分知识本身是错的,他没有能力去修改模型对这一知识的信念。
三、ChatGPT的能力如何获得?
从这部分开始,不得不引入更加专业性的名词,并且把不同的能力进行细分。
在ChatGPT发展过程中,经历了2020年的GPT-3 series的001阶段(code-davinci-001和text-davinci-001),和2021~2022的GPT-3.5 series的002阶段( code-davinci-002 和text-davinci-002),以及GPT-3.5 series的003阶段( text-davinci-003和ChatGPT)。
1.ChatGPT的基本能力(001阶段):
(1)语言生成:根据提示词,生成语句,进行交互。来自于语言建模的训练目标。
(2)世界知识:包括事实性知识和常识。来自于 3000 亿单词的训练语料库和 1750 亿的参数。其中模型参数是为了存储知识。
(3)上下文学习:遵循给定任务的几个示例,然后为新的测试用例生成解决方案。这是 ChatGPT的重点。可能来自于同一个任务的数据点在训练时按顺序排列在同一个 batch 中。
以上三种能力都需要大规模预训练。在001阶段就已经获得。因为知识的性能与模型参数大小相关,千亿的参数+语料,注定了这是一个大模型的大规模预训练,需要大量的算力支撑。
但是实际上2020年左右的ChatGPT 001阶段并不够智能;开源的OPT模型与GPT-3模型非常接近,根据测试过的人员的反馈,与目前上线的ChatGPT相比,天差地别。
在后续的能力进化的002/003阶段,ChatGPT才达到了如今的拟人程度。
Note: 这里插一句,目前好多山寨版的ChatGPT APP,大概率就是基于OPT模型。
2.能力进化(002/003阶段):
在GPT-3.5 series开始引入代码训练和指令微调,包括有监督学习和强化学习。
其中,指令微调的好处是:训练所需的数据量比预训练数据量少几个数量级,可以节省算力开支和训练成本。
1.能力进化1:经过监督学习指令微调和代码训练,模型进化到002阶段,有了一些新变化,比如:
(i)代码生成和代码理解:基于代码的训练,这个显然可以增强。
(ii)泛化:可以自动在没见过的新指令上生成有效回答—-> 这是最终上线部署的关键,可以更好的响应人类指令,并生成更合理的答案;而不仅仅依赖于训练中的语句。
(iii)推理:利用思维链进行推理,这是代码训练的副产物,也是chatGPT在上线之后表现突出的能力来源
(iv)长距离依赖:可以上下文学习后的能力增强。
2.能力进化2:基于人类反馈的强化学习的指令微调(RLHF),模型进化到003阶段,也就是我们目前见到的ChatGPT,RLHF 触发了一些新的能力:
(i)更加翔实的回应:ChatGPT 的回应比002阶段更加冗长。
(ii)公正的回应:ChatGPT 对涉及多个实体利益的事件会给出非常平衡的回答,俗称上帝视角。
(iii)拒绝不当问题:这是内容过滤器和 RLHF 触发的模型自身能力的结合,过滤器过滤掉一部分,然后模型再拒绝一部分。比如拒绝其知识范围之外的问题。
到这一步,基本就是我们目前看到的ChatGPT了。
但要说明的是,指令微调不会加入新能力,两个阶段进化的新能力,不是在后续的代码训练和指令微调获得的,实际上是在三大基本能力的基础上的解锁和增强。
而三种基本能力,在大模型预训练之后就已经具备了。但三种基本能力对应的001阶段根本不出圈,到003阶段才真正开始火起来,这是需要思考的地方。
同时,指令微调可以让不同的模型具有不同的能力侧重,比如text-davinci-003更擅长上下文学习,而ChatGPT更擅长对话。这也是可以理解的,因为最终AI 落地之后不同的应用,有不同的侧重点。
下图可作为参考,ChatGPT的发展基本如此。
四、国内的发展关键在哪里?
目前已知的信息—>ChatGPT完美运行的三要素是:训练数据+模型算法+算力;
结合GPT发展过程中获得的信息,在当前高科技发展处处被针对的前提下,我们按照这三个要素来看,谁才是关键?
(1)数据:我国不缺数据,百度、**等互联网公司应该都有便捷的渠道获得类似的训练数据。不过数据采集之后,还需要对数据进行清洗、分离,获得不同的用于训练和测试调优的数据集。
这部分工作,也有对应的公司去做,问题是不大的,投入人力和物力即可。这基本上是个累活,训练数据很重要,但没有到只有谁才能做的地步,不存在什么你有我无的问题。
(2)算法:ChatGPT的基础能力在001阶段的GPT-3就已经获得,开源模型OPT与GPT-3模型近似,所以获得基础模型的难度并不大。
三大能力的获得是在基础模型上的大规模预训练,存储大量知识的能力来自 1750 亿的参数量(神经网络)。这部分需要大量的算力。目前已知的ChatGPT已经导入至少1万颗英伟达高端GPU来训练模型。
后续新能力的获得是模型调优后获得的解锁和进化,也就是指令微调和代码训练。
模型调优,我们有大量的调参侠可以去重复工作,并且这部分对算力的需求降低了几个数量级。只要有足够的算力+调参投入,获取一个类似的模型,看起来并不难。
当然,对于能创造算法的公司而已,那是他的核心竞争力。
(3)算力:其实到这一步,我们应该已经能推导出最关键的地方在哪里了?就是算力。也是我们最受限的地方。
数据可以获取,模型和模型调优,只要算力足够抗造,是可以做到类似的产品的。从百度宣称3个月后推出类似的chatGPT,应该可以佐证。
数据采集:对百度比较简单。
模型:百度本身对AI研究投入很大,又有飞桨,所以,模型以及调优,也是不受限。
算力:百度有昆仑芯,虽然不如英伟达,但也可以用。
从这几点看来,都不卡脖子。但问题是,我国不只有一个百度,还有大量需要算力支持的企事业单位。哪怕百度的昆仑,一旦台积电不给造了怎么办?芯片老化损坏后怎么办?
所以,我们不仅仅是需要一个昆仑,我们还需要更多高端的通用的,或者专用的算力芯片,包括云、端、边缘,包括训练和推理。
因为底层的芯片才是支撑算法运行的基石,算力芯片。95%的市场在英伟达手里。
五、科技大**
在解释这个原因之前,先引入一个概念—>"科技大**"。
正好最近在播《三体》,我就借用一下三体的一些剧情来描述。
三体世界距离地球大概4~5光年,舰队出发到达地球,大概需要四五百年的时间。为了防止在这之前,地球的科技水平超过三体世界。三体人向地球发**二维改造过的质子,用来监视和阻碍人类基础科学的发展。
很多读者会觉得奇怪,三体世界的科技水平,已经是地球人无法想象的高度,有什么必要来锁死基础科学?
很简单,因为人类可能很快就会面临“科技大**”。我们回到现实世界来看:
从第二次工业**开始,人类从刀耕火种的年代,跨越到现代文明,短短不过两百多年的时间,但却让公元后两千多年的生活发生了翻天覆地的变化。
如果单独看航天器发展,从莱特兄弟1903年发明“飞行者一号”上天,到1969年美国阿波罗登月,也才60多年的时间。而到77年,人类就已经试图向银河系外探索。
基础科学的发展,随着不断的累积,在某一瞬间,某些**应用科学发展的因素会被融汇贯通,而随之带来的就是应用科学的突飞猛进。不断的正向反馈,最终促进人类科技的全面爆发,这就是所谓的“科技大**”。
那么,可以设想一下,再过50年,100年,人类的科技水平又会变成何种样子呢?
六、神经网络的发展
近几年高速发展的人工智能,基本属于深度学习,其所依赖的最重要算法是神经网络,但神经网络的发展,经历了两次低谷期。
1.第一次低谷:神经网络50年代提出,此时主要由生物学背景的科学家主导。但随着人工智能之父提出的异或问题,人们开始质疑,认为神经网络是骗人的。
但从80年**始,物理学家开始进入这一阵地。并在1986年,提出了BP算法,通过梯度下降的方式,可以将误差收敛到一个极小值。理论上证明了神经网络这种联结主义可用。BP算法大获成功,在之后的发挥职能中,数百种新模型被提出,并应用于自动化控制、股市预测、癌症/疾病诊断、蛋白质、基因、军事识别等等领域。
神经网络因为算法问题陷入了第一次低谷。也因为BP算法的提出,加上大数据驱动,进入了新的**期。
2.第二次低谷:随着神经网络的发展,人们很快就遇到了新的问题,那就是收敛速度和泛化的问题。
简单说就是“慢”。当时的计算器CPU性能还不够强大,对于稍微大点,层数和节点多一点的网络,训练时间太长,稍微大的规模就无法处理了。
而同一时期,基于统计的机器学习的发展,尤其是SVM支持向量机的模型出现,从多方面体现了相较于当时的神经网络的优势。
自此神经网络进入了第二次低谷,原因是因为算力问题,导致算法的实用性受限。
3.再度爆发
在第二次低谷期,神经网络虽然被搁置,但科学家也相信最终算力问题会得到解决。
进入21世纪,基于神经网络的深度学习再度走上前台,主要是因为出现了如下的转机:
(1)数据:21世纪,互联网快速发展,人类通过互联网的运转,获取了过去十多年难以想象的海量数据。这些数据,为神经网络的数据构建和训练带来了可行性。
(2)高级算法:2006年,Hinton在Science首次提出“深度信念网络”的概念。与传统的训练方式不同,“深度信念网络”有一个“预训练”过程,可以方便地让神经网络中的权值找到一个接近最优解的值,之后再使用“微调”(fine-tuning)技术来对整个网络进行优化训练。
预训练+微调,这种两部训练技术的运用,大幅度的减少了多层神经网络的训练时间。在上一篇文章的ChatGPT发展过程中我也有提到,ChatGPT的基本能力来源于预训练,而能力进化和解锁来源于指令微调。
这个阶段,训练和计算基本依靠CPU进行,CPU频率也在逐渐提高,但此时10亿量级的链接,比如2012年的Google X 项目,训练这一模型,耗费了1000台计算机,16000个CPU计算,其训练速度、运行时间、训练成本都不能令人满意。
而因为CPU算力有限,此时深度学习发展速度并不快。
(3)GPU的强大计算能力的引入:
CPU是专门为按序列串行处理优化的核心组成;而 GPU 则拥有大规模并行架构,当中包含数千个更小、更高效的核心,专为同时处理多重任务而设计。与仅包含 CPU 的配置相比,GPU 的数据处理速度快得多。
在神经网络在最初的训练过程中,主要依靠的是CPU。
在2011~2012年前后,英伟达显卡GTX580被导入到CNN模型计算,对于大模型的训练,GPU的加速效果达到了CPU的60倍左右。比如上文的10亿个连接的Google X项目,在同等工作量和时间下,只需要64个GPU的16台电脑就可以运算出结果。
2012年,吴恩达用3台GTX680,就完成了谷歌用1000台CPU服务器才能完成的猫脸识别任务,GPU正式被各大互联网头部厂商导入,但依然处于CPU+GPU并行的阶段。
2016年,英伟达推出新的GPU架构,专门针对AI计算进行优化。而在之后的两年时间,基于深度学习的AlphaGo先后战胜李世石和柯洁。
也就是那时候开始,深度学习/人工智能在短时间之内火遍业界、学术界和就业市场。相信几年前的火热场景大家还有影响,一个应届生,只要会一点tensorflow,pytorch,会调参数的调参侠就可以被公司以四五十万招揽。
而因为GPU强大的加速效果,随着以深度学习为核心的各种应用,不断涌现并且快速落地。GPU在此时,成为了AI计算的标配。
从数据,算法、算力,一点点积累,最终造就的就是一次小规模的科技大爆发,而这次科技大爆发的成果就是深度学习,而其所带来的,则是算力需求的大**。
七、第一次算力需求大**
1.需求大**:
在深度学习新算法+GPU的两大加持之下,AI计算在应用领域极速扩大。
尤其是随着云计算、金融、短**推荐算法,图像识别(安防、智慧城市)以及自动驾驶的飞速发展,互联网巨头、ZF,公共事业部门、安全部门等,对于算力的需求飞速增长。再加上加密货币的火热,出现了第一次算力需求的大**。
在社会层面,互联网巨头们对于算力的海量需求,大量的数据中心和算力中心被建立,GPU芯片被快速部署到各种服务器,数据中心,并且在持续的进行。
而政府规划层面,东数西算、智算中心也自此诞生。
而英伟达则随着GPU的大量出货,GPU+CUDA独霸市场,股价也开启了从30,涨到800的逆天之旅。
2. GPU局限性
但是,通用GPU在使用过程中,也逐渐显现出局限性,并不能满足每一种需求,因为有的侧重训练,而有的则是侧重推理,有的侧重能效,比如加密货币领域,为了最求更高的能效比,矿卡开始大量取代英伟达的GPU。
其实,这个局限性,在谷歌的AlphaGO就已经显现,最初的AlphaGo完整版本运行在48颗CPU和8块GPU上,这个板本的AlphaGO的反应相对较慢,并不足以颠覆人机大战,李世石一度很有信心。
但实际上,后续与李世石的对弈,谷歌引入了高度定制化的,基于tensor Flow深度学习架构的TPU,按照谷歌的描述,其TPU 平均比当前的 GPU 或 CPU 快15~30倍,能效比更是GPU的70倍,CPU的两百倍。在这一配置下,AlphaGO以绝对优势击败了李世石。虽然TPU通用性差,但效率巨高,后来在谷歌翻译、图像搜索、谷歌照片(Google Photo)、谷歌云视觉API 中大量应用。
与之类似的是,特斯拉的自动驾驶,FSD芯片从18年开始导入,不仅仅依赖于GPU, 而是专门加入了神经处理单元和各种加速器。后续更是开发了Dojo+D1芯片,专门承担算法训练重任。
还有百度,在使用GPU的时候,也采用FPGA研发AI加速。并最终自研了云端全功能AI芯片-昆仑。
而阿里,因为应用场景不同,则是自研了含光800,更加侧重于推理。在城市大脑的业务测试中,1颗含光800的算力相当于10颗GPU。
可以说,在第一次算力需求大爆发下,GPU 虽然独霸市场,但各种偏训练、推理的专用芯片也开始快速的发展。
八、新的算力需求大**即将到来
深度学习伴随的第一次算力需求大**,To C应用火热的基本没有,更多的是在To B 和 To G,主要在云端部署。GPU+专用芯片,第一次算力需求的大爆发,似乎处于一个相对平衡阶段。
但是,当ChatGPT月活用户接近1亿的时候,事情就不一样了:
这是互联网发展20年来,增长最快的消费类应用。
这也是人工智能诞生以来,面向C端用户增长最快的速度。
这是获得大众认可的AI C端产品,而过去,人们只会叫他们“人工智障”。天猫精灵或者各种什么同学,有时候能让你气的脑溢血。人们往往用一用,就过了新鲜劲,所以更多的AI还是在B端,G端,用在现在,已经有1亿人对ChatGPT表示出了高涨的热情。大佬们更是给出了超高的评价:
比尔盖茨说,“ChatGPT让我们窥见了即将发生的事情,这项技术以及其革新速度都令人印象深刻。”
美国《财富》**评价ChatGPT就是人工智能行业的iPhone。
商汤智能产业研究院长田丰认为:“ChatGPT验证了当前AI大模型的巨大商业价值和科研价值。ChatGPT的出圈,可能意味着一个AI大规模商业化时代的到来。
ChatGPT让谷歌,微软、百度等一众大佬刚到恐惧,他虽然不是搜索引擎,但用户通过ChatGPT获得更准确、及时、人性化的答案,这个时候还需要搜索引擎吗?谷歌的Gmail创始人保罗·**海特认为,谷歌距离被彻底颠覆可能只需要一两年的时间,像ChatGPT这样的AI聊天机器人将摧毁谷歌,消灭搜索引擎结果页面。
ChatGPT取得的成绩,以及各种高度的评价,足够令人重视。
而我们需要重视的,则是ChatGPT背后的通用大模型技术:他已经在医药研究、虚拟电厂等各种方向开始创新和发展。但当他以To C的方式出圈,会进一步推动这种模型在产业层的应用。
而这样一个需要进行大规模预训练,具有3000亿数据,将近2000亿参数的超级大模型。当前仅仅是GPT-3.5, 近期将会更新GPT-4,他的参数将比3代再高出几个量级。
这个模型的训练,目前OpenAI至少导入了一万多块的英伟达最高端的GPU进行预训练。而触发第一次算力需求大**时的AlphaGO 仅仅需要8块GPU RTX680,而和柯洁对战的go只用了4块GPU。
这种大模型,对算力的需求至少是指数级的增长。当他从实验室走向落地,旦类似的大模型开始根据各行各业做推广和部署,这个算力需求是个无底洞,当前的算力是不够的。
甚至于东数西算打造的各种数据中心,也远远难以应对即将到来的,"新的一轮的,算力需求大**"。
我们可能需要更多,不仅仅依赖于数据中心,云计算,更需要算力网络,需要云网融合,甚至需要端测设备也提供算力,将端侧的闲置算力链接并网。
我们不仅需要GPU,更需要各种专用的云端训练芯片,推理芯片。
我们还需要各种端侧的推理芯片,NPU/AI 芯片,未来的各种终端都需要具有AI算力。不仅仅用于处理端侧的算力需求,还要将闲置的算力贡献到整个算力网络中调配,类似于BTC挖矿。
新的一次的算力需求大**,我相信不会太远,也许在2025年前后就会到来。这是个机会,因为潜力和想象力巨大。
但也很难,因为我们在高端算力上缺失严重,我们在高科技领域、半导体领域、高性能计算等方面被各种掣肘。
其实,有时候把资本圈正在发生的事情,国家正在规划的事情放到一起去看,能看出些东西的。
比如GPGPU、算力、训练芯片各种芯片厂家快速获得大额融资;
比如各家互联网大厂、新能源汽车主机厂的数据中心,算力中心,智算中心的加快建设。
比如国家的东数西算,云网融合,算力网络。。。。
根源,最终不还是需求么?
我会在 公众号:海涵财经 每天更新最新的医疗新基建、一体化压铸、 汽车智能化,激光雷达,HUD,车规芯片,空气悬挂、L3级智能驾驶、PET铜箔,纳电池,800V高压,光伏HJT、TOPCON、钙钛矿、光伏XBC、BIPV、IGBT芯片、碳化硅SIC、CTP/CTC/CTB电池、4680电池、工业母机、海风柔直高压、新能源车高压快充、高镍三元、碳纤维、PET铝箔、PET铜箔、空气源热泵、新材料、中药创新药、中药配方颗粒、乡村振兴、锂矿、钒液流电池、钠离子电池、分布式储能、集中式储能、抗原检测等最新题材热点挖掘,未来属于高预期差的结构性市场,把握核心赛道以及个股的内在价值逻辑预期差才是根本所在。
— END —
先赞后看,养成习惯
免责声明:图片、数据来源于网络,转载仅用做交流学习,如有版权问题请联系作者删除
当前,以芯片为代表的信创产业逐步成为国家科技竞争力的重要标志。在国产CPU产业强势崛起的过程中,你首先想到的会是哪几企业?答案有很多,但“中科系”的提及率绝对很高。作为国家战略科技力量,“中科系”旗下
21世纪经济报道记者倪雨晴 圣何塞报道在硅谷源泉之一的圣何塞,英特尔CEO帕特·基辛格(Pat Gelsinger)正在带领英特尔加速奔跑。当地时间9月19日,2023英特尔on技术创新大会于美国加利
财联社9月19日讯(记者 唐植潇)近日有消息称,OPPO将会重启芯片业务,并且“有部分员工已经回流,加入到了车载业务之中”。记者就此事向OPPO方面进行核实,对方表示“不予置评”。特百惠(我国)数字与
600亿颗芯片!我国巨头正式宣布,美媒:**也没料到制裁这么快
我国芯片市场与美国依赖我国的集成电路市场一直以来都是一个巨大的市场,拥有庞大的需求和巨大的增长潜力。我国的电子消费市场一直在迅速增长,包括智能手机、电视、电脑和各种智能设备等,这些设备都需要高性能的芯
最新手机芯片天梯图:A17、华为麒麟9000S,排在什么位置?
近日,最火的两颗芯片分别是苹果的3nm芯片A17 Pro,虽然很多人吐槽它较上一代提升不明显,但论性能,可以碾压任何安卓芯片,甚至是领先2代的。另外一款芯片,则是华为麒麟9000S,当然,这颗芯片工艺
韩国芯片连续13个月暴跌,尹锡悦指责我国不采购,外媒:自食其果
据韩国媒体称,韩国的半导体出口额已经连续暴跌13个月了,比去年同比下降了28%左右。韩国政府急的焦头烂额。尹锡悦政府竟直接甩锅我国,话里话外都是指责,他认为韩国半导体卖不出竟是我国的原因,我国应该帮助
我国突破芯片瓶颈将影响全球秩序?美国很担心,指出我国关键弱点
我国在芯片半导体领域一直深受美国的**,通过贸易制裁的方式阻止高端芯片进入我国市场。这样的举措一度造成我国芯片领域发展断档,不过随着我国科技企业近几年的突破,目前我国已经在芯片制造方面取得了重大的成果
前几天,华为一声不响的上线了mate60系列,带着麒麟芯片9000s强势回归,吸引了全世界的目光。而华为麒麟芯片**背后,我们不该忘记这位老人—张汝京。我国半导体之父,为回**造芯片,被开除**户籍,
【有车以后 资讯】“未来汽车对传统汽车的颠覆性,使传统零部件体系的50%以上都面临重构。”12月16日,在全球智能汽车产业峰会(GIV2022)上,我国电动汽车百人会理事长陈清泰指出,智能汽车的价值链
投稿点这里汽车有多少个零件?其实这个问题并没有一个十分确切的标准答案...据估计,一般轿车约由1万多个不可拆解的**零部件组装而成。结构极其复杂的特制汽车,如F1赛车等,其**零部件的数量可达到2万个
全球最大的10家汽车零部件供应商 都是世界500强 无我国企业
【卡车之家 原创】美国《财富》**每年发布的世界500强排行榜,是以营业收入数据对全球企业作出排名的榜单。2017年“世界500强”榜单中,汽车制造商和零部件厂商共占据33席(除去大型工程车辆企业),
汽车零部件企业哪家强?除了博世**还有这些名字你一定耳熟能详
文:懂车帝原创 李德喆[懂车帝原创 行业]9月18日,由《我国汽车报》主办,罗兰贝格协办的2019汽车零部件“双百强”企业发布会在江苏南京举行。在两份榜单中,博世、**、电装位列2019全球汽车零部件
行业现状(Reference:产业运行 | 2021年汽车工业经济运行情况)中汽协预测:2022年我国汽车销量达到2700万辆,新能源销量超过550万辆(Reference:乘用车市场信息联席会)以乘
全球十大汽车零部件供应商,核心技术都被他们垄断,自主遗憾缺席
提到电影,我们会想到张艺谋、冯小刚,而很少会想到幕后的制作人;提起流行乐,我们会想到周杰伦、萧敬腾,而很少会想到背后的作词人。台前台后,一幕之别,知名度往往相差甚远。车界又何尝不是如此,知名车企我们都
来源:环球时报 【环球时报记者 倪浩 陶震 环球时报驻德国特约记者 青木】经过3年疫情后,全球最具影响力的通信展今年有望再现往日盛况。2月27日至3月2日,由全球移动通信**协会(GSMA)主办的20
近日华为、苹果争相推出手机卫星通信功能,成为一大亮点,不少手机厂商也将目光投到卫星通信。放眼未来,手机直连卫星的卫星通信服务将是大势所趋,也是6G时代的重要标志。华为以“北斗三号”为依托,率先把“卫星
国内企业在光通信产品的参数测试过程中,通常使用国外的先进测试设备。然而,这些测试仪器之间往往是孤立存在的,需要手动调试仪器并通过旋钮、按钮和人眼观察波形或数据。这不仅*作繁琐易出错,而且测试效率低下。
龙头20cm涨停,7天股价翻倍!一文看懂卫星通信前世今生及产业链
卫星通信概念股华力创通今日再度强势拉升,截至发稿,该股股价20cm涨停,7个交易日累计涨幅近113%,现报23.52元续刷阶段新高,总市值155.9亿元。消息上,有媒体从供应链获悉,Mate 60 P
工信部:目前我国尚不具备实现网络层面的移动通信号码归属地变更的条件
针对网友提出的“电话号码归属地更改”建议,工信部近日给出了官方回复。此前,有网友在人民网留言板向工信部留言称,“现在电话都是实名制,电话号绑定的***及一些主流的软件较多,更换号码后造成一系列问题