xxxnxx下载|第34节-威尼斯人2299

李雅婷

李雅婷

植根流通业 沟通上下游

ta的内容9.4万
大图模式
评论
点赞
分享
放大字

xxxnxx下载|第34节

2025-03-12 13:56:19
625

  根据黑猫投诉平台的最新数据显示,部分投资者对余额宝的投诉较为集中。许多投资者将余额宝与广发基金等同起来,并认为广发基金存在乱扣费问题。然而,经过调查发现,这些扣费问题大多与余额宝的“自动转入”功能有关。例如,用户可能在不经意间开通了如笔笔攒、蚂蚁星愿、工资理财等功能,导致资金被自动转入余额宝账户。

  建议投资者在使用余额宝及相关功能时,仔细检查是否开通了自动转入服务。如果发现异常扣款,可在余额 宝页面查询账单或取消相关功能。同时,投资者应提高对金融产品功能的了解,避免因误操作引发不必要的困扰。

责任编辑:公司观察

李雅婷(记者 蔡嘉梅)03月12日,中国战略新兴产业融媒体记者 艾丽格玛2024年12月26日,深度求索(deepseek)发布了其最新人工智能大模型deepseek v3,并同步开源。这两年来,每家ai公司都会对自己的ai大模型不断进行迭代更新,这已不是什么新闻。然而,deepseek v3的发布却在圈内外引发了热烈的讨论,引发了极大的关注。据称,deepseek v3拥有6710亿参数的混合专家模型(moe)在多项基准测试中表现优异,超越了llama 3.1 405b等开源模型,并与gpt-4o、claude 3.5 sonnet等闭源模型分庭抗礼。而更引人注意的是,根据公开消息,其训练成本仅为557.6万美元,远低于gpt-4o等模型的10亿美元预算。deepseek v3的训练方式与算法优化,显著降低了训练和推理大模型对高端硬件的需求——这背后隐含的可能性是,通过软件优化,可以在有限硬件资源下实现顶尖性能。这一点,可以使得ai大模型大大减少对高端gpu的依赖,甚至有人认为,这套训练算法将对“卖铲子”的英伟达等硬件供应商带来巨大的动荡。01 低成本高性能,怎么做到?deepseek官方在其同步开源的53页deepseek v3模型论文中提到,deepseek v3的生成速度达到每秒60个token,api价格仅为claude 3.5 sonnet的1/53。在知识类任务(包括mmlu、mmlu-pro、gpqa和simpleqa)上,deepseek v3的表现优异,已经接近于当前表现最好的模型,即anthropic公司于10月发布的claude-3.5-sonnet-1022。在美国数学竞赛(aime 2024和math)和全国高中数学联赛(cnmo 2024)上,deepseek v3的表现大幅超过了其他所有开源和闭源模型。>> deepseek开源的文档同时,deepseek v3的生成速度从20tps(每秒完成的事务数量)提高至60tps,相比v2.5模型实现了3倍的提升。这种“低成本≠低性能”的特点,正是deepseek v3热度的来源。那么,这种绕过硬件掣肘,从算法上大幅降低成本的路径,究竟是如何达成的?首先,在架构方面,deepseek v3采用了混合专家架构(mixture-of-experts, moe),包含256个专家,每次计算选取前8个最相关的专家参与。想象一下,有一个机器人,它有很多小助手,也就是“专家”。总共有256个专家,每个专家都擅长做不同的事情。现在,假设机器人要解决一个问题,它不需要让所有的专家都来帮忙,因为那样会浪费时间和精力。相反,它会从这些专家中挑选出最厉害的8个专家来帮忙。这些被选中的专家是最适合解决这个问题的,所以它们可以又快又好地完成任务。这种混合专家架构就像是一个聪明的管理者,总是能选出最合适的人来完成任务,也就可以减少不必要的计算和内存消耗。moe通过动态选择部分专家模型处理输入,减少了不必要的计算开销,显著提升了训练和推理效率,例如,谷歌的gemini 1.5就采用了moe架构,通过路由机制将请求分配给多个专家模型。但是,moe模型仍然有些问题。例如,训练过程较为复杂,尤其是门控网络的设计和专家模型的负载均衡问题,可能导致训练不稳定;moe需要将所有专家模型加载到内存中,显存需求较高,限制了其在资源受限设备上的部署;同时,在分布式计算环境中,moe模型的专家模型可能分布在不同的计算节点上,导致通信开销较大,影响整体效率。moe的选择机制可能导致某些专家被频繁调用(过载),而其他专家则很少被使用(欠载)。这种负载不均衡会降低模型的整体效率,甚至影响性能。为了解决这个问题,传统方法通常会引入辅助损失(auxiliary loss),通过惩罚负载不均衡的情况来强制均衡专家的使用频率。然而,辅助损失本身可能会对模型的主任务性能产生负面影响,因为它会干扰模型的优化目标。因此,deepseek v3在混合专家(moe)架构中,引入了无辅助损失的负载均衡策略,通过动态调整专家偏置值,确保每个专家负载均衡,避免了传统辅助损失对模型性能的负面影响。具体来说,deepseek v3根据每个专家的历史使用频率,实时调整其偏置值(bias)。如果某个专家被频繁调用,其偏置值会被降低,从而减少其被选择的概率;反之,如果某个专家很少被调用,其偏置值会被提高,增加其被选择的概率。由于没有辅助损失的干扰,模型能够专注于主任务优化,从而提升整体性能。而且,动态调整偏置值的计算开销较低,不会显著增加模型的计算负担。同时,避免了辅助损失可能导致的训练不稳定问题,使模型更容易收敛。这种无辅助损失的负载均衡策略,是deepseek v3独有的。另外,在传统的transformer架构中,多头注意力机制(multi-head attention, mha)是核心组件之一。mha通过并行计算多个注意力头,捕捉输入序列中的不同特征。然而,mha需要存储大量的键(key)和值(value)矩阵,尤其是在处理长序列时,内存需求呈平方级增长。而且mha的计算复杂度与序列长度的平方成正比,导致在处理长文本时效率较低。deepseek v3使用的mla通过引入低秩联合压缩技术,将键和值矩阵压缩为潜在向量(latent vectors),这就可以帮它大大减少内存占用和计算开销。除了这些,deepseek v3还自创了一种dualpipe流水线并行算法,这也是其高效训练框架中的一项关键技术。在训练大规模ai模型时,通常需要将计算任务分配到多个gpu或节点上进行分布式训练。然而,分布式训练面临两个主要挑战: 计算与通信的串行化:在传统流水线并行中,计算和通信操作通常是串行进行的,即在进行通信时,计算资源处于空闲状态,导致资源浪费; 通信开销:在跨节点训练中,数据传输(如梯度同步)会占用大量时间,成为训练效率的瓶颈。deepseek v3的dualpipe流水线并行算法通过将计算与通信时间完全重叠,最大化硬件资源的利用率,从而显著提升训练效率。dualpipe算法将训练过程分为两条独立的流水线:计算流水线和通信流水线。 计算流水线负责模型的前向传播和反向传播,而通信流水线负责跨节点的数据传输(如梯度同步)。这两条流水线可以并行运行,互不干扰。dualpipe流水线并行算法在实际应用中取得了显著效果,通过将计算与通信时间完全重叠,dualpipe算法将硬件资源的利用率提升到了接近100%。而且,由于计算和通信并行进行,训练时间显著缩短,尤其是在大规模分布式训练中效果更为明显。通过优化通信内核和充分利用高速网络带宽,dualpipe算法将通信开销也降到了最低。此外,在深度学习训练中,传统的浮点数精度通常是32位(fp32)或16位(fp16)。混合精度训练通过在不同计算阶段使用不同精度的浮点数(如fp16和fp32),在保持模型性能的同时,减少内存占用和计算开销。然而,随着模型规模的不断增大,fp16和fp32的计算和存储开销仍然较高。为了进一步优化资源利用,deepseek v3引入了fp8混合精度训练。fp8是一种8位浮点数格式,其存储和计算开销仅为fp16的一半,fp32的四分之一。包括llama系列、mixtral 8x7b、inflection-2、零一万物的双语llm模型以及coat框架下的模型,都通过fp8技术显著提升了训练效率和资源利用率,同时保持了模型性能。deepseek v3还采用了多令牌预测目标(multi-token prediction, mtp),在训练过程中,模型不仅预测下一个令牌,还同时预测后续的多个令牌。例如,给定输入序列“我喜欢吃”,模型可能同时预测“苹果”“香蕉”“与/和”等多个令牌。这种密集的训练信号显著提高了数据利用率,减少了训练所需的样本数量。在推理阶段,模型能够同时生成多个令牌,从而加速文本生成过程。deepseek v3的开源策略引发了全球开发者的广泛关注。openai创始成员karpathy称赞其“让在有限算力预算上进行模型预训练变得容易”。meta科学家田渊栋则惊叹其训练技术为“黑科技”。最重要的是,这一策略降低了技术门槛,为中小企业和初创公司提供了低成本的高性能ai5845vip威尼斯电子游戏的解决方案。>> deepseek-v3的基本架构示意图。在deepseek-v2的基础上,采用了mla(多头潜在注意力)和deepseek moe,以实现高效的推理和经济高效的训练。整理总结可以发现,deepseek v3不论是采用现有的技术,还是独创自己的路线,都另辟蹊径。这或许与它的母公司和创始人的调性脱不开干系。02 “不务正业”的私募巨头深度求索(deepseek)公司的成立和发展,与量化私募巨头幻方量化有着密切的关系。深度求索成立于2023年7月17日,创始人就是幻方量化的创始人梁文锋。幻方量化是中国知名的量化私募公司,专注于利用算法和高性能计算进行金融投资,幻方量化为深度求索提供了强大的资源支持。彼时,幻方量化是“大厂”外唯一一家储备万张a100芯片的公司,这些高性能计算集群和资金投入使得深度求索能够在短时间内推出高性能的大模型。deepseek一跃成名,起因是他们此前发布的deepseek v2开源模型:deepseek v2的推理成本在当时就被降到每百万token仅 1块钱,约等于llama3 70b的1/7,gpt-4 turbo的1/70——deepseek因而被称作“ai界拼多多”。在低成本的压力下,字节、腾讯、百度、阿里的大模型开始纷纷降价——可以说,中国大模型“价格战”由此而始。受到影响的不只是国内的“大厂”,有不少圈内人士都受到了deepseek开源内容的启发。例如,openai前员工andrew carr从deepseek-v2论文中获取灵感,将其训练设置应用于自己的模型。在硅谷,deepseek被称作“来自东方的神秘力量”。semianalysis首席分析师认为,deepseek v2论文“可能是今年最好的一篇”。openai前政策主管、anthropic联合创始人jack clark认为,deepseek“雇用了一批高深莫测的奇才”,还认为中国制造的大模型,“将和无人机、电动汽车一样,成为不容忽视的力量”。有人认为,这种强烈的反响源自架构层面的创新,这是国产大模型公司乃至全球开源基座大模型都很罕见的尝试。创始人梁文锋早年就读浙江大学电子工程系人工智能方向,无比笃信“人工智能一定会改变世界”。在接受“暗涌”的采访时,梁文锋说:“过去很多年,中国公司习惯了别人做技术创新,我们拿过来做应用变现,但这并非是一种理所当然。这一波浪潮里,我们的出发点,就不是趁机赚一笔,而是走到技术的前沿,去推动整个生态发展。我们认为随着经济发展,中国也要逐步成为贡献者,而不是一直搭便车。过去三十多年it浪潮里,我们基本没有参与到真正的技术创新里。”“中国ai不可能永远处在跟随的位置。我们经常说中国ai和美国有一两年差距,但真实的gap是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。”梁文锋在说到成本路线时,表示很意外:“我们只是按照自己的步调来做事,然后核算成本定价。我们的原则是不贴钱,也不赚取暴利。这个价格也是在成本之上稍微有点利润。”“我们降价,一方面是因为我们在探索下一代模型的结构中,成本先降下来了,另一方面也觉得无论api,还是ai,都应该是普惠的、人人可以用得起的东西。”幻方量化作为量化私募巨头,“囤”了大量的芯片。这也是deepseek得以起步的重要基础。实际上,量化交易需要处理海量数据并进行实时分析,这与ai大模型的训练和推理需求高度契合。幻方量化在高性能计算和分布式系统上的经验,可以直接应用于大模型的开发。同时,量化交易中的算法优化技术(如深度学习、强化学习)与大模型训练中的优化策略(如混合专家架构、fp8混合精度训练)有共通之处。这些技术可以相互借鉴,提升效率。不过,幻方本身的交易成绩和盈利情况在近年来却经历了显著波动,尤其是在2024年。2024年,幻方量化的量化中性策略(如dma策略)因市场波动和监管政策调整(如融券和t 0功能的限制)遭遇了显著回撤。例如,幻方旗下的“慧冲10号a期”在2024年亏损5.36%,近1个月亏损1.33%。2024年初,小微盘股出现流动性危机,导致幻方的量化指增策略(如中证500指增)也受到较大影响。例如,其代表性产品“九章量化多策略1号”在2024年1月至2月期间最大回撤达34.55%。截至2024年7月,幻方量化的旗舰产品“中证500量化多策略”近三年收益率为-12.58%,年内净值收益为-10.07%,与同期中证500指数收益(-10.26%)基本持平。幻方管理的资金规模也从千亿元级的峰值大幅缩减至几百亿。尽管2024年表现不佳,幻方量化在2021年及之前曾取得显著超额收益。据了解,其以指数增强策略为主,通过全市场选股、日内交易和科创板打新等策略获取超额收益。此前,幻方通过多空对冲(如多股票、空股指期货)获取稳定收益,并且是中国首家管理规模突破千亿的量化私募公司。为了在投资之外做更多的研究,搞清楚“什么样的范式可以完整地描述整个金融市场、有没有更简洁的表达方式、不同范式能力边界在哪、这些范式是不是有更广泛适用”之类的问题,幻方从2012年起,就开始关注到算力的储备,并有意识地去部署尽可能多的算力。墙内开花墙外香,可以说,虽然资金规模缩水、业绩表现有争议,但幻方“歪打正着”的开源大模型反而在ai界内掀起了一阵又一阵的巨浪。03 抄了硬件供应商的“老底”?deepseek v3在仅使用2048块nvidia h800 gpu的情况下,完成了6710亿参数模型的训练,成本仅为557.6万美元,远低于其他顶级模型的训练成本(如gpt-4的10亿美元)。这意味着,ai大模型对算力投入的需求可能会从训练侧向推理侧倾斜,即未来对推理算力的需求将成为主要驱动力。而英伟达等硬件商的传统优势更多集中在训练侧,这可能会对其市场地位和战略布局产生影响。训练是指使用大量数据训练ai模型的过程,通常需要极高的计算能力和存储资源。训练过程通常在数据中心完成,耗时较长,成本高昂。推理是指将训练好的模型应用于实际任务(如生成文本、识别图像、推荐商品等),通常需要低延迟和高吞吐量。推理过程可以在云端或边缘设备(如手机、自动驾驶汽车)上进行。为什么推理算力需求会成为主要驱动力?随着各类大模型的成熟,许多企业和开发者可以直接使用预训练模型,而不需要从头训练。例如,gpt-4和本文所述的deepseek v3等模型已经提供了强大的通用能力。对于特定任务,企业通常只需对预训练模型进行微调,而不需要大规模训练,这减少了对训练算力的需求。与之相对地,生成式ai在文本生成、图像生成等领域的应用迅速扩展,推理需求激增。例如,chatgpt每天处理数百万用户的请求,需要强大的推理算力支持。在自动驾驶、智能家居、工业互联网等领域,推理需要在边缘设备上实时完成,这对低功耗、高性能的推理硬件提出了更高要求。训练大模型需要数千甚至数万块gpu,成本高达数百万美元。例如,gpt-4的训练成本估计超过1亿美元。推理对算力的需求远低于训练,但规模更大。chatgpt的推理成本虽然低于训练,但由于用户量巨大,总体算力需求仍然很高。英伟达的gpu(如a100、h100)在训练大模型时表现出色,提供了强大的计算能力和显存带宽。例如,gpt-3的训练使用了数千块英伟达v100 gpu。英伟达的cuda平台还为开发者提供了丰富的工具和库,简化了大规模模型训练的开发过程。所以在训练侧,英伟达的优势几乎是压倒性的。不过,在推理侧,英伟达的gpu能效比相对较低,尤其是在边缘计算场景中,功耗和成本成为瓶颈。以openai为例,虽然它使用英伟达gpu支持chatgpt的推理,但也在探索专用推理硬件以降低成本。还有特斯拉,则是使用自研的fsd芯片(基于npu)进行推理,以满足低功耗和实时性需求。单纯依赖硬件性能的提升已无法完全满足市场需求,而软件优化、算法创新和生态构建的重要性日益凸显。与其说这是对硬件供应商的挑战,不如说,在当前这个“摩尔定律”显著放缓、行业面临瓶颈期的时节,这是一个转型的机遇。随着半导体工艺接近物理极限,硬件性能的提升速度放缓,单纯依赖硬件升级难以满足ai计算的需求。而高端硬件(如gpu、tpu)的采购和维护成本高昂,且能耗较大,无论是在大规模普及中还是对于资金薄弱的中小企业来说,硬件成本费用都是一个沉重的负担。目前看来,deepseek带来的最大的启示,就是通过算法优化(如混合精度训练、模型压缩、量化等),可以在不增加硬件成本的情况下显著提升计算效率。而英伟达等硬件商则更应该通过提供软件工具和框架(如cuda、tensorrt),构建开发者生态,从单纯的硬件销售转向提供综合5845vip威尼斯电子游戏的解决方案(如云服务、ai平台)。例如,英伟达通过cuda平台为开发者提供了丰富的工具和库(如cudnn、cublas),简化了ai模型的开发和优化过程。尽管amd、英特尔等公司推出了类似平台(如rocm、oneapi),但它们在性能和生态成熟度上仍无法与cuda匹敌。semianalysis创始人迪伦·帕特尔(dylan patel)指出,英伟达的竞争优势就在于其软件和硬件的紧密结合,cuda的高效性和易用性使得英伟达在ai芯片市场占据了主导地位。英伟达ceo黄仁勋也认为,cuda正是英伟达从图形处理器公司转型为全球计算巨头的关键。可以预见,未来硬件商将开发更多专用ai硬件(如npu、tpu),并通过算法与硬件的协同设计,进一步提升计算效率和能效比。软硬件协同优化和综合5845vip威尼斯电子游戏的解决方案是未来发展的重要路径。

李雅婷(记者 李秉贵)03月12日,“恭喜林诗栋夺得wtt新加坡大满贯2025男单冠军,世界排名积分首登第一。”——以上是wtt世界乒联微博发布的一条普通消息,客观描述了林诗栋男单决赛夺冠,并在世界排名终于提升到世界第一的现实。首先不得不承认林诗栋为此付出的巨大努力,尤其在奥运会之后,连续在巡回赛夺冠,个人积分和世界排名大幅提升。另外,王楚钦则是在单打表现整体低于预期,给了对方缩小分差的机会。不过这也是基于奥运会单打冠军樊振东退出世界排名,马龙远离赛场的情况之下,林诗栋客观迎来了较为便利的条件。当然,林诗栋个人的努力最为重要。王楚钦还是没有守住世界第一的宝座。在wtt这条微博下方,有人坦言:这是最容易的世界第一。这类人认为,以前的王楚钦需要打过马龙、小胖、许昕,而现在他只需要打败王楚钦……持反驳意见的人认为,再容易也是一拍一拍打出来的!也是付出努力的!认可和接受这么难吗!也有球迷吐槽,一个弃双保单的人 登了世一还要发出来 炫耀什么 !不少网友为此的反驳意见为:男单 男双 混双兼三都是冠军,你在说什么?林诗栋这站赛事拿到三冠王,期待把热度带到下一个赛场。凡此种种,评论区炸锅,关于林诗栋,关于前世界第一王楚钦的。希望球迷不要过多讨论这样的世界排名,而是要认可球员为此付出的努力。王楚钦也不容易,本届赛事在男子双打表现也非常重要。林诗栋首次与其配对男双,也遇到了一些问题,包括磨合、默契度还有配合方面,还需要继续打磨。无论如何,新的奥运周期,涌现了林诗栋,都是值得可喜的地方,期待能够延续下去势头。

北京时间2月4日凌晨,ta体育多位记者(fred katz,joe vardon和sam amick)联合报道,尽管40岁的勒布朗在数据上的表现并未出现明显退步,但他的确已经开始考虑退役。詹姆斯并未透露他最后一个赛季是什么时候,但与勒布朗密切的人士承认,这个时间可能就是两年之内,詹姆斯25-26赛季是价值5260万美元的球员选项。詹姆斯对湖人交易得到卢卡-东契奇并没有感到很不安逸,虽然他很震惊但也理解湖人的做法,这次交易也商业决策,而这样的决策湖人管理层已经不再需要他的参与。詹姆斯刚刚拿到西部周最佳球员,职业生涯第69次拿到这项荣誉,他所在的湖人还高居西部第五,湖人在这个时候交易得到东契奇或许是一把双刃剑这一点勒布朗肯定知晓。根据epns记者蕾梦娜-谢尔伯恩的报道,去年交易截止日前金州勇士队就曾找到湖人高层询价詹姆斯,湖人将这个消息告知里奇-保罗,富保罗拒绝了勇士的询价,他表示詹姆斯没有离开湖人的打算,所以詹姆斯被交易到湖人在一年前就已经是不可能的,本赛季勇士再度询价当然也不被认可。皮尔斯在播客中谈到东契奇被换到湖人后詹姆斯的角色:这两人都是需要大量球权在手的类型,这两人明显不兼容,如果我是湖人管理层我会选择交易掉勒布朗-詹姆斯。湖人目前正在开东契奇的新闻发布会,东契奇在新闻发布会上谈到联手詹姆斯:“这就是梦想成真的画面,我一直都非常尊重勒布朗,我可以从他身上学到很多东西,我很兴奋,这是一种奇妙的感觉。”如果詹姆斯在两年内退役,那么就是执行完他25-26赛季的球员选项,东契奇在两年后就会成为洛杉矶的头牌。文/颜小白:湖人观察

声明: 本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。

回5845vip威尼斯电子游戏首页看更多汽车资讯

评论(68865)
文明上网理性发言,请遵守

0/100

《费伦的刀客》

《哪吒2》上映仅仅16天,就刷新了中国影史,成为了第一部破百亿的影史。看着小哪吒在全球排行榜上不断地前进,赛过一部又一部别的国家作品,不由得为小哪吒感到骄傲,这已经不是仅仅关于票房的事情了,而是一个国家的荣誉。网友直接喊话:——升国旗!就在今天晚上19:00的时候,央视突然发文:祝贺《哪吒2》票房破100亿。有网友调侃道:有一种看着自家孩子长大的感觉;甚至还有网友表示:下一个小目标:拿下复仇者联盟2!冲冲冲!估计过了今晚这都不是事。紧接着娱乐圈的数百位明星纷纷在百忙之中发文祝贺。首先是90后小花田曦薇:恭喜小哪吒,踩着风火轮,继续冲冲冲冲!田曦薇毕业于上海戏剧学院表演系,凭借校园青春剧《如此可爱的我们》中的黄橙子一角收获了不少粉丝,而后继续和白敬亭搭档合作出演古装剧《卿卿日常》,再一次让网友证明了她的演技,从而成功升咖。神仙姐姐刘亦菲也是在第一时间发文祝贺《哪吒2》破了100亿。能让刘亦菲宣传的电影可不多啊,我们吒儿这次凭借的可是实力。陈赫:恭喜小哪吒,继续冲冲冲。在陈赫的中可以看到,有一次他给员工发红包,有一位员工抽中了电影票畅销,不限制张数;老板陈赫看到后立刻说道:以你的名义包个场吧。本以为只是说说没想到第二天竟然真的兑现了,要不说咱们赫哥也是哪吒的真爱粉呢。赵丽颖:恭喜吒儿创造历史!“若前方无路,我便踏出一条路”,祝愿中国动画电影越来越好!众所周知,赵丽颖可是哪吒的忠实粉丝,有一次参加活动看到哪吒和敖丙的玩偶,颖宝还停下来拍照互动了一番,一会开心的摸了摸小哪吒的脸,一会学着它摆动作,别提有多开心了。有网友扒到早在5年前《哪吒1》的时候,赵丽颖就为哪吒发文助力过,而且还把自己的头像换成了小哪吒,这举动足以说明了一切。丁禹兮、任敏、章若楠、柳岩等也都在第一时间发文祝贺。他们都是光线传媒的艺人,而《哪吒2》的主要投资方就是光线传媒,说到底都是一家人。看着吒儿这么争气,他们一个个脸上也是赚足了面子。不得不说光线传媒的老板是真的很有眼光!以及实力派明星杨紫、赵今麦、马思纯、迪丽热巴、杨幂、杨洋、李现、黄晓明、蒋勤勤、白鹿、张艺兴等纷纷发文祝贺。网友纷纷喊话:塞哇塞恭喜哪吒!见证哪吒的百亿时刻!!!中国影史上第一部百亿票房!这么优秀的作品值得更多观众的认可!绝对的票房奇迹,太燃了。张艺谋的一句话终于说对了,在这一刻体现的淋漓尽致。不是中国电影市场低迷,只要你投入真诚,制作精良,市场就会给你回报。张艺谋工作室转发祝贺《哪吒之魔童闹海》票房破百亿并落款:“哪吒过百亿!天高海阔,未来可期,小哪吒走向更大的世界!在后台的时候导演看着吒儿的眼神更多的是一种慈爱,就像是自己的孩子长大成人有出息了。他会贴着的向小哪吒热不热,会和他站在一起合照。看的出来导演是有大格局,他希望中国电影走向世界,走向更大的舞台。在采访中当被问到如何评价导演饺子时,张艺谋是这样说的——放弃医学选择动画,是需要勇气和热爱的,一个人走到今天不容易。联系导演是“死磕”精神的代表,对电影细节追求完美,一部电影的好与坏观众可以最直观地感受到。《哪吒2》今天的成绩离不开饺子的坚持,更离不开每一位工作人员,期待5年后《哪吒3》的到来,相信到时候会刷新一个新的记录!
昨天 13:56:19
响水县

《鬼吹灯之龙岭迷窟》 《穿成反派的恶毒姐姐》

  • 《重生后发现仇敌暗恋我》

    • 《大清第一作家》

      《君临都市》
    《重写科技格局》
《傲世法则》
昨天 13:56:19
响水县
0/100
查看更多 845 条评论

评论(293)
请遵守

0/100

{{item.userobj.user_name}} {{ item.parents[0].userobj.user_name }}

{{item.userobj.user_name}}

  • {{ item.parents[0].userobj.user_name }}

    {{ item.parents[0].content }}
{{ item.content }}
{{ item.location }}
0/100
查看更多 {{commentstore.commentobj.participation_sum}} 条评论
网站地图