女士免费开襟地暖网站 -威尼斯人2299

đọc:764thời gian: 2025-03-12 15:48:33

女士免费开襟地暖网站 - mgm"

最佳答案

nhập code shbet

đề nghị cho: 2025-03-12 15:48:33

女士免费开襟地暖网站 -mgm"

2月8日,哈尔滨亚冬会雪上项目在黑龙江省亚布力滑雪场开赛。在自由式滑雪女子u型场地技巧决赛比拼中,中国队选手李方慧夺得冠军!这是中国体育代表团在本届亚冬会获得的首枚金牌。中国队另一名选手张可欣获得银牌,中国队包揽冠亚军!恭喜!来源:人民日报客户端编辑:张子怡(实习)审核:李木元

 女士免费开襟地暖网站  -  mgm

2月13日,微博认证为“抖音集团副总裁”的账户抖音李亮回应美摄起诉案:一名曾经在美摄工作过的工程师,离职两年半后加入了字节。在字节工作期间,写代码时重复使用了一部分他在美摄工作时写过的代码(经司法鉴定,相关重复代码占比很小,不超过美摄软件的4%、抖音的0.8%)。这种行为,属于严重违规,公司是明令禁止的,目前该员工也已经离职。图片来源:视觉中国-vcg111314256376当然,这个事情也提醒我们要加强管理,事情发生后,我们针对技术人员组织了多次合规培训,还对历史代码进行了系统排查。字节是家致力于技术创新的科技公司,我们坚决反对和禁止这种不合规的行为,因为只有创新才能带来真正的竞争力,这也是很多同事每天在做的。在美国起诉时,美摄还要求字节披露tiktok的全部源代码。这是我们无法接受的。我们曾多次和美摄沟通,愿意向对方提供有诚意的赔偿,但美摄却提出了远超过相关代码实际价值的赔偿诉求——仅在中国法院,美摄就提出了超过20亿的索赔,最后法院支持了8000多万,一些自媒体报道所谓“最高法从重处罚字节跳动代码抄袭案”,显然是受到了某些误导。2月13日,美摄科技官微发布声明称,美摄公司起诉字节跳动旗下抖音等8款产品代码抄袭系列案,历经三年七个月,近日迎来终审判决。美摄科技表示最高人民法院近日作出终审判决,维持一审判决侵权认定的同时,对一审判决损害赔偿额偏低予以改判。二审判决判令抖音公司及其关联公司立即停止侵害美摄sdk软件著作权的行为,向美摄公司赔礼道歉,抖音公司及某员工立即停止侵害美摄公司技术秘密的行为,九案赔偿经济损失及合理支出共计约8266.8万元。据介绍,美摄科技成立于2014年,是一家aigc智能视音频5845vip威尼斯电子游戏的解决方案服务商。基于人工智能、自研视音频引擎等核心技术,为客户提供产品技术授权、5845vip威尼斯电子游戏的解决方案定制、软件定制开发、专业设计定制等服务。每日经济新闻综合公开消息

车厘子,人称水果届的“爱马仕”,每逢春节前夕,车厘子就会大规模的上市,但是价钱却十分的昂贵,记得以前车厘子最火的时候,价钱直接卖到了上百元一斤。但是近些年,人们发现,车厘子越来越便宜了,降价到三四十一斤,甚至有些地方直接是往年折半的售价。但是价格越便宜,却发现,人们对于现在车厘子的需求却并没有以前那么高了,很多人甚至都不愿意买了,那么这究竟是咋回事?“旱的旱死,涝的涝死”,用这句话形容水果界简直是最合适不过了,记得网上曾流传过这样一段视频,视频中显示的是大量的水果被主人公洒向了家禽。很多人在评论区十分的心疼,表示这样的水果在自己这边买需要花费好多钱,但是主人公却就这样直接洒向了家禽。而且近些年中广西那边的水果也是频繁的上热搜,10块钱70个火龙果,西瓜也是几块钱一个,让人们看了十分的心动。当然这和当地的物价有很大的关系,除此之外,还有水果的运费,都是人们实际上需要付出的价格。那关于今年的车厘子究竟是咋回事呢?为何今年的车厘子要比往年便宜了那么多?说起车厘子,很多人也会把它叫做是樱桃,它确实是属于樱桃的大类,但是它和我国本身的樱桃还存在很大的差别,比如说长得比樱桃大很多,口味也比樱桃好很多。车厘子原产于是欧洲,本来叫做“欧洲甜樱桃”,后来传到了中国之后就音译成了车厘子,之所以贵其实就跟前文说的原因差不多,因为种植运输等等都需要成本,而且樱桃的成熟和需要的气候也比较的挑,所以就比较贵一些。但是今年的车厘子却比往年便宜了很多,甚至出现断崖式下跌,其主要原因就是因为今年的车厘子实现了“大丰收”。人人都知道它贵,所以种植的人自然也多了起来,这样价格也就下去了,除此之外,运输能力的提升和降低也是很大的一个因素。但其实还有一方面的原因,就是当下国产樱桃的发展,让这些原产于欧洲的樱桃没有了竞争的优势。原本国产樱桃的个头十分的小,味道也一般,所以价格相比于车厘子来说就十分的便宜,但是随着当下技术的发展,国产樱桃也迎来了发展,并且凭借其优势占据了车厘子的上风。这样的话,车厘子就很少有人买了,而且平价水果的代替也使得车厘子没有了空间,再加上现在电商行业的发展,很多的东西都呈现出了透明。因此,即便是车厘子好吃,很多人为了更好的性价比也不会选择它了。据了解,在去年的12月份中旬,从2万公里外运输的车厘子已经抵达了广州港南沙二期码头。这批进口的车厘子重达上万多吨,并且预计总量将会超过1万多自然箱,并且智利水果车厘子的出口量比上一季直接增大了50%。这些数据也足以证明,车厘子要比往年会便宜很多,而且随着后续国产樱桃的上架,车厘子的价格也只会逐渐走低。而且还有第二个原因,就是车厘子的口感已经大不如从前,不知道是采用了什么方法,总觉得近些年的车厘子口味相较于之前没有那么的好吃了,这也是很多人不买车厘子的原因之一。价钱比其他的水果贵,口味还不好,自然要选择其他的水果,而第三个原因就是前面讲的,国产樱桃对车厘子的冲击,樱桃的口味在逐渐的提升,人们自然要买性价比更高点的。而四个原因就是大家对车厘子的需求量已经没有那么多了,平价水果就已经够人们吃了,所以车厘子也没有必要一定要消费。这也同样是第五个原因,也就是其他的水果可以代替车厘子,沙糖桔是每年家家户户几乎都需要买的,因为其平价还好吃,所以对于车厘子就更没有必要买了。还记的曾几何时,无数人对车厘子疯狂的争宠,即便是很贵但还是有很多人争相的购买。但是现如今,如今便宜了,人们却开始对它不感冒了,或许对于大家来说这是一件好事,很多人也嚷嚷着要实现车厘子自由。但还是在这里告诫大家,任何东西都是有界限的,吃多了也同样是会损害身体的,还请大家适量,近期就有因摄入过量车厘子而进医院抢救的事故发生。总之,车厘子价格的下跌,也是有多方面因素的,但不管怎样,车厘子的购买还是要看个人意愿。参考资料:

中国战略新兴产业融媒体记者 艾丽格玛2024年12月26日,深度求索(deepseek)发布了其最新人工智能大模型deepseek v3,并同步开源。这两年来,每家ai公司都会对自己的ai大模型不断进行迭代更新,这已不是什么新闻。然而,deepseek v3的发布却在圈内外引发了热烈的讨论,引发了极大的关注。据称,deepseek v3拥有6710亿参数的混合专家模型(moe)在多项基准测试中表现优异,超越了llama 3.1 405b等开源模型,并与gpt-4o、claude 3.5 sonnet等闭源模型分庭抗礼。而更引人注意的是,根据公开消息,其训练成本仅为557.6万美元,远低于gpt-4o等模型的10亿美元预算。deepseek v3的训练方式与算法优化,显著降低了训练和推理大模型对高端硬件的需求——这背后隐含的可能性是,通过软件优化,可以在有限硬件资源下实现顶尖性能。这一点,可以使得ai大模型大大减少对高端gpu的依赖,甚至有人认为,这套训练算法将对“卖铲子”的英伟达等硬件供应商带来巨大的动荡。01 低成本高性能,怎么做到?deepseek官方在其同步开源的53页deepseek v3模型论文中提到,deepseek v3的生成速度达到每秒60个token,api价格仅为claude 3.5 sonnet的1/53。在知识类任务(包括mmlu、mmlu-pro、gpqa和simpleqa)上,deepseek v3的表现优异,已经接近于当前表现最好的模型,即anthropic公司于10月发布的claude-3.5-sonnet-1022。在美国数学竞赛(aime 2024和math)和全国高中数学联赛(cnmo 2024)上,deepseek v3的表现大幅超过了其他所有开源和闭源模型。>> deepseek开源的文档同时,deepseek v3的生成速度从20tps(每秒完成的事务数量)提高至60tps,相比v2.5模型实现了3倍的提升。这种“低成本≠低性能”的特点,正是deepseek v3热度的来源。那么,这种绕过硬件掣肘,从算法上大幅降低成本的路径,究竟是如何达成的?首先,在架构方面,deepseek v3采用了混合专家架构(mixture-of-experts, moe),包含256个专家,每次计算选取前8个最相关的专家参与。想象一下,有一个机器人,它有很多小助手,也就是“专家”。总共有256个专家,每个专家都擅长做不同的事情。现在,假设机器人要解决一个问题,它不需要让所有的专家都来帮忙,因为那样会浪费时间和精力。相反,它会从这些专家中挑选出最厉害的8个专家来帮忙。这些被选中的专家是最适合解决这个问题的,所以它们可以又快又好地完成任务。这种混合专家架构就像是一个聪明的管理者,总是能选出最合适的人来完成任务,也就可以减少不必要的计算和内存消耗。moe通过动态选择部分专家模型处理输入,减少了不必要的计算开销,显著提升了训练和推理效率,例如,谷歌的gemini 1.5就采用了moe架构,通过路由机制将请求分配给多个专家模型。但是,moe模型仍然有些问题。例如,训练过程较为复杂,尤其是门控网络的设计和专家模型的负载均衡问题,可能导致训练不稳定;moe需要将所有专家模型加载到内存中,显存需求较高,限制了其在资源受限设备上的部署;同时,在分布式计算环境中,moe模型的专家模型可能分布在不同的计算节点上,导致通信开销较大,影响整体效率。moe的选择机制可能导致某些专家被频繁调用(过载),而其他专家则很少被使用(欠载)。这种负载不均衡会降低模型的整体效率,甚至影响性能。为了解决这个问题,传统方法通常会引入辅助损失(auxiliary loss),通过惩罚负载不均衡的情况来强制均衡专家的使用频率。然而,辅助损失本身可能会对模型的主任务性能产生负面影响,因为它会干扰模型的优化目标。因此,deepseek v3在混合专家(moe)架构中,引入了无辅助损失的负载均衡策略,通过动态调整专家偏置值,确保每个专家负载均衡,避免了传统辅助损失对模型性能的负面影响。具体来说,deepseek v3根据每个专家的历史使用频率,实时调整其偏置值(bias)。如果某个专家被频繁调用,其偏置值会被降低,从而减少其被选择的概率;反之,如果某个专家很少被调用,其偏置值会被提高,增加其被选择的概率。由于没有辅助损失的干扰,模型能够专注于主任务优化,从而提升整体性能。而且,动态调整偏置值的计算开销较低,不会显著增加模型的计算负担。同时,避免了辅助损失可能导致的训练不稳定问题,使模型更容易收敛。这种无辅助损失的负载均衡策略,是deepseek v3独有的。另外,在传统的transformer架构中,多头注意力机制(multi-head attention, mha)是核心组件之一。mha通过并行计算多个注意力头,捕捉输入序列中的不同特征。然而,mha需要存储大量的键(key)和值(value)矩阵,尤其是在处理长序列时,内存需求呈平方级增长。而且mha的计算复杂度与序列长度的平方成正比,导致在处理长文本时效率较低。deepseek v3使用的mla通过引入低秩联合压缩技术,将键和值矩阵压缩为潜在向量(latent vectors),这就可以帮它大大减少内存占用和计算开销。除了这些,deepseek v3还自创了一种dualpipe流水线并行算法,这也是其高效训练框架中的一项关键技术。在训练大规模ai模型时,通常需要将计算任务分配到多个gpu或节点上进行分布式训练。然而,分布式训练面临两个主要挑战: 计算与通信的串行化:在传统流水线并行中,计算和通信操作通常是串行进行的,即在进行通信时,计算资源处于空闲状态,导致资源浪费; 通信开销:在跨节点训练中,数据传输(如梯度同步)会占用大量时间,成为训练效率的瓶颈。deepseek v3的dualpipe流水线并行算法通过将计算与通信时间完全重叠,最大化硬件资源的利用率,从而显著提升训练效率。dualpipe算法将训练过程分为两条独立的流水线:计算流水线和通信流水线。 计算流水线负责模型的前向传播和反向传播,而通信流水线负责跨节点的数据传输(如梯度同步)。这两条流水线可以并行运行,互不干扰。dualpipe流水线并行算法在实际应用中取得了显著效果,通过将计算与通信时间完全重叠,dualpipe算法将硬件资源的利用率提升到了接近100%。而且,由于计算和通信并行进行,训练时间显著缩短,尤其是在大规模分布式训练中效果更为明显。通过优化通信内核和充分利用高速网络带宽,dualpipe算法将通信开销也降到了最低。此外,在深度学习训练中,传统的浮点数精度通常是32位(fp32)或16位(fp16)。混合精度训练通过在不同计算阶段使用不同精度的浮点数(如fp16和fp32),在保持模型性能的同时,减少内存占用和计算开销。然而,随着模型规模的不断增大,fp16和fp32的计算和存储开销仍然较高。为了进一步优化资源利用,deepseek v3引入了fp8混合精度训练。fp8是一种8位浮点数格式,其存储和计算开销仅为fp16的一半,fp32的四分之一。包括llama系列、mixtral 8x7b、inflection-2、零一万物的双语llm模型以及coat框架下的模型,都通过fp8技术显著提升了训练效率和资源利用率,同时保持了模型性能。deepseek v3还采用了多令牌预测目标(multi-token prediction, mtp),在训练过程中,模型不仅预测下一个令牌,还同时预测后续的多个令牌。例如,给定输入序列“我喜欢吃”,模型可能同时预测“苹果”“香蕉”“与/和”等多个令牌。这种密集的训练信号显著提高了数据利用率,减少了训练所需的样本数量。在推理阶段,模型能够同时生成多个令牌,从而加速文本生成过程。deepseek v3的开源策略引发了全球开发者的广泛关注。openai创始成员karpathy称赞其“让在有限算力预算上进行模型预训练变得容易”。meta科学家田渊栋则惊叹其训练技术为“黑科技”。最重要的是,这一策略降低了技术门槛,为中小企业和初创公司提供了低成本的高性能ai5845vip威尼斯电子游戏的解决方案。>> deepseek-v3的基本架构示意图。在deepseek-v2的基础上,采用了mla(多头潜在注意力)和deepseek moe,以实现高效的推理和经济高效的训练。整理总结可以发现,deepseek v3不论是采用现有的技术,还是独创自己的路线,都另辟蹊径。这或许与它的母公司和创始人的调性脱不开干系。02 “不务正业”的私募巨头深度求索(deepseek)公司的成立和发展,与量化私募巨头幻方量化有着密切的关系。深度求索成立于2023年7月17日,创始人就是幻方量化的创始人梁文锋。幻方量化是中国知名的量化私募公司,专注于利用算法和高性能计算进行金融投资,幻方量化为深度求索提供了强大的资源支持。彼时,幻方量化是“大厂”外唯一一家储备万张a100芯片的公司,这些高性能计算集群和资金投入使得深度求索能够在短时间内推出高性能的大模型。deepseek一跃成名,起因是他们此前发布的deepseek v2开源模型:deepseek v2的推理成本在当时就被降到每百万token仅 1块钱,约等于llama3 70b的1/7,gpt-4 turbo的1/70——deepseek因而被称作“ai界拼多多”。在低成本的压力下,字节、腾讯、百度、阿里的大模型开始纷纷降价——可以说,中国大模型“价格战”由此而始。受到影响的不只是国内的“大厂”,有不少圈内人士都受到了deepseek开源内容的启发。例如,openai前员工andrew carr从deepseek-v2论文中获取灵感,将其训练设置应用于自己的模型。在硅谷,deepseek被称作“来自东方的神秘力量”。semianalysis首席分析师认为,deepseek v2论文“可能是今年最好的一篇”。openai前政策主管、anthropic联合创始人jack clark认为,deepseek“雇用了一批高深莫测的奇才”,还认为中国制造的大模型,“将和无人机、电动汽车一样,成为不容忽视的力量”。有人认为,这种强烈的反响源自架构层面的创新,这是国产大模型公司乃至全球开源基座大模型都很罕见的尝试。创始人梁文锋早年就读浙江大学电子工程系人工智能方向,无比笃信“人工智能一定会改变世界”。在接受“暗涌”的采访时,梁文锋说:“过去很多年,中国公司习惯了别人做技术创新,我们拿过来做应用变现,但这并非是一种理所当然。这一波浪潮里,我们的出发点,就不是趁机赚一笔,而是走到技术的前沿,去推动整个生态发展。我们认为随着经济发展,中国也要逐步成为贡献者,而不是一直搭便车。过去三十多年it浪潮里,我们基本没有参与到真正的技术创新里。”“中国ai不可能永远处在跟随的位置。我们经常说中国ai和美国有一两年差距,但真实的gap是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。”梁文锋在说到成本路线时,表示很意外:“我们只是按照自己的步调来做事,然后核算成本定价。我们的原则是不贴钱,也不赚取暴利。这个价格也是在成本之上稍微有点利润。”“我们降价,一方面是因为我们在探索下一代模型的结构中,成本先降下来了,另一方面也觉得无论api,还是ai,都应该是普惠的、人人可以用得起的东西。”幻方量化作为量化私募巨头,“囤”了大量的芯片。这也是deepseek得以起步的重要基础。实际上,量化交易需要处理海量数据并进行实时分析,这与ai大模型的训练和推理需求高度契合。幻方量化在高性能计算和分布式系统上的经验,可以直接应用于大模型的开发。同时,量化交易中的算法优化技术(如深度学习、强化学习)与大模型训练中的优化策略(如混合专家架构、fp8混合精度训练)有共通之处。这些技术可以相互借鉴,提升效率。不过,幻方本身的交易成绩和盈利情况在近年来却经历了显著波动,尤其是在2024年。2024年,幻方量化的量化中性策略(如dma策略)因市场波动和监管政策调整(如融券和t 0功能的限制)遭遇了显著回撤。例如,幻方旗下的“慧冲10号a期”在2024年亏损5.36%,近1个月亏损1.33%。2024年初,小微盘股出现流动性危机,导致幻方的量化指增策略(如中证500指增)也受到较大影响。例如,其代表性产品“九章量化多策略1号”在2024年1月至2月期间最大回撤达34.55%。截至2024年7月,幻方量化的旗舰产品“中证500量化多策略”近三年收益率为-12.58%,年内净值收益为-10.07%,与同期中证500指数收益(-10.26%)基本持平。幻方管理的资金规模也从千亿元级的峰值大幅缩减至几百亿。尽管2024年表现不佳,幻方量化在2021年及之前曾取得显著超额收益。据了解,其以指数增强策略为主,通过全市场选股、日内交易和科创板打新等策略获取超额收益。此前,幻方通过多空对冲(如多股票、空股指期货)获取稳定收益,并且是中国首家管理规模突破千亿的量化私募公司。为了在投资之外做更多的研究,搞清楚“什么样的范式可以完整地描述整个金融市场、有没有更简洁的表达方式、不同范式能力边界在哪、这些范式是不是有更广泛适用”之类的问题,幻方从2012年起,就开始关注到算力的储备,并有意识地去部署尽可能多的算力。墙内开花墙外香,可以说,虽然资金规模缩水、业绩表现有争议,但幻方“歪打正着”的开源大模型反而在ai界内掀起了一阵又一阵的巨浪。03 抄了硬件供应商的“老底”?deepseek v3在仅使用2048块nvidia h800 gpu的情况下,完成了6710亿参数模型的训练,成本仅为557.6万美元,远低于其他顶级模型的训练成本(如gpt-4的10亿美元)。这意味着,ai大模型对算力投入的需求可能会从训练侧向推理侧倾斜,即未来对推理算力的需求将成为主要驱动力。而英伟达等硬件商的传统优势更多集中在训练侧,这可能会对其市场地位和战略布局产生影响。训练是指使用大量数据训练ai模型的过程,通常需要极高的计算能力和存储资源。训练过程通常在数据中心完成,耗时较长,成本高昂。推理是指将训练好的模型应用于实际任务(如生成文本、识别图像、推荐商品等),通常需要低延迟和高吞吐量。推理过程可以在云端或边缘设备(如手机、自动驾驶汽车)上进行。为什么推理算力需求会成为主要驱动力?随着各类大模型的成熟,许多企业和开发者可以直接使用预训练模型,而不需要从头训练。例如,gpt-4和本文所述的deepseek v3等模型已经提供了强大的通用能力。对于特定任务,企业通常只需对预训练模型进行微调,而不需要大规模训练,这减少了对训练算力的需求。与之相对地,生成式ai在文本生成、图像生成等领域的应用迅速扩展,推理需求激增。例如,chatgpt每天处理数百万用户的请求,需要强大的推理算力支持。在自动驾驶、智能家居、工业互联网等领域,推理需要在边缘设备上实时完成,这对低功耗、高性能的推理硬件提出了更高要求。训练大模型需要数千甚至数万块gpu,成本高达数百万美元。例如,gpt-4的训练成本估计超过1亿美元。推理对算力的需求远低于训练,但规模更大。chatgpt的推理成本虽然低于训练,但由于用户量巨大,总体算力需求仍然很高。英伟达的gpu(如a100、h100)在训练大模型时表现出色,提供了强大的计算能力和显存带宽。例如,gpt-3的训练使用了数千块英伟达v100 gpu。英伟达的cuda平台还为开发者提供了丰富的工具和库,简化了大规模模型训练的开发过程。所以在训练侧,英伟达的优势几乎是压倒性的。不过,在推理侧,英伟达的gpu能效比相对较低,尤其是在边缘计算场景中,功耗和成本成为瓶颈。以openai为例,虽然它使用英伟达gpu支持chatgpt的推理,但也在探索专用推理硬件以降低成本。还有特斯拉,则是使用自研的fsd芯片(基于npu)进行推理,以满足低功耗和实时性需求。单纯依赖硬件性能的提升已无法完全满足市场需求,而软件优化、算法创新和生态构建的重要性日益凸显。与其说这是对硬件供应商的挑战,不如说,在当前这个“摩尔定律”显著放缓、行业面临瓶颈期的时节,这是一个转型的机遇。随着半导体工艺接近物理极限,硬件性能的提升速度放缓,单纯依赖硬件升级难以满足ai计算的需求。而高端硬件(如gpu、tpu)的采购和维护成本高昂,且能耗较大,无论是在大规模普及中还是对于资金薄弱的中小企业来说,硬件成本费用都是一个沉重的负担。目前看来,deepseek带来的最大的启示,就是通过算法优化(如混合精度训练、模型压缩、量化等),可以在不增加硬件成本的情况下显著提升计算效率。而英伟达等硬件商则更应该通过提供软件工具和框架(如cuda、tensorrt),构建开发者生态,从单纯的硬件销售转向提供综合5845vip威尼斯电子游戏的解决方案(如云服务、ai平台)。例如,英伟达通过cuda平台为开发者提供了丰富的工具和库(如cudnn、cublas),简化了ai模型的开发和优化过程。尽管amd、英特尔等公司推出了类似平台(如rocm、oneapi),但它们在性能和生态成熟度上仍无法与cuda匹敌。semianalysis创始人迪伦·帕特尔(dylan patel)指出,英伟达的竞争优势就在于其软件和硬件的紧密结合,cuda的高效性和易用性使得英伟达在ai芯片市场占据了主导地位。英伟达ceo黄仁勋也认为,cuda正是英伟达从图形处理器公司转型为全球计算巨头的关键。可以预见,未来硬件商将开发更多专用ai硬件(如npu、tpu),并通过算法与硬件的协同设计,进一步提升计算效率和能效比。软硬件协同优化和综合5845vip威尼斯电子游戏的解决方案是未来发展的重要路径。

星舰第7次试飞飞船爆炸

cập nhật mới nhất

  • thời gian: 《误入官场》 đọc: 474  628 câu trả lời

  • thời gian: 《丞相追妻记(重生)》 đọc: 511  684 câu trả lời

  • thời gian: 《天地战魂》 <đọc: 931  439 câu trả lời

《九天玄女,桃花香》

  • 《八零之高嫁》
  • 《重返大隋》
  • 《兴趣使然的探索者又在作死》
  • 《数据化修仙游戏》
  • 《主角攻受又都爱上了我》
  • 《变身之洛神》
  • 《学姐别动怒》
  • 《渡劫失败后我成了金手指[星际]》
  • 《晚星晚星》

thẻ phổ biến

liên kết

theo chúng tôi

女士免费开襟地暖网站 《男主他功德无量》 《妖怪管理员》

网站地图