当前位置:首页 » 算力简介 » 数据中心内部去堆叠架构

数据中心内部去堆叠架构

发布时间: 2022-01-04 08:27:25

❶ 07 数据中心供配电系统架构

数据中心供配电系统是从电源线路进用户起经过高/低压供配电设备到负载止的整个电路系统,主要包括:高压变配电系统、柴油发电机系统、自动转换开关系统(ATSE,Automatic Transfer Switching Equipment)、输入低压配电系统、不间断电源系统(UPS,Uninterruptible Power System)系统、UPS列头配电系统和机架配电系统、电气照明、防雷及接地系统。

❷ 数据中心网络架构扁平化到两层的方式有何弊端

我是学信息管理与信息系统的。

首先说一下什么是数据中心网络架构。顾名思义,不论是在酒店的管理系统中掌握的顾客信息、学校的学生教务系统中掌握的成绩信息、还是医院的医疗系统中掌握的病人信息,在管理系统中都称之为数据。随着网络技术以及管理系统的不断演进和发展,利用网络平台管理信息数据的管理系统通常是以数据中心网络架构作为基础,从而一步一步实现的。

数据中心网络架构扁平化设置主要是基于数据传输效率和容错能力,存在不少缺点。默认的聚合设备导致端口号增多,对设备本身进行转发,计算处理能力,甚至对产品架构提出更高的要求,设备损耗很快。

❸ 数据中心整合IT基础架构 我们需要考虑什么

互用性是个老大难的问题,供应厂常常把责任推给其他制造商。对于多种产品构成的系统来说,以上问题使得管理更加复杂化,关键产品的支持也不得不延期。在过去几年,我们看到更多的数据中心采用了整合方法——由一个供应商直接提供欧诺个整套数据中心硬件——来解决这些问题。 本文中,TechTarget数据中心的Nick Martin连线MTM Technologies Inc.的虚拟化架构师Bill Kleyman,为读者挖掘出更多关于整合基础架构平台的信息,以及IT人员对此需要考虑的关注点。 Nick Martin:对于整合基础架构平台,我们需要权衡什么?比如,刀片还是机架硬件? Bill Kleyman:一个公司,不管要选择哪种数据中心基础架构平台,都得考量其优缺点,其关键是公司的明确业务驱动是什么。机架硬件环境和刀片机箱解决方案都可以做得很好。 HP ProLiant机架服务器定位就很精确,它们能够用大量内核处理上百个gigabyte的RAM,就依赖于你的处理器。这些机器可以处理虚拟化、应用托管和普遍的服务器需求。要点在于明白这个硬件在公司的短期目标和长期目标中扮演了什么角色。 最好结合实例来理解,假如一个公司正在急速扩张,他们已经购买了在XenServer或者VMware的虚拟化平台。从那里,他们计划把全部台式电脑作为“使用各自设备工作”方针的一部分。这个环境将一直扩张成长,那最佳的解决方案是什么呢? 如果他们购买独立服务器,管理员就得个别地管理每个箱子,或者通过一些第三方管理工具。他们还需要管理工作负载、硬件配置和网络,确保所有的独立服务器工作运行良好。 另一方面,如果有了一个整合的基础架构。就可以解决问题。思科UCS(统一计算系统)是个不错的例子。使用这个解决方案之后,公司就能在一片屋檐下拥有所有数据中心基础架构的元件。网络和交换,刀片管理和机箱控制都在一个GUI(图形用户界面)中。管理员可以复制整个硬件配置,然后加载到休眠中的服务器,以便快速配置。管理和发展都成了比较轻松的工作。 如今,如果同样的公司仍然想要虚拟化,但是自知计算需求有限,那选择机架服务器可能才是最好的。 Martin:那么整合基础架构有那些优缺点呢? Kleyman:可管理性和发展潜力的难度降低,这是我们最容易想到的好处。周围建设的管理工具控制并修改刀片机箱的工作呈极度粒状。 管理者能够登入,并马上看到他们需要了解的环境信息。以UCS GUI为例,工程师可以登入查看环境中是否有关键性错误。如果发现问题,他们可以深入到问题所在确切位置的刀片,并下至DIMM slot的层面解决问题。管理硬件配置也变简单了,把新的刀片放进机箱,你可以从一个刀片把属性复制到另一个刀片,花不了多久就能将其就位。这意味着配置整个机架所有的刀片不需几天,只需几分钟。 但是缺点也很明显。使用整合基础架构最大的好处之一是“一步到位”,但是这某种意义上也是缺点。记住,整合基础架构的管理是为在已有环境中特定分析和观察而设计的。所以,你放置任何东西若是超过了该环境,就得用另一种方式重新监测。不要忘了hyperviser层面、后备和快照的工作负载管理,以及一切需要企业应用管理的东西。这些将会变得独立,而且需要监控和管理。】

❹ 数据中心是什么其系统结构和工作原理是怎样的呢

一直想整理一下这块内容,既然是漫谈,就想起什么说什么吧。我一直是在互联网行业,就以互联网行业来说。
先大概列一下互联网行业数据仓库、数据平台的用途:

  • 整合公司所有业务数据,建立统一的数据中心;

  • 提供各种报表,有给高层的,有给各个业务的;

  • 为网站运营提供运营上的数据支持,就是通过数据,让运营及时了解网站和产品的运营效果;

  • 为各个业务提供线上或线下的数据支持,成为公司统一的数据交换与提供平台;

  • 分析用户行为数据,通过数据挖掘来降低投入成本,提高投入效果;比如广告定向精准投放、用户个性化推荐等;

  • 开发数据产品,直接或间接为公司盈利;

  • 建设开放数据平台,开放公司数据;

  • 。。。。。。


  • 上面列出的内容看上去和传统行业数据仓库用途差不多,并且都要求数据仓库/数据平台有很好的稳定性、可靠性;但在互联网行业,除了数据量大之外,越来越多的业务要求时效性,甚至很多是要求实时的 ,另外,互联网行业的业务变化非常快,不可能像传统行业一样,可以使用自顶向下的方法建立数据仓库,一劳永逸,它要求新的业务很快能融入数据仓库中来,老的下线的业务,能很方便的从现有的数据仓库中下线;

  • 其实,互联网行业的数据仓库就是所谓的敏捷数据仓库,不但要求能快速的响应数据,也要求能快速的响应业务;

  • 建设敏捷数据仓库,除了对架构技术上的要求之外,还有一个很重要的方面,就是数据建模,如果一上来就想着建立一套能兼容所有数据和业务的数据模型,那就又回到传统数据仓库的建设上了,很难满足对业务变化的快速响应。应对这种情况,一般是先将核心的持久化的业务进行深度建模(比如:基于网站日志建立的网站统计分析模型和用户浏览轨迹模型;基于公司核心用户数据建立的用户模型),其它的业务一般都采用维度+宽表的方式来建立数据模型。这块是后话。

  • 整体架构下面的图是我们目前使用的数据平台架构图,其实大多公司应该都差不多:

  • 逻辑上,一般都有数据采集层、数据存储与分析层、数据共享层、数据应用层。可能叫法有所不同,本质上的角色都大同小异。

  • 我们从下往上看:

  • 数据采集数据采集层的任务就是把数据从各种数据源中采集和存储到数据存储上,期间有可能会做一些简单的清洗。


  • 数据源的种类比较多:

  • 网站日志:


  • 作为互联网行业,网站日志占的份额最大,网站日志存储在多台网站日志服务器上,

  • 一般是在每台网站日志服务器上部署flume agent,实时的收集网站日志并存储到HDFS上;

  • 业务数据库:


  • 业务数据库的种类也是多种多样,有Mysql、Oracle、SqlServer等,这时候,我们迫切的需要一种能从各种数据库中将数据同步到HDFS上的工具,Sqoop是一种,但是Sqoop太过繁重,而且不管数据量大小,都需要启动MapRece来执行,而且需要Hadoop集群的每台机器都能访问业务数据库;应对此场景,淘宝开源的DataX,是一个很好的解决方案(可参考文章 《异构数据源海量数据交换工具-Taobao DataX 下载和使用》),有资源的话,可以基于DataX之上做二次开发,就能非常好的解决,我们目前使用的DataHub也是。

  • 当然,Flume通过配置与开发,也可以实时的从数据库中同步数据到HDFS。

  • 来自于Ftp/Http的数据源:


  • 有可能一些合作伙伴提供的数据,需要通过Ftp/Http等定时获取,DataX也可以满足该需求;

  • 其他数据源:


  • 比如一些手工录入的数据,只需要提供一个接口或小程序,即可完成;


  • 数据存储与分析毋庸置疑,HDFS是大数据环境下数据仓库/数据平台最完美的数据存储解决方案。


  • 离线数据分析与计算,也就是对实时性要求不高的部分,在我看来,Hive还是首当其冲的选择,丰富的数据类型、内置函数;压缩比非常高的ORC文件存储格式;非常方便的SQL支持,使得Hive在基于结构化数据上的统计分析远远比MapRece要高效的多,一句SQL可以完成的需求,开发MR可能需要上百行代码;

  • 当然,使用Hadoop框架自然而然也提供了MapRece接口,如果真的很乐意开发Java,或者对SQL不熟,那么也可以使用MapRece来做分析与计算;Spark是这两年非常火的,经过实践,它的性能的确比MapRece要好很多,而且和Hive、Yarn结合的越来越好,因此,必须支持使用Spark和SparkSQL来做分析和计算。因为已经有Hadoop Yarn,使用Spark其实是非常容易的,不用单独部署Spark集群,关于Spark On Yarn的相关文章,可参考:《Spark On Yarn系列文章》

  • 实时计算部分,后面单独说。

  • 数据共享这里的数据共享,其实指的是前面数据分析与计算后的结果存放的地方,其实就是关系型数据库和NOSQL数据库;


  • 前面使用Hive、MR、Spark、SparkSQL分析和计算的结果,还是在HDFS上,但大多业务和应用不可能直接从HDFS上获取数据,那么就需要一个数据共享的地方,使得各业务和产品能方便的获取数据;和数据采集层到HDFS刚好相反,这里需要一个从HDFS将数据同步至其他目标数据源的工具,同样,DataX也可以满足。

  • 另外,一些实时计算的结果数据可能由实时计算模块直接写入数据共享。


  • 数据应用
  • 业务产品


  • 业务产品所使用的数据,已经存在于数据共享层,他们直接从数据共享层访问即可;

  • 报表


  • 同业务产品,报表所使用的数据,一般也是已经统计汇总好的,存放于数据共享层;

  • 即席查询


  • 即席查询的用户有很多,有可能是数据开发人员、网站和产品运营人员、数据分析人员、甚至是部门老大,他们都有即席查询数据的需求;

  • 这种即席查询通常是现有的报表和数据共享层的数据并不能满足他们的需求,需要从数据存储层直接查询。

  • 即席查询一般是通过SQL完成,最大的难度在于响应速度上,使用Hive有点慢,目前我的解决方案是SparkSQL,它的响应速度较Hive快很多,而且能很好的与Hive兼容。

  • 当然,你也可以使用Impala,如果不在乎平台中再多一个框架的话。

  • OLAP


  • 目前,很多的OLAP工具不能很好的支持从HDFS上直接获取数据,都是通过将需要的数据同步到关系型数据库中做OLAP,但如果数据量巨大的话,关系型数据库显然不行;

  • 这时候,需要做相应的开发,从HDFS或者HBase中获取数据,完成OLAP的功能;

  • 比如:根据用户在界面上选择的不定的维度和指标,通过开发接口,从HBase中获取数据来展示。

  • 其它数据接口


  • 这种接口有通用的,有定制的。比如:一个从Redis中获取用户属性的接口是通用的,所有的业务都可以调用这个接口来获取用户属性。


  • 实时计算现在业务对数据仓库实时性的需求越来越多,比如:实时的了解网站的整体流量;实时的获取一个广告的曝光和点击;在海量数据下,依靠传统数据库和传统实现方法基本完成不了,需要的是一种分布式的、高吞吐量的、延时低的、高可靠的实时计算框架;Storm在这块是比较成熟了,但我选择Spark Streaming,原因很简单,不想多引入一个框架到平台中,另外,Spark Streaming比Storm延时性高那么一点点,那对于我们的需要可以忽略。

  • 我们目前使用Spark Streaming实现了实时的网站流量统计、实时的广告效果统计两块功能。

  • 做法也很简单,由Flume在前端日志服务器上收集网站日志和广告日志,实时的发送给Spark Streaming,由Spark Streaming完成统计,将数据存储至Redis,业务通过访问Redis实时获取。

  • 任务调度与监控在数据仓库/数据平台中,有各种各样非常多的程序和任务,比如:数据采集任务、数据同步任务、数据分析任务等;


  • 这些任务除了定时调度,还存在非常复杂的任务依赖关系,比如:数据分析任务必须等相应的数据采集任务完成后才能开始;数据同步任务需要等数据分析任务完成后才能开始;这就需要一个非常完善的任务调度与监控系统,它作为数据仓库/数据平台的中枢,负责调度和监控所有任务的分配与运行。

  • 前面有写过文章,《大数据平台中的任务调度与监控》,这里不再累赘。

  • 总结在我看来架构并不是技术越多越新越好,而是在可以满足需求的情况下,越简单越稳定越好。目前在我们的数据平台中,开发更多的是关注业务,而不是技术,他们把业务和需求搞清楚了,基本上只需要做简单的SQL开发,然后配置到调度系统就可以了,如果任务异常,会收到告警。这样,可以使更多的资源专注于业务之上。

❺ 如何看待数据中心网络架构变化

随着云计算、虚拟化、SDN等技术在数据中心持续落地,数据中心网络到了不得不改变的时候了。为了满足这些新的技术需求,数据中心网络架构也从传统的三层网络向大二层网络架构转变,也就是新一代的数据中心将采用二层的网络架构,所有的接入设备都连接到核心网络设备上,然后通过核心设备路由转发出去。在数据中心内部完全是一个二层网络,而且为了实现跨数据中心的VM迁移,数据中心之间也可以跑二层,当前是虚拟的二层网络,基于物理三层网络来跑二层。数据中心内部网络架构向大二层转变的趋势已经无法更改,将会有越来越多的数据中心网络架构向这个方向发展。数据中心内部网络建设成为一个大的二层网络,虽然架构上清晰了,简单了,但是却带来不少的现实难题。下面就来说一说,新一代数据中心网络架构变革所遇到的难题。

大二层MAC容量问题

数据中心网络架构向着大二层方向演变,首先带来的就是MAC容量的难题。二层网络根据MAC地址来完成点到点的转发,在数据中心里拥有数千台服务器是再普通不过的了,而如今跨数据中心之间也要实现二层转发,这样就要求数据中心的核心设备MAC容量超大才行。比如一个中等城市宽带网络至少要拥有100万个家庭,要实现所有的家庭宽带上网,若都采用二层的数据中心网络,则需要核心网络设备可以处理1M的MAC容量,这对网络设备提出了很高的要求。目前能够达到1M的MAC容量的网络设备的确有,但是应用并不普遍,32K~256K是最常用的容量规格。采用1M的MAC容量设备,这样的设备往往价格很高,会给数据中心带来沉重的负担,而且这样大规格的设备使用并不普及,设备的稳定性低。很多能够达到1M的MAC容量的设备采用的都是芯片外挂TCAM来实现的,这种方式由于是通过PCI总线来访问外挂器件,访问速度自然没有芯片内快,所以这种方式的MAC学习速度并不是线速的。在一些网络环路、震荡中,这些设备就会表现出MAC学习不稳定,流量有丢包,显示有问题等一系列待解决的问题。所以在大二层的数据中心网络中,如何提升网络设备的MAC容量,是当前网络技术中急需解决的问题。如今通过技术手段达到1M以上MAC容量并不是难事,但在这种网络环境下,要保证网络运行的稳定性,还有很多的技术难题要解决。

环路问题

二层网络最常见的网络故障就是环路问题,在网络规模比较小的情况下,可以通过部署STP/MSTP这些环路协议避免环路的产生。当然STP/MSTP协议有天生的缺陷,阻塞了备用链路,造成网络带宽的严重浪费,后来又出现了TRILL新的二层网络环路协议。TRILL协议可以保证所有的链路都处于转发状态,避免了网络带宽的浪费。不过我们知道TRILL实际上要靠ISIS协议来维持TRILL协议的状态,当网络规模很大的时候,网络设备要处理大量的ISIS协议,这对网络设备是一个不小的冲击。能够拥有1M的MAC容量的网络设备,端口数量要数百个,要保证所有这些的端口的TRILL状态计算准备,并且在有网络震荡的情况下,TRILL协议仍能正确切换,这对网络设备要求很高,尤其要保证 TRILL协议的切换速度。比如像STP协议,在正常切换的情况下,速度都要30秒,而若网络规模比较大,则所花费的时间会更长,达到分钟级别都是有可能的。TRILL协议也是如此,ISIS协议并不是快速收敛的协议,超时时间,切换速度都不比STP协议快,所以在TRILL的二层环路网络中,一旦发生网络切换,那么收敛速度是个问题。数据中心很多业务是非常敏感的,在网络出现丢包或者震荡数秒钟,都会影响到业务,所以当数据中心二层网络规模扩大以后,环路协议的收敛问题突显。有人建议将TRILL的ISIS协议处理提升优先级,比如放到一个单核上处理,通过软件中断的方式处理响应,这样能够大大提升切换的速度,避免受到其它协议的影响,当然这样自然会占用更多的设备资源,而且效果也未知。

广播域过大的问题

大二层还会遇到一个问题就是广播域过大。因为整个数据中心,甚至多个数据中心之间都是二层的,那么一个广播报文会在整个数据中心的设备上进行广播的,显然会占用大量的网络带宽,如果广播流量比较多,可能会造成个别的端口出现拥塞,从而影响业务。在正常的网络中,肯定是广播流量越小越好。对于大二层网络广播域过大的问题,还好有一些解决的方法,而且这些方法目前看是比较符合实际的。比如:默认情况下,禁止广播报文的转发,让广播报文和组播报文一样,通过协议控制转发,只有协议状态计算好之后,才允许广播报文转发,而且是像组播一样,只转发给请求接收的端口,也就是在未来的数据中心里将没有广播的概念,只有单播和组播的概念。对于跨数据中心的二层,这种二层转发实际上是一种逻辑上的二层转发,要通过物理三层转发,是一种封装技术,这样就可以通过软件控制这种情况下,广播报文要不要转发。在默认情况下,跨数据中心的二层广播报文是不转发的,可以通过软件设置让特定的广播报文转发。还有就是对广播报文设置广播抑制比,当端口上的广播流量达到一定比例时,对广播报文进行丢弃。显然,对于大二层广播域过大的问题,目前已经有了一些比较好的解决方法,可以很好地解决这一问题。

尽管数据中心网络架构的演变面临着各种各样的问题,但是向大二层转变的趋势已经无法改变。纵然这样的架构给数据中心带来了新的问题,但是正是有了这些缺陷,也给了网络设备商机会,谁能很好地解决这些问题,谁就能在未来的网络市场上战胜对手,赢得市场。

❻ 在大型的云计算数据中心,一般采用哪些架构

建立数据中心需要相关资质及建设标准,国内服务商有自建数据中心的不多,像BAT、小鸟云等

大致来说有一下四个方面:

机房建设:强电,空调,弱电,安防,消防,装修等
基础设施:柴油发电机,不间断电源,冷水机组,精密空调,视屏门禁等
机房设备:服务器,存储器,路由器,交换机,防火墙,负载均衡,监控设备等
网络接入:专线,裸纤,英特网,电话线,BGP接入,室内综合布线等

❼ 数据中心架构图怎么画

看了 很多下面这个应该是最标准的,参照画就可以了额。工具嘛viso 即可

❽ 数据中心的架构展望

以Web为中心的计算技术的兴起意味着关注IT资产的角度从物理转向了逻辑。
德国哲学家尼采说过:“那些未能摧毁我的,使我更强大。”是的,如果你能在这一度繁荣又一度萧条的IT轮回中活下来而不会感到焦头烂额,那么你一定觉得自己真的很强大。不过且慢,还不到松一口气的时候,现在你需要利用已经积聚起的每一分力量,去和面前那些动摇IT业的变革做一番争斗。
主要的技术供应商和向前看的网络及IT经理人都认为,一个以Web为中心的崭新计算模型正在孕育成形,但是对于这个计算模型最终的形态以及该如何命名,他们却莫衷一是。会象IBM鼓吹的那样成为按需计算吗?会是Oracle、Sun和其他厂商力推的网格技术热吗?还是完全朝着公用计算、自动计算、虚拟化或其它方向前进呢?
诸如Cisco、EMC、HP和微软等技术巨擘都在为争取你的欢心而激烈较量,而设计上的胜利者将在未来十年收益颇丰。(证据何在?只要看看现在Wintel阵营的统治地位和客户机/服务器领域。)
你不得不对这些高高在上的理念进行一番甄选,研究研究你的关键技术供应商的发展路线,与此同时,针对你的基础架构的每一层及其上面的应用努力做出最佳选择。
不用担心,让我们来为你了解眼前的变革助上一臂之力。我们将在本文探索一种我们称之为新数据中心的概念。新数据中心的出现代表着IT业内一场静悄悄的革命,一场既有风险又能为你和你的战略供应商带来回报的革命。
业界能否最终把未来数年称之为“新数据中心时代”,只有时间知道。我们在此提出这一概念仅供你在设计新的网络化IT环境时参考之用。 然后,你就得为各种相互竞争的操作系统(Unix、Linux和Windows)决定它们的最佳作用,每一种操作系统都经历着不同的成功道路。在Windows领域,你正在关注操作系统和微软其它核心软件组件的多种升级技术,以便支持更强有力的合作和应用集成。
另外,你还要为新一代的Web应用挑选开发平台。如果你对围绕这些新应用的各种标准、安全和管理问题尚不了解,那么很快你就会变得内行。 你的网络基础架构必须能够满足合作新需求以及Web应用的爆炸性增长。为VoIP和新兴的会话初始化协议(Session Initiation Protocol)应用提供高质量支持做好准备,这有可能意味着将中枢和数据中心交换机升级至10Gb/秒以太网,以及将配线室升级至1G。
许多公司还部署了一大批新设备,以解决具体的高容量、高交易量Web站点和Web新应用的问题--比方说,第4层至第7层交换机、安全套接字层加速和负载平衡等。在整个Web基础架构生态系统中,各厂商相互竞争的领域不仅在产品性能上,也在将更多功能合并至一台设备的能力上。不过最终你希望构建一个单一的网络基础架构,而不必继续为每一次网络新挑战急急惶惶。这将导致Web和传统基础架构厂商之间在控制能够支持现有和分布式新应用的统一网络时发生冲突。 牢固的安全措施是新数据中心所必需的,但目前仍然很难描述。各种威胁不断变化而且攻击越来越密集,但是各公司却想方设法让应用更加分散、信息更容易访问,这两者结合是很危险的。
在未来几年,你必须选择如何以最佳方式在整个新数据中心部署安全技术:应该安装什么硬件、软件和网络基础架构安全工具?管理化安全服务应该起到什么作用(如果能起作用的话)?你如何使用越来越多的安全工具管理数据大潮?还有令人头疼的是,不断打补丁的软件和无线技术安全难题,这些可真够你受的。 随新数据中心而来的是系统和网络管理的新需求。主要厂商必须超越设备管理层面,让用户对应用性能有清晰了解--然后提供各种工具确保这些性能的发挥。还有,你需要更好地支持移动设备、网络和安全管理集成,并且了解和热衷于IBM、HP和微软等主要厂商的自动化(即自我恢复)管理战略。

❾ 腾讯的内部组织架构是怎样的

腾讯的内部组织架构于2005年升级为BU(Business Unit)事业部制;2012年升级为BG(Business Group)事业群制。2018年9月30日,腾讯公布了组织架构调整方案:在原有七大事业群(BG)的基础上,保留原有的六大架构体系:

1、企业发展事业群(CDG):为公司新业务孵化和新业态探索的平台,推动包括基础支付、金融应用在内的金融科技业务、广告营销服务和国际业务等领域的发展和创新。同时作为专业支持平台,为公司及各事业群提供战略规划、投资并购、投资者关系及国际传讯、市场公关等专业支持。

2、互动娱乐事业群(IEG):发展网络游戏、电竞等互动娱乐业务,打造一个从策划、研发、发行,运营及营销的垂直生态链。致力为中国以及全球游戏用户创造高品质产品,并通过在线游戏,直播和线下电竞赛事联动用户,提升总体游戏体验。

3、技术工程事业群(TEG):为公司及各事业群提供技术及运营平台支持、研发管理、数据中心的建设与运营,并为用户提供全线产品的客户服务。作为运营着亚洲最大网络、服务器集群和数据中心的事业群,并牵头腾讯技术委员会,通过内部分布式开源协同,加强基础研发,建设技术中台等措施,支持业务创新。

4、微信事业群(WXG):搭建和运营微信生态体系,依托微信基础平台,以及微信公众号、小程序、微信支付、企业微信、微信搜索等开放平台,为各行各业的智慧化升级提供解决方案和连接能力。同时开发和运营包括邮箱、通讯录、微信读书等产品。

5、云与智慧产业事业群(CSIG):推进云与产业互联网战略,依托云、安全、人工智能等技术创新,打造智慧产业升级方案。探索用户与产业的创新互动,打通产业上下游不同企业,联动线上线下的场景与资源,助力零售、医疗、教育、交通等产业数字化升级,同时协助企业更智能地服务用户,构建连接用户与商业的智慧产业新生态。

6、平台与内容事业群(PCG):推进互联网平台和内容文化生态融合发展,整合QQ、QQ空间等社交平台,和应用宝、浏览器等流量平台,以及新闻资讯、视频、体育、直播、动漫、影业等内容平台,为内容生态创造更好的生长环境。同时,以技术驱动,推动IP 跨平台多形态发展,为更多用户创造多样化的优质数字内容体验。

热点内容
挖矿机器人游戏下载 发布:2024-12-23 15:05:52 浏览:433
暗黑破坏神2合成eth代码 发布:2024-12-23 14:57:50 浏览:999
第一个玩比特币 发布:2024-12-23 14:46:35 浏览:498
零知识证明区块链6 发布:2024-12-23 14:40:42 浏览:228
电信卡怎么查询有无合约 发布:2024-12-23 14:40:37 浏览:577
比特币挖矿概念股票 发布:2024-12-23 14:39:51 浏览:866
以太坊单机日产 发布:2024-12-23 14:36:47 浏览:777
不上传身份证的挖矿 发布:2024-12-23 14:34:02 浏览:252
ethzurichphd 发布:2024-12-23 13:35:45 浏览:193
挖矿机风扇声音有多大 发布:2024-12-23 13:30:56 浏览:644