自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

大數(shù)據(jù) Hadoop
我今天花了大半個(gè)下午的時(shí)間,寫了這篇hadoop的架構(gòu),全篇都是以大白話的形式,也算是為后面更加詳細(xì)的每一部分開(kāi)了個(gè)好頭吧,如果喜歡請(qǐng)點(diǎn)轉(zhuǎn)發(fā)和關(guān)注,如果有疑問(wèn),直接在評(píng)論里說(shuō)出來(lái),大家一起解決,才能進(jìn)步。

我今天花了大半個(gè)下午的時(shí)間,寫了這篇hadoop的架構(gòu),全篇都是以大白話的形式,也算是為后面更加詳細(xì)的每一部分開(kāi)了個(gè)好頭吧,如果喜歡請(qǐng)點(diǎn)轉(zhuǎn)發(fā)和關(guān)注,如果有疑問(wèn),直接在評(píng)論里說(shuō)出來(lái),大家一起解決,才能進(jìn)步。

一、概念

Hadoop誕生于2006年,是一款支持?jǐn)?shù)據(jù)密集型分布式應(yīng)用并以Apache 2.0許可協(xié)議發(fā)布的開(kāi)源軟件框架。它支持在商品硬件構(gòu)建的大型集群上運(yùn)行的應(yīng)用程序。Hadoop是根據(jù)Google公司發(fā)表的MapReduce和Google檔案系統(tǒng)的論文自行實(shí)作而成。

Hadoop與Google一樣,都是小孩命名的,是一個(gè)虛構(gòu)的名字,沒(méi)有特別的含義。從計(jì)算機(jī)專業(yè)的角度看,Hadoop是一個(gè)分布式系統(tǒng)基礎(chǔ)架構(gòu),由Apache基金會(huì)開(kāi)發(fā)。Hadoop的主要目標(biāo)是對(duì)分布式環(huán)境下的“大數(shù)據(jù)”以一種可靠、高效、可伸縮的方式處理。

Hadoop框架透明地為應(yīng)用提供可靠性和數(shù)據(jù)移動(dòng)。它實(shí)現(xiàn)了名為MapReduce的編程范式:應(yīng)用程序被分割成許多小部分,而每個(gè)部分都能在集群中的任意節(jié)點(diǎn)上執(zhí)行或重新執(zhí)行。

Hadoop還提供了分布式文件系統(tǒng),用以存儲(chǔ)所有計(jì)算節(jié)點(diǎn)的數(shù)據(jù),這為整個(gè)集群帶來(lái)了非常高的帶寬。MapReduce和分布式文件系統(tǒng)的設(shè)計(jì),使得整個(gè)框架能夠自動(dòng)處理節(jié)點(diǎn)故障。它使應(yīng)用程序與成千上萬(wàn)的獨(dú)立計(jì)算的電腦和PB級(jí)的數(shù)據(jù)。

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

二、組成

1.Hadoop的核心組件

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

分析:Hadoop的核心組件分為:HDFS(分布式文件系統(tǒng))、MapRuduce(分布式運(yùn)算編程框架)、YARN(運(yùn)算資源調(diào)度系統(tǒng))

2.HDFS的文件系統(tǒng)

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

HDFS

1.定義

整個(gè)Hadoop的體系結(jié)構(gòu)主要是通過(guò)HDFS(Hadoop分布式文件系統(tǒng))來(lái)實(shí)現(xiàn)對(duì)分布式存儲(chǔ)的底層支持,并通過(guò)MR來(lái)實(shí)現(xiàn)對(duì)分布式并行任務(wù)處理的程序支持。

HDFS是Hadoop體系中數(shù)據(jù)存儲(chǔ)管理的基礎(chǔ)。它是一個(gè)高度容錯(cuò)的系統(tǒng),能檢測(cè)和應(yīng)對(duì)硬件故障,用于在低成本的通用硬件上運(yùn)行。HDFS簡(jiǎn)化了文件的一致性模型,通過(guò)流式數(shù)據(jù)訪問(wèn),提供高吞吐量應(yīng)用程序數(shù)據(jù)訪問(wèn)功能,適合帶有大型數(shù)據(jù)集的應(yīng)用程序。

2.組成

HDFS采用主從(Master/Slave)結(jié)構(gòu)模型,一個(gè)HDFS集群是由一個(gè)NameNode和若干個(gè)DataNode組成的。NameNode作為主服務(wù)器,管理文件系統(tǒng)命名空間和客戶端對(duì)文件的訪問(wèn)操作。DataNode管理存儲(chǔ)的數(shù)據(jù)。HDFS支持文件形式的數(shù)據(jù)。

從內(nèi)部來(lái)看,文件被分成若干個(gè)數(shù)據(jù)塊,這若干個(gè)數(shù)據(jù)塊存放在一組DataNode上。NameNode執(zhí)行文件系統(tǒng)的命名空間,如打開(kāi)、關(guān)閉、重命名文件或目錄等,也負(fù)責(zé)數(shù)據(jù)塊到具體DataNode的映射。DataNode負(fù)責(zé)處理文件系統(tǒng)客戶端的文件讀寫,并在NameNode的統(tǒng)一調(diào)度下進(jìn)行數(shù)據(jù)庫(kù)的創(chuàng)建、刪除和復(fù)制工作。NameNode是所有HDFS元數(shù)據(jù)的管理者,用戶數(shù)據(jù)永遠(yuǎn)不會(huì)經(jīng)過(guò)NameNode。

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

分析:NameNode是管理者,DataNode是文件存儲(chǔ)者、Client是需要獲取分布式文件系統(tǒng)的應(yīng)用程序。

MapReduce

1.定義

Hadoop MapReduce是google MapReduce 克隆版。

MapReduce是一種計(jì)算模型,用以進(jìn)行大數(shù)據(jù)量的計(jì)算。其中Map對(duì)數(shù)據(jù)集上的獨(dú)立元素進(jìn)行指定的操作,生成鍵-值對(duì)形式中間結(jié)果。Reduce則對(duì)中間結(jié)果中相同“鍵”的所有“值”進(jìn)行規(guī)約,以得到最終結(jié)果。MapReduce這樣的功能劃分,非常適合在大量計(jì)算機(jī)組成的分布式并行環(huán)境里進(jìn)行數(shù)據(jù)處理。

2.組成

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

分析:

(1)JobTracker

JobTracker叫作業(yè)跟蹤器,運(yùn)行到主節(jié)點(diǎn)(Namenode)上的一個(gè)很重要的進(jìn)程,是MapReduce體系的調(diào)度器。用于處理作業(yè)(用戶提交的代碼)的后臺(tái)程序,決定有哪些文件參與作業(yè)的處理,然后把作業(yè)切割成為一個(gè)個(gè)的小task,并把它們分配到所需要的數(shù)據(jù)所在的子節(jié)點(diǎn)。

Hadoop的原則就是就近運(yùn)行,數(shù)據(jù)和程序要在同一個(gè)物理節(jié)點(diǎn)里,數(shù)據(jù)在哪里,程序就跑去哪里運(yùn)行。這個(gè)工作是JobTracker做的,監(jiān)控task,還會(huì)重啟失敗的task(于不同的節(jié)點(diǎn)),每個(gè)集群只有唯一一個(gè)JobTracker,類似單點(diǎn)的NameNode,位于Master節(jié)點(diǎn)

(2)TaskTracker

TaskTracker叫任務(wù)跟蹤器,MapReduce體系的最后一個(gè)后臺(tái)進(jìn)程,位于每個(gè)slave節(jié)點(diǎn)上,與datanode結(jié)合(代碼與數(shù)據(jù)一起的原則),管理各自節(jié)點(diǎn)上的task(由jobtracker分配),

每個(gè)節(jié)點(diǎn)只有一個(gè)tasktracker,但一個(gè)tasktracker可以啟動(dòng)多個(gè)JVM,運(yùn)行Map Task和Reduce Task;并與JobTracker交互,匯報(bào)任務(wù)狀態(tài),

Map Task:解析每條數(shù)據(jù)記錄,傳遞給用戶編寫的map(),并執(zhí)行,將輸出結(jié)果寫入本地磁盤(如果為map-only作業(yè),直接寫入HDFS)。

Reducer Task:從Map Task的執(zhí)行結(jié)果中,遠(yuǎn)程讀取輸入數(shù)據(jù),對(duì)數(shù)據(jù)進(jìn)行排序,將數(shù)據(jù)按照分組傳遞給用戶編寫的reduce函數(shù)執(zhí)行。

Hive

1.定義

Hive是基于Hadoop的一個(gè)數(shù)據(jù)倉(cāng)庫(kù)工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫(kù)表,并提供完整的sql查詢功能,可以將sql語(yǔ)句轉(zhuǎn)換為MapReduce任務(wù)進(jìn)行運(yùn)行。

Hive是建立在 Hadoop 上的數(shù)據(jù)倉(cāng)庫(kù)基礎(chǔ)構(gòu)架。它提供了一系列的工具,可以用來(lái)進(jìn)行數(shù)據(jù)提取轉(zhuǎn)化加載(ETL),這是一種可以存儲(chǔ)、查詢和分析存儲(chǔ)在 Hadoop 中的大規(guī)模數(shù)據(jù)的機(jī)制。

Hive 定義了簡(jiǎn)單的類 SQL 查詢語(yǔ)言,稱為 HQL,它允許熟悉 SQL 的用戶查詢數(shù)據(jù)。同時(shí),這個(gè)語(yǔ)言也允許熟悉 MapReduce 開(kāi)發(fā)者的開(kāi)發(fā)自定義的 mapper 和 reducer 來(lái)處理內(nèi)建的 mapper 和 reducer 無(wú)法完成的復(fù)雜的分析工作。

2.組成

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

分析:Hive架構(gòu)包括:CLI(Command Line Interface)、JDBC/ODBC、Thrift Server、WEB GUI、Metastore和Driver(Complier、Optimizer和Executor),這些組件分為兩大類:服務(wù)端組件和客戶端組件

3.客戶端與服務(wù)端組件

(1)客戶端組件:

  • CLI:Command Line Interface,命令行接口。
  • Thrift客戶端:上面的架構(gòu)圖里沒(méi)有寫上Thrift客戶端,但是Hive架構(gòu)的許多客戶端接口是建立在Thrift客戶端之上,包括JDBC和ODBC接口。
  • WEBGUI:Hive客戶端提供了一種通過(guò)網(wǎng)頁(yè)的方式訪問(wèn)Hive所提供的服務(wù)。這個(gè)接口對(duì)應(yīng)Hive的HWI組件(Hive Web Interface),使用前要啟動(dòng)HWI服務(wù)。

(2)服務(wù)端組件:

  • Driver組件:該組件包括Complier、Optimizer和Executor,它的作用是將HiveQL(類SQL)語(yǔ)句進(jìn)行解析、編譯優(yōu)化,生成執(zhí)行計(jì)劃,然后調(diào)用底層的MapReduce計(jì)算框架
  • Metastore組件:元數(shù)據(jù)服務(wù)組件,這個(gè)組件存儲(chǔ)Hive的元數(shù)據(jù),Hive的元數(shù)據(jù)存儲(chǔ)在關(guān)系數(shù)據(jù)庫(kù)里,Hive支持的關(guān)系數(shù)據(jù)庫(kù)有Derby和Mysql。元數(shù)據(jù)對(duì)于Hive十分重要,因此Hive支持把Metastore服務(wù)獨(dú)立出來(lái),安裝到遠(yuǎn)程的服務(wù)器集群里,從而解耦Hive服務(wù)和Metastore服務(wù),保證Hive運(yùn)行的健壯性;
  • Thrift服務(wù):Thrift是Facebook開(kāi)發(fā)的一個(gè)軟件框架,它用來(lái)進(jìn)行可擴(kuò)展且跨語(yǔ)言的服務(wù)的開(kāi)發(fā),Hive集成了該服務(wù),能讓不同的編程語(yǔ)言調(diào)用Hive的接口。

4.Hive與傳統(tǒng)數(shù)據(jù)庫(kù)的異同

(1)查詢語(yǔ)言

由于 SQL 被廣泛的應(yīng)用在數(shù)據(jù)倉(cāng)庫(kù)中,因此專門針對(duì)Hive的特性設(shè)計(jì)了類SQL的查詢語(yǔ)言HQL。熟悉SQL開(kāi)發(fā)的開(kāi)發(fā)者可以很方便的使用Hive進(jìn)行開(kāi)發(fā)。

(2)數(shù)據(jù)存儲(chǔ)位置

Hive是建立在Hadoop之上的,所有Hive的數(shù)據(jù)都是存儲(chǔ)在HDFS中的。而數(shù)據(jù)庫(kù)則可以將數(shù)據(jù)保存在塊設(shè)備或者本地文件系統(tǒng)中。

(3)數(shù)據(jù)格式

Hive中沒(méi)有定義專門的數(shù)據(jù)格式,數(shù)據(jù)格式可以由用戶指定,用戶定義數(shù)據(jù)格式需要指定三個(gè)屬性:列分隔符(通常為空格、”\t”、”\\x001″)、行分隔符(”\n”)以及讀取文件數(shù)據(jù)的方法(Hive中默認(rèn)有三個(gè)文件格式TextFile,SequenceFile以及RCFile)。

(4)數(shù)據(jù)更新

由于Hive是針對(duì)數(shù)據(jù)倉(cāng)庫(kù)應(yīng)用設(shè)計(jì)的,而數(shù)據(jù)倉(cāng)庫(kù)的內(nèi)容是讀多寫少的。因此,Hive中不支持

對(duì)數(shù)據(jù)的改寫和添加,所有的數(shù)據(jù)都是在加載的時(shí)候中確定好的。而數(shù)據(jù)庫(kù)中的數(shù)據(jù)通常是需要經(jīng)常進(jìn)行修改的,因此可以使用INSERT INTO … VALUES添加數(shù)據(jù),使用UPDATE … SET修改數(shù)據(jù)。

(5)索引

Hive在加載數(shù)據(jù)的過(guò)程中不會(huì)對(duì)數(shù)據(jù)進(jìn)行任何處理,甚至不會(huì)對(duì)數(shù)據(jù)進(jìn)行掃描,因此也沒(méi)有對(duì)數(shù)據(jù)中的某些Key建立索引。Hive要訪問(wèn)數(shù)據(jù)中滿足條件的特定值時(shí),需要暴力掃描整個(gè)數(shù)據(jù),因此訪問(wèn)延遲較高。由于MapReduce的引入, Hive可以并行訪問(wèn)數(shù)據(jù),因此即使沒(méi)有索引,對(duì)于大數(shù)據(jù)量的訪問(wèn),Hive仍然可以體現(xiàn)出優(yōu)勢(shì)。數(shù)據(jù)庫(kù)中,通常會(huì)針對(duì)一個(gè)或者幾個(gè)列建立索引,因此對(duì)于少量的特定條件的數(shù)據(jù)的訪問(wèn),數(shù)據(jù)庫(kù)可以有很高的效率,較低的延遲。由于數(shù)據(jù)的訪問(wèn)延遲較高,決定了Hive不適合在線數(shù)據(jù)查詢。

(6)執(zhí)行

Hive中大多數(shù)查詢的執(zhí)行是通過(guò)Hadoop提供的MapReduce來(lái)實(shí)現(xiàn)的(類似select * from tbl的查詢不需要MapReduce)。而數(shù)據(jù)庫(kù)通常有自己的執(zhí)行引擎。

(7)執(zhí)行延遲

Hive在查詢數(shù)據(jù)的時(shí)候,由于沒(méi)有索引,需要掃描整個(gè)表,因此延遲較高。另外一個(gè)導(dǎo)致Hive執(zhí)行延遲高的因素是MapReduce框架。由于MapReduce本身具有較高的延遲,因此在利用MapReduce執(zhí)行Hive查詢時(shí),也會(huì)有較高的延遲。相對(duì)的,數(shù)據(jù)庫(kù)的執(zhí)行延遲較低。當(dāng)然,這個(gè)低是有條件的,即數(shù)據(jù)規(guī)模較小,當(dāng)數(shù)據(jù)規(guī)模大到超過(guò)數(shù)據(jù)庫(kù)的處理能力的時(shí)候,Hive的并行計(jì)算顯然能體現(xiàn)出優(yōu)勢(shì)。

(8)可擴(kuò)展性

由于Hive是建立在Hadoop之上的,因此Hive的可擴(kuò)展性是和Hadoop的可擴(kuò)展性是一致的(世界上最大的Hadoop集群在Yahoo!,2009年的規(guī)模在4000臺(tái)節(jié)點(diǎn)左右)。而數(shù)據(jù)庫(kù)由于ACID語(yǔ)義的嚴(yán)格限制,擴(kuò)展行非常有限。目前最先進(jìn)的并行數(shù)據(jù)庫(kù)Oracle在理論上的擴(kuò)展能力也只有100臺(tái)左右。

(9)數(shù)據(jù)規(guī)模

由于Hive建立在集群上并可以利用MapReduce進(jìn)行并行計(jì)算,因此可以支持很大規(guī)模的數(shù)據(jù);對(duì)應(yīng)的,數(shù)據(jù)庫(kù)可以支持的數(shù)據(jù)規(guī)模較小。

Hbase

1.定義

HBase – Hadoop Database,是一個(gè)高可靠性、高性能、面向列、可伸縮的分布式存儲(chǔ)系統(tǒng),利用HBase技術(shù)可在廉價(jià)PC Server上搭建起大規(guī)模結(jié)構(gòu)化存儲(chǔ)集群。

HBase是Google Bigtable的開(kāi)源實(shí)現(xiàn),類似Google Bigtable利用GFS作為其文件存儲(chǔ)系統(tǒng),HBase利用Hadoop HDFS作為其文件存儲(chǔ)系統(tǒng);

Google運(yùn)行MapReduce來(lái)處理Bigtable中的海量數(shù)據(jù),HBase同樣利用Hadoop MapReduce來(lái)處理HBase中的海量數(shù)據(jù);

Google Bigtable利用 Chubby作為協(xié)同服務(wù),HBase利用Zookeeper作為協(xié)同服務(wù)。

2.組成

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

分析:從上圖可以看出:Hbase主要由Client、Zookeeper、HMaster和HRegionServer組成,由Hstore作存儲(chǔ)系統(tǒng)。

Client

HBase Client使用HBase的RPC機(jī)制與HMaster和HRegionServer進(jìn)行通信,對(duì)于管理類操作,Client與 HMaster進(jìn)行RPC;對(duì)于數(shù)據(jù)讀寫類操作,Client與HRegionServer進(jìn)行RPC

Zookeeper

Zookeeper Quorum 中除了存儲(chǔ)了 -ROOT- 表的地址和 HMaster 的地址,HRegionServer 也會(huì)把自己以 Ephemeral 方式注冊(cè)到 Zookeeper 中,使得 HMaster 可以隨時(shí)感知到各個(gè)HRegionServer 的健康狀態(tài)。

HMaster

HMaster 沒(méi)有單點(diǎn)問(wèn)題,HBase 中可以啟動(dòng)多個(gè) HMaster ,通過(guò) Zookeeper 的 Master Election 機(jī)制保證總有一個(gè) Master 運(yùn)行,HMaster 在功能上主要負(fù)責(zé) Table和Region的管理工作:

  • 管理用戶對(duì) Table 的增、刪、改、查操作
  • 管理 HRegionServer 的負(fù)載均衡,調(diào)整 Region 分布
  • 在 Region Split 后,負(fù)責(zé)新 Region 的分配
  • 在 HRegionServer 停機(jī)后,負(fù)責(zé)失效 HRegionServer 上的 Regions 遷移

HStore存儲(chǔ)是HBase存儲(chǔ)的核心了,其中由兩部分組成,一部分是MemStore,一部分是StoreFiles。

MemStore是Sorted Memory Buffer,用戶寫入的數(shù)據(jù)首先會(huì)放入MemStore,當(dāng)MemStore滿了以后會(huì)Flush成一個(gè)StoreFile(底層實(shí)現(xiàn)是HFile), 當(dāng)StoreFile文件數(shù)量增長(zhǎng)到一定閾值,會(huì)觸發(fā)Compact合并操作,將多個(gè) StoreFiles 合并成一個(gè) StoreFile,合并過(guò)程中會(huì)進(jìn)行版本合并和數(shù)據(jù)刪除。

因此可以看出HBase其實(shí)只有增加數(shù)據(jù),所有的更新和刪除操作都是在后續(xù)的 compact 過(guò)程中進(jìn)行的,這使得用戶的寫操作只要進(jìn)入內(nèi)存中就可以立即返回,保證了 HBase I/O 的高性能。

當(dāng)StoreFiles Compact后,會(huì)逐步形成越來(lái)越大的StoreFile,當(dāng)單個(gè) StoreFile 大小超過(guò)一定閾值后,會(huì)觸發(fā)Split操作,同時(shí)把當(dāng)前 Region Split成2個(gè)Region,父 Region會(huì)下線,新Split出的2個(gè)孩子Region會(huì)被HMaster分配到相應(yīng)的HRegionServer 上,使得原先1個(gè)Region的壓力得以分流到2個(gè)Region上。

三、Hadoop的應(yīng)用實(shí)例

1.回顧Hadoop的整體架構(gòu)

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

2.Hadoop的應(yīng)用——流量查詢系統(tǒng)

(1)流量查詢系統(tǒng)總體框架

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

(2)流量查詢系統(tǒng)總體流程

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

(3)流量查詢系統(tǒng)數(shù)據(jù)預(yù)處理功能框架

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

(4)流量查詢系統(tǒng)數(shù)據(jù)預(yù)處理流程

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

(5)流量查詢NoSQL數(shù)據(jù)庫(kù)功能框架

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

(6)流量查詢服務(wù)功能框架

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

(7)實(shí)時(shí)流計(jì)算數(shù)據(jù)處理流程圖

 

10分鐘零基礎(chǔ)就可搞懂的Hadoop架構(gòu)原理,阿里架構(gòu)師詳解

本人才疏學(xué)淺,若有錯(cuò),請(qǐng)指出,謝謝! 如果你有更好的建議,可以留言我們一起討論,共同進(jìn)步! 衷心的感謝您能耐心的讀完本文!

責(zé)任編輯:未麗燕 來(lái)源: 今日頭條
相關(guān)推薦

2019-10-24 11:03:56

HadoopGoogle硬件

2021-05-28 07:38:20

內(nèi)存溢出場(chǎng)景

2020-11-03 09:10:18

JUC-Future

2018-01-19 09:45:20

架構(gòu)師今日頭條算法

2020-01-16 15:35:00

高并發(fā)架構(gòu)服務(wù)器

2024-12-11 07:00:00

面向?qū)ο?/a>代碼

2025-03-13 06:22:59

2025-04-30 09:37:07

2024-01-12 07:38:38

AQS原理JUC

2019-06-14 09:34:59

Linux 系統(tǒng) 數(shù)據(jù)

2020-10-29 08:28:42

Java NIO異步非阻塞

2018-09-27 13:56:14

內(nèi)網(wǎng)外網(wǎng)通信

2019-11-20 10:38:59

MySQLSQL數(shù)據(jù)庫(kù)

2019-08-09 10:33:36

開(kāi)發(fā)技能代碼

2025-01-20 08:50:00

2021-06-18 07:34:12

Kafka中間件微服務(wù)

2017-03-30 19:28:26

HBase分布式數(shù)據(jù)

2025-01-21 07:39:04

Linux堆內(nèi)存Golang

2018-02-01 14:15:00

Python函數(shù)

2019-07-24 09:28:36

Node.jskoa架構(gòu)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)