<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一文詳解MongoDB分片(Sharding)技術

馬哥Linux運維 ? 來源:cnblogs ? 2024-04-28 10:35 ? 次閱讀

1.1 MongoDB復制集簡介

一組Mongodb復制集,就是一組mongod進程,這些進程維護同一個數據集合。復制集提供了數據冗余和高等級的可靠性,這是生產部署的基礎。

1.1.1 復制集的目的

保證數據在生產部署時的冗余和可靠性,通過在不同的機器上保存副本來保證數據的不會因為單點損壞而丟失。能夠隨時應對數據丟失、機器損壞帶來的風險。

換一句話來說,還能提高讀取能力,用戶的讀取服務器和寫入服務器在不同的地方,而且,由不同的服務器為不同的用戶提供服務,提高整個系統的負載。

1.1.2 簡單介紹

一組復制集就是一組mongod實例掌管同一個數據集,實例可以在不同的機器上面。實例中包含一個主導,接受客戶端所有的寫入操作,其他都是副本實例,從主服務器上獲得數據并保持同步。

主服務器很重要,包含了所有的改變操作(寫)的日志。但是副本服務器集群包含有所有的主服務器數據,因此當主服務器掛掉了,就會在副本服務器上重新選取一個成為主服務器。

每個復制集還有一個仲裁者,仲裁者不存儲數據,只是負責通過心跳包來確認集群中集合的數量,并在主服務器選舉的時候作為仲裁決定結果。

1.2 復制的基本架構

基本的架構由3臺服務器組成,一個三成員的復制集,由三個有數據,或者兩個有數據,一個作為仲裁者。

1.2.1 三個存儲數據的復制集

具有三個存儲數據的成員的復制集有:

一個主庫;

兩個從庫組成,主庫宕機時,這兩個從庫都可以被選為主庫。

3db1a4e6-049a-11ef-a297-92fbcf53809c.png

當主庫宕機后,兩個從庫都會進行競選,其中一個變為主庫,當原主庫恢復后,作為從庫加入當前的復制集群即可。

3dd6296a-049a-11ef-a297-92fbcf53809c.png

1.2.2 當存在arbiter節點

在三個成員的復制集中,有兩個正常的主從,及一臺arbiter節點:

一個主庫

一個從庫,可以在選舉中成為主庫

一個aribiter節點,在選舉中,只進行投票,不能成為主庫

3dfe8db0-049a-11ef-a297-92fbcf53809c.png

說明:

由于arbiter節點沒有復制數據,因此這個架構中僅提供一個完整的數據副本。arbiter節點只需要更少的資源,代價是更有限的冗余和容錯。

當主庫宕機時,將會選擇從庫成為主,主庫修復后,將其加入到現有的復制集群中即可。

3e19a758-049a-11ef-a297-92fbcf53809c.png

1.2.3 Primary選舉

復制集通過replSetInitiate命令(或mongo shell的rs.initiate())進行初始化,初始化后各個成員間開始發送心跳消息,并發起Priamry選舉操作,獲得『大多數』成員投票支持的節點,會成為Primary,其余節點成為Secondary。

『大多數』的定義

假設復制集內投票成員(后續介紹)數量為N,則大多數為 N/2 + 1,當復制集內存活成員數量不足大多數時,整個復制集將無法選舉出Primary,復制集將無法提供寫服務,處于只讀狀態。

投票成員數 大多數 容忍失效數
1 1 0
2 2 0
3 2 1
4 3 1
5 3 2
6 4 2
7 4 3

通常建議將復制集成員數量設置為奇數,從上表可以看出3個節點和4個節點的復制集都只能容忍1個節點失效,從『服務可用性』的角度看,其效果是一樣的。(但無疑4個節點能提供更可靠的數據存儲)

1.3 復制集中成員說明

1.3.1 所有成員說明

成員 說明
Secondary 正常情況下,復制集的Seconary會參與Primary選舉(自身也可能會被選為Primary),并從Primary同步最新寫入的數據,以保證與Primary存儲相同的數據。
Secondary可以提供讀服務,增加Secondary節點可以提供復制集的讀服務能力,同時提升復制集的可用性。另外,Mongodb支持對復制集的Secondary節點進行靈活的配置,以適應多種場景的需求。
Arbiter Arbiter節點只參與投票,不能被選為Primary,并且不從Primary同步數據。
比如你部署了一個2個節點的復制集,1個Primary,1個Secondary,任意節點宕機,復制集將不能提供服務了(無法選出Primary),這時可以給復制集添加一個Arbiter節點,即使有節點宕機,仍能選出Primary。
Arbiter本身不存儲數據,是非常輕量級的服務,當復制集成員為偶數時,最好加入一個Arbiter節點,以提升復制集可用性。
Priority0 Priority0節點的選舉優先級為0,不會被選舉為Primary
比如你跨機房A、B部署了一個復制集,并且想指定Primary必須在A機房,這時可以將B機房的復制集成員Priority設置為0,這樣Primary就一定會是A機房的成員。
(注意:如果這樣部署,最好將『大多數』節點部署在A機房,否則網絡分區時可能無法選出Primary)
Vote0 Mongodb 3.0里,復制集成員最多50個,參與Primary選舉投票的成員最多7個,其他成員(Vote0)的vote屬性必須設置為0,即不參與投票。
Hidden Hidden節點不能被選為主(Priority為0),并且對Driver不可見。因Hidden節點不會接受Driver的請求,可使用Hidden節點做一些數據備份、離線計算的任務,不會影響復制集的服務。
Delayed Delayed節點必須是Hidden節點,并且其數據落后與Primary一段時間(可配置,比如1個小時)。
因Delayed節點的數據比Primary落后一段時間,當錯誤或者無效的數據寫入Primary時,可通過Delayed節點的數據來恢復到之前的時間點。

1.3.2 Priority 0節點

作為一個輔助可以作為一個備用。在一些復制集中,可能無法在合理的時間內添加新成員的時候。備用成員保持數據的當前最新數據能夠替換不可用的成員。

3e2c6780-049a-11ef-a297-92fbcf53809c.png

1.3.3 Hidden 節點(隱藏節點)

客戶端將不會把讀請求分發到隱藏節點上,即使我們設定了 復制集讀選項 。

這些隱藏節點將不會收到來自應用程序的請求。我們可以將隱藏節點專用于報表節點或是備份節點。 延時節點也應該是一個隱藏節點。

3e3e6e6c-049a-11ef-a297-92fbcf53809c.png

1.3.4 Delayed 節點(延時節點)

延時節點的數據集是延時的,因此它可以幫助我們在人為誤操作或是其他意外情況下恢復數據。

舉個例子,當應用升級失敗,或是誤操作刪除了表和數據庫時,我們可以通過延時節點進行數據恢復。

3e4da7d8-049a-11ef-a297-92fbcf53809c.png

1.4 配置MongoDB復制集

1.4.1 環境說明

系統環境說明:

[root@MongoDB ~]# cat /etc/redhat-release 
CentOS release 6.9 (Final)
[root@MongoDB ~]# uname -r
2.6.32-696.el6.x86_64
[root@MongoDB ~]# /etc/init.d/iptables status
iptables: Firewall is not running.
[root@MongoDB ~]# getenforce 
Disabled
[root@MongoDB ~]# hostname -I
10.0.0.152 172.16.1.152

軟件版本說明

本次使用的mongodb版本為:mongodb-linux-x86_64-3.2.8.tgz

1.4.2 前期準備,在root用戶下操作

本次復制集復制采用Mongodb多實例進行

所有的操作都基于安裝完成的mongodb服務,詳情參照:http://www.cnblogs.com/clsn/p/8214194.html#_label3


#創建mongod用戶
    useradd -u800 mongod
    echo 123456|passwd --stdin mongod 
# 安裝mongodb
    mkdir -p /mongodb/bin
 cd  /mongodb
 wget http://downloads.mongodb.org/linux/mongodb-linux-x86_64-rhel62-3.2.8.tgz
    tar xf  mongodb-linux-x86_64-3.2.8.tgz
    cd mongodb-linux-x86_64-3.2.8/bin/ &&
    cp * /mongodb/bin
    chown -R mongod.mongod /mongodb
# 切換到mongod用戶進行后續操作
    su - mongod

1.4.3 創建所需目錄


for  i in 28017 28018 28019 28020
    do 
      mkdir -p /mongodb/$i/conf  
      mkdir -p /mongodb/$i/data  
      mkdir -p /mongodb/$i/log
done 

1.4.4 配置多實例環境

編輯第一個實例配置文件


cat >>/mongodb/28017/conf/mongod.conf<<'EOF'
systemLog:
  destination: file
  path: /mongodb/28017/log/mongodb.log
  logAppend: true
storage:
  journal:
    enabled: true
  dbPath: /mongodb/28017/data
  directoryPerDB: true
  #engine: wiredTiger
  wiredTiger:
    engineConfig:
      # cacheSizeGB: 1
      directoryForIndexes: true
    collectionConfig:
      blockCompressor: zlib
    indexConfig:
      prefixCompression: true
processManagement:
  fork: true
net:
  port: 28017
replication:
  oplogSizeMB: 2048
  replSetName: my_repl
EOF

復制配置文件


for i in 28018 28019 28020
  do  
   cp  /mongodb/28017/conf/mongod.conf  /mongodb/$i/conf/
done

修改配置文件


for i in 28018 28019 28020
  do 
    sed  -i  "s#28017#$i#g" /mongodb/$i/conf/mongod.conf
done

啟動服務


for i in 28017 28018 28019 28020
  do  
    mongod -f /mongodb/$i/conf/mongod.conf 
done

# 關閉服務的方法


for i in 28017 28018 28019 28020
   do  
     mongod --shutdown  -f /mongodb/$i/conf/mongod.conf 
done

1.4.5 配置復制集

登陸數據庫,配置mongodb復制

shell> mongo --port 28017


config = {_id: 'my_repl', members: [
                          {_id: 0, host: '10.0.0.152:28017'},
                          {_id: 1, host: '10.0.0.152:28018'},
                          {_id: 2, host: '10.0.0.152:28019'}]
          }

初始化這個配置


> rs.initiate(config)
 到此復制集配置完成

1.4.6 測試主從復制

在主節點插入數據

my_repl:PRIMARY> db.movies.insert([ { "title" : "Jaws", "year" : 1975, "imdb_rating" : 8.1 },
   { "title" : "Batman", "year" : 1989, "imdb_rating" : 7.6 },
  ] );

在主節點查看數據

my_repl:PRIMARY> db.movies.find().pretty()
{
    "_id" : ObjectId("5a4d9ec184b9b2076686b0ac"),
    "title" : "Jaws",
    "year" : 1975,
    "imdb_rating" : 8.1
}
{
    "_id" : ObjectId("5a4d9ec184b9b2076686b0ad"),
    "title" : "Batman",
    "year" : 1989,
    "imdb_rating" : 7.6
}

注:在mongodb復制集當中,默認從庫不允許讀寫。

在從庫打開配置(危險)

注意:嚴禁在從庫做任何修改操作

my_repl:SECONDARY> rs.slaveOk()
my_repl:SECONDARY> show tables;
movies
my_repl:SECONDARY> db.movies.find().pretty()
{
    "_id" : ObjectId("5a4d9ec184b9b2076686b0ac"),
    "title" : "Jaws",
    "year" : 1975,
    "imdb_rating" : 8.1
}
{
    "_id" : ObjectId("5a4d9ec184b9b2076686b0ad"),
    "title" : "Batman",
    "year" : 1989,
    "imdb_rating" : 7.6
}

在從庫查看完成在登陸到主庫

1.4.7 復制集管理操作

(1)查看復制集狀態:

rs.status();     # 查看整體復制集狀態
rs.isMaster();   #  查看當前是否是主節點

(2)添加刪除節點

rs.add("ip:port");     #  新增從節點
rs.addArb("ip:port"); #  新增仲裁節點
rs.remove("ip:port"); #  刪除一個節點

注:

添加特殊節點時,

1>可以在搭建過程中設置特殊節點

2>可以通過修改配置的方式將普通從節點設置為特殊節點

/*找到需要改為延遲性同步的數組號*/;

(3)配置延時節點(一般延時節點也配置成hidden

cfg=rs.conf() 
cfg.members[2].priority=0
cfg.members[2].slaveDelay=120
cfg.members[2].hidden=true

注:這里的2是rs.conf()顯示的順序(除主庫之外),非ID

重寫復制集配置

rs.reconfig(cfg)   

也可將延時節點配置為arbiter節點

cfg.members[2].arbiterOnly=true

配置成功后,通過以下命令查詢配置后的屬性

rs.conf();

1.4.8 副本集其他操作命令

查看副本集的配置信息

my_repl:PRIMARY> rs.config()

查看副本集各成員的狀態

my_repl:PRIMARY> rs.status()

1.4.8.1副本集角色切換(不要人為隨便操作)


rs.stepDown()
rs.freeze(300)  # 鎖定從,使其不會轉變成主庫,freeze()和stepDown單位都是秒。
rs.slaveOk()    # 設置副本節點可讀:在副本節點執行

插入數據


> use app
switched to db app
app> db.createCollection('a')
{ "ok" : 0, "errmsg" : "not master", "code" : 10107 }
查看副本節點
> rs.printSlaveReplicationInfo()
source: 192.168.1.22:27017
    syncedTo: Thu May 26 2016 1056 GMT+0800 (CST)
    0 secs (0 hrs) behind the primary

MongoDB分片(Sharding)技術

分片(sharding)是MongoDB用來將大型集合分割到不同服務器(或者說一個集群)上所采用的方法。盡管分片起源于關系型數據庫分區,但MongoDB分片完全又是另一回事。

和MySQL分區方案相比,MongoDB的最大區別在于它幾乎能自動完成所有事情,只要告訴MongoDB要分配數據,它就能自動維護數據在不同服務器之間的均衡。

2.1 MongoDB分片介紹

2.1.1 分片的目的

高數據量和吞吐量的數據庫應用會對單機的性能造成較大壓力,大的查詢量會將單機的CPU耗盡,大的數據量對單機的存儲壓力較大,最終會耗盡系統的內存而將壓力轉移到磁盤IO上。

為了解決這些問題,有兩個基本的方法: 垂直擴展和水平擴展。

垂直擴展:增加更多的CPU和存儲資源來擴展容量。

水平擴展:將數據集分布在多個服務器上。水平擴展即分片。

2.1.2 分片設計思想

分片為應對高吞吐量與大數據量提供了方法。使用分片減少了每個分片需要處理的請求數,因此,通過水平擴展,集群可以提高自己的存儲容量和吞吐量。舉例來說,當插入一條數據時,應用只需要訪問存儲這條數據的分片.

使用分片減少了每個分片存儲的數據。

例如,如果數據庫1tb的數據集,并有4個分片,然后每個分片可能僅持有256 GB的數據。如果有40個分片,那么每個切分可能只有25GB的數據。

3e58d0c2-049a-11ef-a297-92fbcf53809c.png

2.1.3 分片機制提供了如下三種優勢

1.對集群進行抽象,讓集群“不可見”

MongoDB自帶了一個叫做mongos的專有路由進程。mongos就是掌握統一路口的路由器,其會將客戶端發來的請求準確無誤的路由到集群中的一個或者一組服務器上,同時會把接收到的響應拼裝起來發回到客戶端。

2.保證集群總是可讀寫

MongoDB通過多種途徑來確保集群的可用性和可靠性。將MongoDB的分片和復制功能結合使用,在確保數據分片到多臺服務器的同時,也確保了每分數據都有相應的備份,這樣就可以確保有服務器換掉時,其他的從庫可以立即接替壞掉的部分繼續工作。

3.使集群易于擴展

當系統需要更多的空間和資源的時候,MongoDB使我們可以按需方便的擴充系統容量。

2.1.4 分片集群架構

組件 說明
Config Server 存儲集群所有節點、分片數據路由信息。默認需要配置3個Config Server節點。
Mongos 提供對外應用訪問,所有操作均通過mongos執行。一般有多個mongos節點。數據遷移和數據自動平衡。
Mongod 存儲應用數據記錄。一般有多個Mongod節點,達到數據分片目的。

3e75af62-049a-11ef-a297-92fbcf53809c.png

分片集群的構造

(1)mongos :數據路由,和客戶端打交道的模塊。mongos本身沒有任何數據,他也不知道該怎么處理這數據,去找config server

(2)config server:所有存、取數據的方式,所有shard節點的信息,分片功能的一些配置信息??梢岳斫鉃檎鎸崝祿脑獢祿?。

(3)shard:真正的數據存儲位置,以chunk為單位存數據。

Mongos本身并不持久化數據,Sharded cluster所有的元數據都會存儲到Config Server,而用戶的數據會議分散存儲到各個shard。Mongos啟動后,會從配置服務器加載元數據,開始提供服務,將用戶的請求正確路由到對應的碎片。

Mongos的路由功能

當數據寫入時,MongoDB Cluster根據分片鍵設計寫入數據。

當外部語句發起數據查詢時,MongoDB根據數據分布自動路由至指定節點返回數據。

2.2 集群中數據分布

2.2.1 Chunk是什么

在一個shard server內部,MongoDB還是會把數據分為chunks,每個chunk代表這個shard server內部一部分數據。chunk的產生,會有以下兩個用途:

Splitting當一個chunk的大小超過配置中的chunk size時,MongoDB的后臺進程會把這個chunk切分成更小的chunk,從而避免chunk過大的情況

Balancing在MongoDB中,balancer是一個后臺進程,負責chunk的遷移,從而均衡各個shard server的負載,系統初始1個chunk,chunk size默認值64M,生產庫上選擇適合業務的chunk size是最好的。ongoDB會自動拆分和遷移chunks。

分片集群的數據分布(shard節點)

(1)使用chunk來存儲數據

(2)進群搭建完成之后,默認開啟一個chunk,大小是64M,

(3)存儲需求超過64M,chunk會進行分裂,如果單位時間存儲需求很大,設置更大的chunk

(4)chunk會被自動均衡遷移。

2.2.2 chunksize的選擇

適合業務的chunksize是最好的。

chunk的分裂和遷移非常消耗IO資源;chunk分裂的時機:在插入和更新,讀數據不會分裂。

chunksize的選擇:

小的chunksize:數據均衡是遷移速度快,數據分布更均勻。數據分裂頻繁,路由節點消耗更多資源。大的chunksize:數據分裂少。數據塊移動集中消耗IO資源。通常100-200M

2.2.3 chunk分裂及遷移

隨著數據的增長,其中的數據大小超過了配置的chunk size,默認是64M,則這個chunk就會分裂成兩個。數據的增長會讓chunk分裂得越來越多。

3e84e266-049a-11ef-a297-92fbcf53809c.png

這時候,各個shard 上的chunk數量就會不平衡。這時候,mongos中的一個組件balancer 就會執行自動平衡。把chunk從chunk數量最多的shard節點挪動到數量最少的節點。

3e985620-049a-11ef-a297-92fbcf53809c.png

chunkSize對分裂及遷移的影響

MongoDB 默認的 chunkSize 為64MB,如無特殊需求,建議保持默認值;chunkSize 會直接影響到 chunk 分裂、遷移的行為。

chunkSize 越小,chunk 分裂及遷移越多,數據分布越均衡;反之,chunkSize 越大,chunk 分裂及遷移會更少,但可能導致數據分布不均。

chunkSize 太小,容易出現 jumbo chunk(即shardKey 的某個取值出現頻率很高,這些文檔只能放到一個 chunk 里,無法再分裂)而無法遷移;chunkSize 越大,則可能出現 chunk 內文檔數太多(chunk 內文檔數不能超過 250000 )而無法遷移。

chunk 自動分裂只會在數據寫入時觸發,所以如果將 chunkSize 改小,系統需要一定的時間來將 chunk 分裂到指定的大小。

chunk 只會分裂,不會合并,所以即使將 chunkSize 改大,現有的 chunk 數量不會減少,但 chunk 大小會隨著寫入不斷增長,直到達到目標大小。

2.3 數據區分

2.3.1 分片鍵shard key

MongoDB中數據的分片是、以集合為基本單位的,集合中的數據通過片鍵(Shard key)被分成多部分。其實片鍵就是在集合中選一個鍵,用該鍵的值作為數據拆分的依據。

所以一個好的片鍵對分片至關重要。片鍵必須是一個索引,通過sh.shardCollection加會自動創建索引(前提是此集合不存在的情況下)。一個自增的片鍵對寫入和數據均勻分布就不是很好,因為自增的片鍵總會在一個分片上寫入,后續達到某個閥值可能會寫到別的分片。但是按照片鍵查詢會非常高效。

隨機片鍵對數據的均勻分布效果很好。注意盡量避免在多個分片上進行查詢。在所有分片上查詢,mongos會對結果進行歸并排序。

對集合進行分片時,你需要選擇一個片鍵,片鍵是每條記錄都必須包含的,且建立了索引的單個字段或復合字段,MongoDB按照片鍵將數據劃分到不同的數據塊中,并將數據塊均衡地分布到所有分片中。

為了按照片鍵劃分數據塊,MongoDB使用基于范圍的分片方式或者 基于哈希的分片方式。

注意:

分片鍵是不可變。

分片鍵必須有索引。

分片鍵大小限制512bytes。

分片鍵用于路由查詢。

MongoDB不接受已進行collection級分片的collection上插入無分片

鍵的文檔(也不支持空值插入)

2.3.2 以范圍為基礎的分片Sharded Cluster

Sharded Cluster支持將單個集合的數據分散存儲在多shard上,用戶可以指定根據集合內文檔的某個字段即shard key來進行范圍分片(range sharding)。

3eadf066-049a-11ef-a297-92fbcf53809c.png

對于基于范圍的分片,MongoDB按照片鍵的范圍把數據分成不同部分。

假設有一個數字的片鍵:想象一個從負無窮到正無窮的直線,每一個片鍵的值都在直線上畫了一個點。MongoDB把這條直線劃分為更短的不重疊的片段,并稱之為數據塊,每個數據塊包含了片鍵在一定范圍內的數據。在使用片鍵做范圍劃分的系統中,擁有”相近”片鍵的文檔很可能存儲在同一個數據塊中,因此也會存儲在同一個分片中。

2.3.3 基于哈希的分片

分片過程中利用哈希索引作為分片的單個鍵,且哈希分片的片鍵只能使用一個字段,而基于哈希片鍵最大的好處就是保證數據在各個節點分布基本均勻。

3ebe4fa6-049a-11ef-a297-92fbcf53809c.png

對于基于哈希的分片,MongoDB計算一個字段的哈希值,并用這個哈希值來創建數據塊。在使用基于哈希分片的系統中,擁有”相近”片鍵的文檔很可能不會存儲在同一個數據塊中,因此數據的分離性更好一些。

Hash分片與范圍分片互補,能將文檔隨機的分散到各個chunk,充分的擴展寫能力,彌補了范圍分片的不足,但不能高效的服務范圍查詢,所有的范圍查詢要分發到后端所有的Shard才能找出滿足條件的文檔。

2.3.4 分片鍵選擇建議

1、遞增的sharding key

數據文件挪動小。(優勢)

因為數據文件遞增,所以會把insert的寫IO永久放在最后一片上,造成最后一片的寫熱點。同時,隨著最后一片的數據量增大,將不斷的發生遷移至之前的片上。

2、隨機的sharding key

數據分布均勻,insert的寫IO均勻分布在多個片上。(優勢)

大量的隨機IO,磁盤不堪重荷。

3、混合型key

大方向隨機遞增,小范圍隨機分布。

為了防止出現大量的chunk均衡遷移,可能造成的IO壓力。我們需要設置合理分片使用策略(片鍵的選擇、分片算法(range、hash))

分片注意:

分片鍵是不可變、分片鍵必須有索引、分片鍵大小限制512bytes、分片鍵用于路由查詢。

MongoDB不接受已進行collection級分片的collection上插入無分片鍵的文檔(也不支持空值插入)

2.4 部署分片集群

本集群的部署基于1.1的復制集搭建完成。

2.4.1 環境準備

創建程序所需的目錄


for  i in 17 18 19 20 21 22 23 24 25 26 
  do 
  mkdir -p /mongodb/280$i/conf  
  mkdir -p /mongodb/280$i/data  
  mkdir -p /mongodb/280$i/log
done

2.4.2 shard集群配置

編輯shard集群配置文件
cat > /mongodb/28021/conf/mongod.conf <<'EOF'
systemLog:
  destination: file
  path: /mongodb/28021/log/mongodb.log   
  logAppend: true
storage:
  journal:
    enabled: true
  dbPath: /mongodb/28021/data
  directoryPerDB: true
  #engine: wiredTiger
  wiredTiger:
    engineConfig:
      cacheSizeGB: 1
      directoryForIndexes: true
    collectionConfig:
      blockCompressor: zlib
    indexConfig:
      prefixCompression: true
net:
  bindIp: 10.0.0.152
  port: 28021
replication:
  oplogSizeMB: 2048
  replSetName: sh1
sharding:
  clusterRole: shardsvr
processManagement: 
  fork: true
EOF
復制shard集群配置文件
for  i in  22 23 24 25 26  
  do  
   cp  /mongodb/28021/conf/mongod.conf  /mongodb/280$i/conf/
done
修改配置文件端口
for  i in   22 23 24 25 26  
  do 
    sed  -i  "s#28021#280$i#g" /mongodb/280$i/conf/mongod.conf
done
   修改配置文件復制集名稱(replSetName)
for  i in    24 25 26  
  do 
    sed  -i  "s#sh1#sh2#g" /mongodb/280$i/conf/mongod.conf
done
啟動shard集群
for  i in  21 22 23 24 25 26
  do  
    mongod -f /mongodb/280$i/conf/mongod.conf 
done
配置復制集1
mongo --host 10.0.0.152 --port 28021  admin
  # 配置復制集
config = {_id: 'sh1', members: [
                          {_id: 0, host: '10.0.0.152:28021'},
                          {_id: 1, host: '10.0.0.152:28022'},
                          {_id: 2, host: '10.0.0.152:28023',"arbiterOnly":true}]
           }  
 # 初始化配置
rs.initiate(config)  
 配置復制集2
mongo --host 10.0.0.152 --port 28024  admin
  # 配置復制集
config = {_id: 'sh2', members: [
                          {_id: 0, host: '10.0.0.152:28024'},
                          {_id: 1, host: '10.0.0.152:28025'},
                          {_id: 2, host: '10.0.0.152:28026',"arbiterOnly":true}]
           }
# 初始化配置
rs.initiate(config)

2.4.3 config集群配置

創建主節點配置文件
cat > /mongodb/28018/conf/mongod.conf <<'EOF'
systemLog:
  destination: file
  path: /mongodb/28018/log/mongodb.conf
  logAppend: true
storage:
  journal:
    enabled: true
  dbPath: /mongodb/28018/data
  directoryPerDB: true
  #engine: wiredTiger
  wiredTiger:
    engineConfig:
      cacheSizeGB: 1
      directoryForIndexes: true
    collectionConfig:
      blockCompressor: zlib
    indexConfig:
      prefixCompression: true
net:
  bindIp: 10.0.0.152
  port: 28018
replication:
  oplogSizeMB: 2048
  replSetName: configReplSet
sharding:
  clusterRole: configsvr
processManagement: 
  fork: true
EOF

將配置文件分發到從節點
for  i in 19 20 
  do  
   cp  /mongodb/28018/conf/mongod.conf  /mongodb/280$i/conf/
done

修改配置文件端口信息
for  i in 19 20  
  do 
    sed  -i  "s#28018#280$i#g" /mongodb/280$i/conf/mongod.conf
done

啟動config server集群
for  i in  18 19 20 
  do  
    mongod -f /mongodb/280$i/conf/mongod.conf 
done
配置config server復制集
mongo --host 10.0.0.152 --port 28018  admin
# 配置復制集信息
config = {_id: 'configReplSet', members: [
                          {_id: 0, host: '10.0.0.152:28018'},
                          {_id: 1, host: '10.0.0.152:28019'},
                          {_id: 2, host: '10.0.0.152:28020'}]
           }
# 初始化配置
rs.initiate(config) 

注:config server 使用復制集不用有arbiter節點。3.4版本以后config必須為復制集

2.4.4 mongos節點配置

修改配置文件

cat > /mongodb/28017/conf/mongos.conf <<'EOF'
systemLog:
  destination: file
  path: /mongodb/28017/log/mongos.log
  logAppend: true
net:
  bindIp: 10.0.0.152
  port: 28017
sharding:
  configDB: configReplSet/10.0.0.152:28108,10.0.0.152:28019,10.0.0.152:28020
processManagement: 
  fork: true
EOF

啟動mongos

mongos -f /mongodb/28017/conf/mongos.conf

登陸到mongos

mongo 10.0.0.152:28017/admin

添加分片節點

db.runCommand( { addshard : "sh1/10.0.0.152:28021,10.0.0.152:28022,10.0.0.152:28023",name:"shard1"} )
db.runCommand( { addshard : "sh2/10.0.0.152:28024,10.0.0.152:28025,10.0.0.152:28026",name:"shard2"} )

列出分片

mongos> db.runCommand( { listshards : 1 } )
{
    "shards" : [
        {
            "_id" : "shard2",
            "host" : "sh2/10.0.0.152:28024,10.0.0.152:28025"
        },
        {
            "_id" : "shard1",
            "host" : "sh1/10.0.0.152:28021,10.0.0.152:28022"
        }
    ],
    "ok" : 1
}

整體狀態查看

mongos> sh.status();

至此MongoDB的分片集群就搭建完成。

2.4.5 數據庫分片配置

激活數據庫分片功能


語法:( { enablesharding : "數據庫名稱" } )


mongos> db.runCommand( { enablesharding : "test" } )

指定分片建對集合分片,范圍片鍵--創建索引

mongos> use test 
mongos> db.vast.ensureIndex( { id: 1 } )
mongos> use admin
mongos> db.runCommand( { shardcollection : "test.vast",key : {id: 1} } )

集合分片驗證

mongos> use test
mongos> for(i=0;i<20000;i++){ db.vast1.insert({"id":i,"name":"clsn","age":70,"date":new Date()}); }
mongos> db.vast.stats()

插入數據的條數盡量大些,能夠看出更好的效果。

2.5 分片集群的操作

2.5.1 不同分片鍵的配置

范圍片鍵

admin> sh.shardCollection("數據庫名稱.集合名稱",key : {分片鍵: 1}  )
或
admin> db.runCommand( { shardcollection : "數據庫名稱.集合名稱",key : {分片鍵: 1} } )

eg:

admin > sh.shardCollection("test.vast",key : {id: 1}  )
或
admin> db.runCommand( { shardcollection : "test.vast",key : {id: 1} } )

哈希片鍵

admin > sh.shardCollection( "數據庫名.集合名", { 片鍵: "hashed" } )
創建哈希索引
admin> db.vast.ensureIndex( { a: "hashed" } )
admin > sh.shardCollection( "test.vast", { a: "hashed" } )

2.5.2 分片集群的操作

判斷是否Shard集群

admin> db.runCommand({ isdbgrid : 1})

列出所有分片信息

admin> db.runCommand({ listshards : 1})

列出開啟分片的數據庫

admin> use config
config> db.databases.find( { "partitioned": true } )
config> db.databases.find() //列出所有數據庫分片情況

查看分片的片鍵

config> db.collections.find()
{
    "_id" : "test.vast",
    "lastmodEpoch" : ObjectId("58a599f19c898bbfb818b63c"),
    "lastmod" : ISODate("1970-02-19T1747.296Z"),
    "dropped" : false,
    "key" : {
        "id" : 1
    },
    "unique" : false
}

查看分片的詳細信息

admin> db.printShardingStatus()
或
admin> sh.status()
刪除分片節點

sh.getBalancerState()
mongos> db.runCommand( { removeShard: "shard2" } )

2.6 balance操作

查看mongo集群是否開啟了 balance 狀態

mongos> sh.getBalancerState()
true

當然你也可以通過在路由節點mongos上執行sh.status() 查看balance狀態。

如果balance開啟,查看是否正在有數據的遷移

連接mongo集群的路由節點

mongos> sh.isBalancerRunning()
false

2.6.1 設置balance 窗口

(1)連接mongo集群的路由節點

(2)切換到配置節點

     use config

(3)確定balance 開啟中

     sh.getBalancerState()

如果未開啟,執行命令

   sh.setBalancerState( true )

(4)修改balance 窗口的時間

db.settings.update(
   { _id: "balancer" },
   { $set: { activeWindow : { start : "", stop : "" } } },
   { upsert: true }
)

eg:
db.settings.update({ _id : "balancer" }, { $set : { activeWindow : { sta

rt : "00:00", stop : "5:00" } } }, true )

當你設置了activeWindow,就不能用sh.startBalancer() 啟動balance

NOTE

The balancer window must be sufficient to complete the migration of all data inserted during the day.

As data insert rates can change based on activity and usage patterns, it is important to ensure that the balancing window you select will be sufficient to support the needs of your deployment.

(5)刪除balance 窗口


use config
db.settings.update({ _id : "balancer" }, { $unset : { activeWindow : true } })

2.6.2 關閉balance

默認balance 的運行可以在任何時間,只遷移需要遷移的chunk,如果要關閉balance運行,停止一段時間可以用下列方法:

(1) 連接到路由mongos節點

(2) 停止balance

      sh.stopBalancer()

(3) 查看balance狀態

  sh.getBalancerState()

(4)停止balance 后,沒有遷移進程正在遷移,可以執行下列命令


use config
while( sh.isBalancerRunning() ) {
          print("waiting...");
          sleep(1000);
}

2.6.3 重新打開balance

如果你關閉了balance,準備重新打開balance

(1) 連接到路由mongos節點

(2) 打開balance

        sh.setBalancerState(true)

如果驅動沒有命令 sh.startBalancer(),可以用下列命令


use config
db.settings.update( { _id: "balancer" }, { $set : { stopped: false } } , { upsert: true } )

2.6.4 關于集合的balance

關閉某個集合的balance

sh.disableBalancing("students.grades")

打開某個集合的balance

sh.enableBalancing("students.grades")

確定某個集合的balance是開啟或者關閉

db.getSiblingDB("config").collections.findOne({_id : "students.grades"}).noBalance;
2.6.5 問題解決

mongodb在做自動分片平衡的時候,或引起數據庫響應的緩慢,可以通過禁用自動平衡以及設置自動平衡進行的時間來解決這一問題。

(1)禁用分片的自動平衡


// connect to mongos
> use config
> db.settings.update( { _id: "balancer" }, { $set : { stopped: true } } , true );

(2)自定義 自動平衡進行的時間段


// connect to mongos
> use config
> db.settings.update({ _id : "balancer" }, { $set : { activeWindow : { start : "21:00", stop : "9:00" } } }, true )

審核編輯:黃飛

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    12

    文章

    8295

    瀏覽量

    83215
  • mongodb
    +關注

    關注

    0

    文章

    22

    瀏覽量

    347

原文標題:MongoDB分片(Sharding)技術

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    MySQL和MongoDB的對比

    IT技術社區)概要 關系型數據庫已經成為企業應用程序的基礎,自從MySQL在1995年發布以來,它已經成為種受歡迎并且廉價的選擇。然而隨著近年來數據量和數據的不斷激增,非關系數據庫技術Mo
    發表于 08-28 14:51

    MongoDB 4.0 RC 版本強勢登陸

    MongoDB 4.2 版本,還會支持分片集群的分布式事務。MongoDB 的事務接口非常簡單,開發者只需要將「需要保證原子性的更新序列」放到個 session 的 開始事務 與
    發表于 06-11 19:42

     華為云MongoDB彈性伸縮能力提升100倍

    (云原生)的文檔數據庫服務DDS,不但完全兼容MongoDB協議,而且提供鍵部署,彈性擴容,容災,備份,恢復,監控等服務能力。目前,DDS支持分片集群(Sharding)、副本
    發表于 08-03 13:00

    科普分片技術

    科普:分片技術1. 為什么需要 Sharding現在感覺整個世界最熱的詞就是區塊鏈了,各大公司各個行業急吼吼的布局區塊鏈技術忙得不亦樂乎,但是讓我們看
    發表于 01-04 17:50

    MongoDB分片集群概念

    MongoDB分片集群(Sharding
    發表于 09-19 06:25

    Sharding-hqC的詳細功能和主要實現

    輕量級數據庫中間件Sharding-hqC源碼分析SQL 解析之更新SQL
    發表于 11-01 09:14

    MongoDB的安裝教程

    MongoDB安裝教程
    發表于 05-29 15:06

    初識sharding技術

    什么是sharding,sharding到底能為你的數據庫應用帶來哪些好處。另外最重要的,如何實現一個sharding系統,有哪些sharding算法可供選擇。本文將為你解決這些問題。
    發表于 02-15 14:31 ?5636次閱讀
    初識<b class='flag-5'>sharding</b><b class='flag-5'>技術</b>

    IP的分片與重裝

    TCP-IP詳解卷2 IP的分片與重裝,學習TCP很好的資料。歡迎下載。
    發表于 05-09 14:33 ?0次下載

    Zilliqa推區塊鏈分片技術與Visa互別苗頭

    2017年加密貨幣市場迅速成長,區塊鏈技術也成為各界熱烈討論的焦點議題,目前各區塊鏈交易平臺面臨的最大的根本問題是規模,新加坡科技公司Zilliqa開發出分片(sharding)的技術
    發表于 02-05 12:56 ?6291次閱讀

    冷熱數據的MongoDB自動分片

    MongoDB數據庫中的自動分片(Auto-Sharding)機制僅通過數據量來進行分片遷移,會導致負載不均衡的問題。為此,提出一種基于數據冷熱訪問特征的Auoto-
    發表于 02-09 10:54 ?0次下載
    冷熱數據的<b class='flag-5'>MongoDB</b>自動<b class='flag-5'>分片</b>

    什么是分片Sharding

    分片Sharding)是一種創新方法,可以幫助區塊鏈擴展和處理交易。 Emotiq正在建立一個基于分片的區塊鏈,旨在擴展到每秒一百萬次交易。 要理解分片,我們需要了解工作量證明
    發表于 04-08 11:20 ?5004次閱讀

    如何使用區塊鏈分片來進行區塊鏈擴容

    區塊鏈分片(Blockchain Sharding)是為區塊鏈進行擴容的一種重要技術,以通過改變網絡驗證的方式,增加吞吐量。這是區塊鏈技術走向商業化實踐必須要解決的問題之一。
    發表于 11-27 10:36 ?1926次閱讀

    mongoDb入門并整合springboot

    ? 鏡像下載、域名解析、時間同步請點擊 阿里巴巴開源鏡像站 ? MongoDb簡介 MongoDb是一種非關系型數據庫,是現在非?;馃岬膎oSQL。也被稱為文檔性數據庫。(可存放json,xml
    發表于 12-07 10:51 ?345次閱讀

    PetaExpress云數據庫 MongoDB(mongodb數據庫)優勢

    MongoDB的數據模型是針對文檔的。所謂文檔是一種類似JSON的結構??梢院唵卫斫?,MongoDB存儲在數據庫中的各種JSON,在MongoDB中稱為“BSON”。 PetaExpress云數據庫
    的頭像 發表于 07-14 10:06 ?372次閱讀
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>