Tính Toán Hệ Thống Điều Hòa Water Chiller

Phần kiến thức về Water Chiller tương đối mới và không rõ ràng trong nhiều bài viết, tôi thấy bài viết này tương đối cụ thể về các nội dung để các bạn tham khảo thêm.

Giới thiệu Hệ Thống ĐH Trung Tâm Chiller

A. Tổng Quan: 
  • Dựa vào một ít tìm hiểu về ngành lạnh. Và mình muốn giúp cho các bạn không phải trong ngành lạnh có cái nhìn đơn giản hơn về hệ thống Điều Hòa Chiller tòa nhà (nhất là dân kỹ thuật điện, bảo trì cơ điện tòa nhà).
  • Hệ thống điều hòa trung tâm Water chiller là sự kết hợp một cách khoa học có tính toán hoạt động nhịp nhàng của các thành phần trong hệ thống, mà phần đảm nhiệm chính lại là các kỹ sư ngành tự động có tìm hiểu về lạnh.
  • Ở Việt Nam do tài liệu còn hạn chế trong khi đa số cái tài liệu về ĐH Chiller lại bằng Tiếng Anh. Mà dân kỹ thuật phần nhiều lại ít có duyên với ngoại ngữ, bởi vậy mà hệ thống điều khiển và điều hòa trung tâm chiller vẫn ít có cơ hội tiếp xúc với đa sô dân ngành kỹ thuật lạnh.
  • Cuối cùng, mình viết theo phong cách “hiểu sao nói vậy”, như vậy sẻ đơn giản dẻ hiểu hơn cho ngưới đọc là cứ đánh văn bản từ trong sách ra.
B. Mô Tả Hệ Thống:
Hệ thống cơ bản gồm 5 phần cơ bản:
1. Cụm trung tâm nước water Chiller.
2. Hệ Thống đường ống nước lạnh và bơm nước lạnh.
3. Hệ Thống tải sử dụng Trực Tiếp: AHU, FCU, PAU, PHE .v.v.
4. Hệ Thống tải sử dụng Gián Tiếp: Hệ Thống đường ống gió thổi qua phòng cần điều hòa, Các van điều chỉnh ống gió, miệng gió: VAV, Damper.v.v.
5. Hệ Thống Bơm và tuần hoàn nước qua Cooling Tower (nếu có) đối với chiller giải nhiệt nước.
1. Mô hình hệ thống hoạt động như sau:
Có 4 Vòng Tuần Hoàn cho hệ thống như sau:
  • Vòng tuần hoàn màu đỏ: Là vòng tuần hoàn nước nóng bơm vào cooling tower thảy nhiệt này ra môi trường.
  • Vòng tuần hoàn màu xanh: Là vòng tuần hoàn gas lạnh trong cụm water chiller.
  • Vòng tuần hoàn màu tím nhạt: Là vòng tuần hoàn nước lạnh được bơm đến AHU, FCU, PAU, PHE .v.v.
  • Vòng tuần hoàn màu vàng: Là vòng tuần hoàn của hệ thống ống gió thổi vào phòng được điều hòa.
2. Mô hình hệ thống thực tế như sau:
3. Các Thiết Bị Trong Hệ Thống:
A. Cụm Water cooled chiller : 
  • Là trung tâm của hệ thống, Tiêu thụ điện năng lớn nhất, giá thành cao nhất so với thiết bị khác.
  • Được sản xuất hàng loạt công nghiệp theo những công suất định sẳn tại các nước có nền công nghệ cao, từ đó phân phối riêng lẻ ra theo các công trình tòa nhà lớn nước ngoài.
  • Việc chọn lựa và hàm lượng tính toán đơn giản so với các thành phần còn lại của hệ thống. Được chọn theo năng suất lạnh yêu cầu (lấy đơn giản 15m2 bằng 1 tons loại điều hòa thường). Loại máy nén gas, loại Gas, Hiệu suất làm việc (cấp giảm tải, chạy biến tần.v.v.). Hoặc một số yêu cầu kèm theo: gắn bơm nhiệt, chất tải lạnh glycol .v.v.
  • Các thương hiệu hàng đầu thế giới: Trane, Carrier, York, Mc Quay, Hitachi,Climaveneta, Dunham – bush.v.v.
B. Hệ thống bơm và đường ống nước lạnh : 
    Bơm Nước: 
  • chịu trách nhiệm bơm nước lạnh qua Chiller đến tải sử dụng trực tiếp (Nước lạnh sinh hoạt trao đổi qua tấm PHE, AHU, FCU, PAU.v.v.). Hiệu suất cao hơn nếu mổi chiller có riêng một bơm cho mình, bơm là loại bơm dùng cho nhà cao tầng có độ ồn nhỏ, cột áp không cao lắm (vì cân bằng tuần hoàn kín giữa cột áp đi và cột áp về).
  • Lưu lượng nước từ bơm qua chiller luôn phải được giử ổn định, không tăng hay giảm công suất lưu lượng bơm bằng biến tần nếu không có sự kết hợp có khoa học của hệ thống.
  • Chọn công suất bơm: dựa vào cột áp nước và lưu lượng nước (lưu lượng có sẳn theo thông số Chiller đã chọn). Việc Tính Toán cột áp Bơm nước có phần phức tạp do các thông số toán nhiều (lưu lượng nước, độ dài đường ống, độ cao, sụt áp qua co, cút, Tê, AHU, FCU, PAU .v.v.). Mặt dù có tính toán bằng tay để làm thuyết minh dự thầu, nhưng đa số vẫn dựa vào phần mềm phân tích tính toán để đưa ra kết quả tốt nhất.
     Đường Ống: 
  • Thường là ống thép đen được bọc cách nhiệt với đường nước lạnh. Ống thép đen hay ống đồng với đường ống nước nóng dẩn ra cooling tower. Hiện nay người ta bắt đầu thiết kế sang ống nhựa PPR cho hệ thống chiller, một số công trình dùng ống loại này hiện đang sử dụng rất tốt.
  • Việc lựa chọn kích thước đường ống dựa vào lưu lượng  mà nó chuyên chở: Đường ống nhỏ quá dẩn đến tổn thất áp suất nước lớn đồng thời đường ống phải chịu áp suất cao hơn khi làm việc. Đường ống quá lớn dẩn đến tăng giá thành do thi công và giá đường ống.
  • Tùy theo lưu lượng mà ta chọn kích thước đường ống, tra theo catalog nhà sản xuất.
C. Hệ Thống AHU (Air handling unit), FCU (Fan Coil Unit), PAU (Primary Air Unit) hay MAU (Make Up Air):
AHU, FCU, PAU bản chất giống nhau nhưng khác mục đích sử dụng.
 — AHU: là bộ xử lý nhiệt ẩm hệ thống ống gió trung tâm và chia ra làm nhiều ống gió phụ đi vào không gian điều hòa. Như vậy một AHU có thể có nhiều lớp lọc bụi, nhiều dàn coil ống đồng (nước nóng hoặc lạnh) theo điều kiện xử lý yêu cầu và dùng cho một không gian lớn.
 — FCU: thì dùng cho nhiều phòng nhỏ hay khu vực nhỏ nơi mà hệ thống ống gió của AHU không thể tới được, hay với yêu cầu một vài phòng nằm trong khu vực với yêu cầu nhiệt độ và độ ẩm khác với AHU đang lắp sử dụng. FCU không xử lí nhiệt ẩm tốt bằng AHU (do kích thước sản xuất hạn chế). Nên với yêu cầu đòi hỏi cao ta bắt buột sử dụng thêm bộ xử lý PAU (lọc, làm lạnh,gia nhiệt, tách ẩm hay tạo ẩm) được lắp bên ngoài và nối ống gió cho nhiều FCU bên trong.
 — PAU: Luôn cấp gió khô hơn không khí trong không gian điều hòa. Khô ở đây nói đến độ chứa hơi ( hay độ khô), không phải độ ẩm tương đối ( vì gió sao khi ra coil FCU thì có độ ẩm tương đối cao 85~95%).Luôn cấp gió nhiệt độ càng thấp ( >9 nếu dùng VAV, > 11 nếu dùng CAV) khi có thể, khi này sẽ giảm được size của FCU hay Indoor Unit.
  ** Mô Hình AHU: Tùy theo nhà sản xuất mà AHU có cấu trúc khác nhau
  • Là thiết bị trao đổi nhiệt trung gian giữa nước lạnh hoặc nước nóng với không khí cần được điều hòa.
  • Đây là thiết bị có yêu cầu hàm lượng tính toán và đặt chế riêng biệt như: sản xuất theo đặt hàng các thông số: lưu lượng gió, nhiệt độ, độ ẩm trước và sau yêu cầu của phòng điều hòa.
  • Hệ thống tủ điều khiển, kết nối được làm riêng tại các công ty gia công cơ điện lạnh. Hay nói cách khác là sự kết hợp của 2 hay một công ty chuyên về sản xuất gia công AHU và chuyên về thiết kế, thi công điều khiển lạnh tòa nhà.
  • Để giảm lại một số quy trình tính toán và hệ thống điều khiển, nhà cung cấp AHU đã cho ra một số phần mềm tính chọn riêng cho hảng của họ. Bởi vậy khi đả có đủ các thông số yêu cầu, ta chỉ cần mở phần mềm để tra và chọn loại AHU phù hợp nhất cho hệ thống. Họ cung cấp luôn giải pháp điều khiển và kết nối, nhận tín hiệu từ máy tính trung tâm (BMS của tòa nhà).
  ** Đường ống Nước Lạnh Vào AHU: Do không phải lúc nào các coil AHU cũng hoạt động đầy tải mà do quá trình thiết kế luôn dự trử công suất lạnh với mức cao nhất. Điều này dẩn tới các tải luôn hoạt động ở chế độ non tải, và các phương pháp tăng hiệu quả khi chạy ở chế độ non tải ra đời đang dần được cải tiến. Các giải pháp theo bác herot trên HVAC như sau:
  • Van 2 Ngả (two way valve control).
  • Van 3  Ngả (three way valve control).
  • Face and bypass damper control.
  • Primary-Secondary (Hệ thống 2 vòng nước ).
  • Variable Primary Flow (VPF)( Hệ thống lưu lượng thay đổi với đoạn ống by pass).
1.Van 3 Ngả (three way valve control): Lưu lượng nước liên tục. Tổn hao áp lực nước qua hệ thống lớn, dẩn đến hao điện máy bơm nước. Việc hòa trộn nước hồi và nước lạnh cấp không tốt như mong muốn.
2. Van 2 Ngả và bypass (two way valve control and bybass): Thay đổi lưu lượng nước cấp, áp lực được giải phóng qua van bypass do đó sụp áp đặt trên bơm cũng nhẹ đi và tiết kiệm điện máy bơm.
3. Face and bypass damper control (Bề mặt cửa gió dạng Bypass):
 – Nhờ qua hệ thống cửa gió điều chỉnh được, giúp cho một lượng gió thổi qua bypass damper khi chạy non tải.
 – Vừa tiết kiệm được ống bybass, mà sụt áp nước ít nên tiết kiệm điện cho máy bơm, nhưng giá thành và điều khiển loại này đắc hơn 2 loại trên.

4. Primary-Secondary (Hệ thống 2 vòng nước):

 – Như các bạn thấy thì hệ này được chia thành 2 vòng nước, vòng sơ cấp – Primary chỉ dùng để cung cấp nước đi qua cụm Chiller nên thường chỉ cần những bơm với cột áp nhỏ. Cụm Sơ cấp này bắt buộc phải là Bơm với tốc độ cố định vì khi này công nghệ sản xuất Chiller chưa cho phép lưu lượng nước qua Chiller thay đổi được, lưu lượng này bắt buộc phải là Hằng số, nếu lưu lượng thay đổi thì hệ thống lập tức ngắt Chiller và Báo lỗi Hệ thống.
– Vòng nước Thứ cấp-Secondary với mục đích là phân phối nước lạnh vào công trình, đến tải tiêu thụ… thì sử dụng các Bơm Biến Tần có khả năng thay đổi giảm vô cấp được vận tốc Bơm==> chính là giảm Điện năng Tiêu thụ.
 – Khi này hệ thống phải có Đường Bypass để duy trì lưu lượng nước qua Chiller là cố định, lưu ý là Ống Bypass này không có van nào chặn cả (may ra có thể gắn được Van 1 chiều để chặn nước từ đầu hút của bơm Pri dồn qua đầu hút của Bơm Secondary).
– hệ thống này đã có khả năng tiết kiệm năng lượng cho hệ thống Bơm tuần hoàn khi dùng Biến tần ở đây, nhưng chúng ta phải thêm cả một hệ thống bơm khác, kèm theo đó là tiêu tốn biết bao nhiêu chi phí phụ kiện kèm theo nó.

5. Variable Primary Flow VPF ( Hệ thống lưu lượng thay đổi với đoạn ống by pass):

– Khi này chỉ còn một hệ Bơm duy nhất đi qua Evaporator của Chiller với các Bơm dùng Biến tần điều khiển.

– Khi giảm tải thì Chiller cùng Bơm nước đều có khả năng giảm tải, khi này phải dùng một đường ống Bypass với van điều chỉnh trên đó (nhìn sơ qua thì cứ tưởng giống hệt như Hệ thống thứ 2 đã nói ở trên nhưng thực tình thì nguyên lý khác hoàn toàn). Van Bypass này với mục đích để duy trì lượng nước qua Chller không được thấp hơn một giá trị Minimum mà Chiller đã có.

– Khi này các dàn Coil cũng phải sử dụng hệ thống Van 2 ngả để có thể dùng cảm biến Delta P (cảm biến hiệu áp suất) điều khiển các Bơm.

– Việc tính toán đường ống Bypass này phải đáp ứng được lưu lượng nhỏ nhất của Chiller lớn nhất trong hệ thống, thông thường khi chọn lựa một Chiller thì nhà sản xuất sẽ phải cung cấp cho bạn giá trị Minimum này.

– Theo nghiên cứu của tổ chức ASHRAE thì hệ thống VPF này có khả năng:

1. Giảm năng lượng tiêu tốn trên toàn hệ thống đến 3% mỗi năm

2. Giảm chi phí đầu tư khoang 4-8% do giảm được số lượng bơm so với hệ số 3, và tiết kiệm không gian, Co, Tee, Fitting kèm theo nó.

3. Giảm chi phí vòng đời, bảo trì khoảng 3-5%

4. Giảm năng lượng cho hệ Bơm nước lạnh từ 25-50%

5. Giảm năng lượng Chiller đến 13%

– Những thông số trên đây đều có cơ sở để chứng minh với những tính năng của hệ thống VPF sẽ tóm lược sau đây: có khả năng kéo dãn dải công suất Chiller ép phải hoạt động ở chế độ đầy tải với hiệu suất cao nhất, giảm số lần đóng mở hệ Chiller làm tăng tuổi thọ, tăng độ tin cậy…

D. Hệ Thống Ống Gió: 

  • Hòa trộn gió tươi và gió hồi, lượng gió hòa trộn này sẻ được đưa vào AHU hay FCU để xử lý theo yêu cầu về nhiệt độ, độ ẩm của không gian điều hòa.
  • Có nhiều phương pháp tính toán ống gió. Nhưng phương pháp sử dụng phổ biến là phương pháp ma sát đồng điều.
  • Tính toán không quá mấy phức tạp do dể dàng trong lựa chọn số lượng miệng gió và kích thước từng đoạn nhánh. thông số chủ yếu là lưu lượng gió và độ ồn yêu cầu điều dể dàng tra ra được. Mà điều khó khăn nhất là thể hiện trên bản vẻ 2D hoặc 3D để ra thông số chính xác nhất cho nhà đầu tư.
  • Ngoài ra còn có hệ thống ống gió khác như ống gió hồi, ống gió thải, ống gió tăng áp cầu thang .v.v.

E. Hệ thống kết nối điều khiển Chiller: Tài liệu điều khiển AHU.

  • Từng phần thiết bị: Chiller, AHU, FCU, PAU, Van 2 – 3 Ngả.v.v. điều hoạt động độc lập bởi bộ điều khiển DDC. Và DDC có thể nhận tín hiệu từ cảm biến (cảm biến nhiệt độ, độ ẩm, lưu lượng gió và nước, nồng độ CO2.v.v.), được lập trình điều khiển sẳn bằng máy tính và có tích hợp cổng truyền thông.
  • DDC có kết nối với hệ thống máy tính chủ qua các chuẩn giao tiếp (cổng giao tiếp truyền thông RS232, RS485.v.v.) kết nối được với nhau.
  • Qua đó máy tính chủ có thể nhận biết các hệ thống nào đang hoạt động và tình trạng hoạt động. Do máy tính có thêm chức năng phân quyền điều khiển mà máy tính chủ có thể tác động can thiệp vào dữ liệu đã được lập trình sẳn trên DDC để điều khiển thiết bị đó theo nhu cầu của người quản lý của máy tính chủ.
  • Việc lập trình, điều khiển và đảm bảo các thiết bị có thể giao tiếp được với nhau (bởi tính hiệu số đòi hỏi các thiết bị phải có chung một chuẩn giao tiếp như giao tiếp như HTML, Lon Works, BAC Net, OPC, AdvanceDDE, modbus, ODBC.v.v) để kết nối với máy tính với phần mềm BMS viết riêng cho công trình tòa nhà. Đa số là do một công ty điều khiển và sử dụng một dòng hàng điều khiển chuyên dùng riêng của hảng (VD: thiết bị delta.v.v.).
PHẦN TÍNH TOÁN NÀY ————————————————–
A. Giới Thiệu: Dựa Theo sách “tính toán thiết kế hệ thống lạnh” của thầy Lợi, chúng ta dể dàng tính và suy ra công suất lạnh tổng của từng phòng, vì nội dung tính toán rất dài và phức tạp không thể trình bài hết ở trang viết. Sau đó đưa ra phương án chọn hệ thống lạnh theo yêu cầu tốt nhất.

1. Tính Toán Về Năng suất lạnh và chọn Chiller.

2. Tính Toán bơm và đường ống nước (nước nóng cho cooling tower và lạnh cho AHU).

3. Tính Toán chọn AHU, FCU, PAU.
4. Tính Toán hệ thống ống gió.
5. .v.v.
 
B. Tính Toán: 
1. Tính toán công suất lạnh (năng suất lạnh) cho từng khu vực: Tính tổn thất nhiệt làm lạnh trong một giờ. Tính lượng nhiệt hiện và nhiệt ẩn.
a. Tổn thấp nhiệt qua kết cấu bao che (6 mặt tường, kính hay gỗ từ cửa sổ và cửa ra vào).
b. Tổn thất nhiệt bên trong kết cấu bao che ( người, thiết bị có sẳn, thiết bị sinh nhiệt).
c. Tổn thất nhiệt khác (thông gió, gió thải, gió tươi.v.v.).
d. Tính tổng công suất lạnh cho cả tòa nhà hay khu vực để chọn loại máy lạnh phù hợp.
2. Phương Pháp Chọn bơm Nước: theo lưu lượng và cột áp.
a. tính toán chọn theo kinh nghiệm.
b. tính toán chọn theo công thức.
c. Tính toán chọn theo phần mềm:
d. Bảng tra theo lưu lượng và suy ra kích thước đường ống.
 
3. Tính các thông số cho AHU. FCU, PAU:
a. Đầy đủ các thông số : Công suất lạnh, nhiệt độ, độ ẩm khu vực và phòng điều hòa, lưu lượng gió cần thiết
b. Liên hệ nhà sản xuất (số lượng coil ống đồng, chọn quạt ly tâm, kích thước và lắp đặt trong tòa nhà).
c. Làm tủ điều khiển cho AHU, FCU, PAU (phương thức điều khiển, độc lập và kết nối vào hệ BMS kiểm soát tòa nhà).
4. Tính toán hệ thống kích thước ống gió: độ ồn, phương thức thi công, vị trí lắp đặt ống chính và ống phụ, miệng gió, bảo ôn.
a. Lấy các thông số yêu cầu cho từng phòng: lưu lượng gió, độ ồn yêu cầu, số lượng miệng gió.
b. Đưa ra phương thức thi công: vị trí đã lắp AHU, FCU, PAU suy ra ống gió chính và từng ống gió phụ. Vẽ hệ thống ống gió (bằng phần mềm Revit MEP).
c. Tính toán theo phương pháp. Và suy ra kích thước từng đoạn ống gió.
5. Cân bằng tính lại tất cả các thiết bị theo chiều ngược: khi đã chọn hết AHU, FCU, PAU.v.v.
a. Tính công suất lạnh tổng và lưu lượng nước lạnh để chọn lại Chiller một lần nữa.
b. Chọn loại chiller theo hiệu suất sử dụng và giá thành đầu tư.
 
6. Lắp các tủ điều khiển và kết nối:
a. Vị trí điều khiển trung tâm.
b. Các phương thức kết nối và giao tiếp điều khiển. 
c. Kiểm tra hoạt động từng phần và toàn bộ hệ thống.
d. Cài đặt chạy các phần mềm điều khiển và nhận tín hiệu
 
7. Bóc tách khối lượng và Tính giá thành chọn cho từng phần.
 

TS IT Rack Training Video

This video presentation provides you with a comprehensive overview of the TS IT Rack – the new industry standard in data centre rack technology. A fusion of rack and accessories it provides flexibility in design of rack architecture with fast assembly and tool free installation. Gain an understanding of TS IT features and benefits, TS IT varieties, fitting accessories, mounting power distribution units or PSM busbars and cable management.

Hướng dẫn chọn dây dẫn, thanh cái theo tiêu chuẩn IEC 60439

Lựa chọn tiết diện dây điện, cáp điện, thanh cái (busbar) là công việc quan trọng và thường xuyên đối với ngành điện. Mỗi người có một cách chọn khác nhau. Thông thường xảy ra 2 trường hợp :

  • Chọn dây, cáp điện, thanh cái theo tính toán
  • Chọn dây, cáp điện, thanh cái theo kinh nghiệm
  • Chọn dây, cáp điện, thanh cái theo các tiêu chuẩn

Chọn dây điện, cáp điện, thanh cái theo các tiêu chuẩn thường được dùng rất nhiều. Tại sao vậy? Vì các tiêu chuẩn đó được đưa ra dựa vào tính toán kết hợp với kinh nghiệm. Việc chọn theo các tiêu chuẩn còn giúp cho việc thiết kế, thi công công trình hợp các tiêu chuẩn đã có sẵn.

Theo tiêu chuẩn IEC 60439. Dòng điện và tiết diện dây dẫn đến 400A được chọn trong các bảng 8 IEC60439-1

Range of rated current 1) Conductor cross-sectional area 2), 3)
A mm² AWG/MCM
0 8 1,0 18
8 12 1,5 16
12 15 2,5 14
15 20 2,5 12
20 25 4,0 10
25 32 6,0 10
32 50 10 8
50 65 16 6
65 85 25 4
85 100 35 3
100 115 35 2
115 130 50 1
130 150 50 0
150 175 70 00
175 200 95 000
200 225 95 0000
225 250 120 250
250 275 150 300
275 300 185 350
300 350 185 400
350 400 240 500
1) 2) 3) The value of the rated current shall be greater than the first value in the first column and less than or equal to the second value in that column. For convenience of testing and with the manufacturer’s consent, smaller conductors than those given for a stated rated current may be used. Either of the two conductors specified for a given rated current range may be used.

Dòng điện và tiết diện dây dẫn, thanh cái từ 400A đến 3150A được chọn trong bảng 9 IEC 60439-1.

Test conductors
Values of the rated current A Range of rated current 1) A
Cables Copper bars 2)
Quantity Cross sectional area 3) mm2 Quantity Dimensions 3) mm
500 400 to 500 2 150(16) 2 30 × 5(15)
630 500 to 630 2 185(18) 2 40 × 5(15)
800 630 to 800 2 240(21) 2 50 × 5(17)
1 000 800 to 1000 2 60 × 5(19)
1 250 1 000 to 1250 2 80 × 5(20)
1 600 1 250 to 1600 2 100 × 5(23)
2 000 1 600 to 2000 3 100 × 5(20)
2 500 2 000 to 2500 4 100 × 5(21)
3 150 2 500 to 3150 3 100 × 10(23)
1) The value of the current shall be greater than the first value and less than or equal to the second value.
2) Bars are assumed to be arranged with their long faces vertical. Arrangements with long faces horizontal may be used if specified by the manufacturer.
3) Values in brackets are estimated temperature rises (in kelvins) of the test conductors given for reference.

Lựa chọn tiết diện dây PE theo điều kiện sau đây (Trong bảng S là tiết diện dây pha)

Cross-sectional area of phase conductors S Minimum cross-sectional area of the corresponding protective conductor (PE, PEN) Sp
mm2 mm2
S ≤ 16 S
16 < S ≤ 35 16
35 < S ≤ 400 S/2
400 < S ≤ 800 200
800 < S S/4

Một điều quan trọng cần lưu ý là việc lựa chọn thanh cái dùng cho tủ điện lại phụ thuộc vào kích thước đầu cực của MCCB. Khi lựa chọn busbar ta thường chọn bề rộng bằng với đầu cực MCCB còn độ dày thì chọn sao cho đạt chuẩn trong các bảng tra. Độ rộng đầu cực MCCB thường như sau :

  • Framesize 63, 100A : 17mm
  • Framesize 200A : 22.5mm
  • Framesize 400A : 30mm
  • Framesize 800A : 41mm
  • Framesize 1200A : 44mm

source : http://dien-congnghiep.com/ho-tro-ky-thuat/566-huong-dan-chon-day-dan-thanh-cai-tu-dien-theo-tieu-chuan-iec-60439.html

10 stupid things people do in their Data Centers

Small missteps can turn into huge problems in the data center — and that can mean big trouble for your organization (and for you).

We’ve all done it — made that stupid mistake and hoped nobody saw it, prayed that it wouldn’t have an adverse effect on the systems or the network. And it’s usually okay, so long as the mistake didn’t happen in the data center. It’s one thing to let your inner knucklehead come out around end user desktop machines. But when you’re in the server room, that knucklehead needs to be kept in check. Whether you’re setting up the data center or managing it, you must always use the utmost caution.

Well, you know what they say about the best laid plans… Eventually you will slip up. But knowing about some of the more common mistakes can help you avoid them.

1: Cable gaffes

You know the old adage — measure twice, cut once. How many times have you visited a data center to see cables everywhere? On the floor, hanging down from drop ceilings, looped over server racks and over desks. This should simply not happen. Cable layout should be given the care it needs. Not only is it a safety hazard, it is also a disaster waiting to happen. Someone gets tangled up and goes down — you run the risk of a law suit AND data loss, all because someone was too lazy to measure cable runs or take the time to zip tie some Cat5.

2: Drink disasters

I know, this might seem crazy, but I’ve witnessed it first hand too many times. Admins (or other IT staff) enter the data center, drink in hand, and spill that drink onto (or into) a piece of equipment. In a split second, that equipment goes from life to death with no chance for you to save it. Every data center should have a highly visible sign that says, “No drink or food allowed. Period.” This policy must be enforced with zero tolerance or exception. Even covered drinks should be banned.

3: Electricity failures

This applies to nearly any electricity problem: accidentally shutting off power, lack of battery backups, no generator, pulling too much power from a single source. Electricity in the data center is your only means of life. Without it, your data center is nothing. At the same time, electricity is your worst enemy. If you do not design your electrical needs in such a way as to prevent failures, your data center begins its life at a disadvantage. Make sure all circuit breakers (and any other switch that could cause an accidental power loss) have covers and that your fire alarms and cutoff switches are not located where they might tempt pranksters.

4: Security blunders

How many keys to your data center have you given out? Do you have a spreadsheet with every name associated with every key? If not, why? If you aren’t keeping track of who has access to the data center, you might as well open up the door and say, “Come steal my data!” And what about that time you propped the exit door open so you could carry in all of those blades and cable? How much time was that open door left unattended? Or what about when you gave out the security code to the intern or the delivery man to make your job easier…. See where this is going?

5: Pigpen foibles

When you step into data center, what is your first impression? Would you bring the CEO of the company into that data center and say, “This is the empire your money has paid for?” Or would you need a day’s notice before letting the chairman of the board lay eyes on your work?

6: Documentation dereliction

How exactly did you map out that network? What are the domain credentials and which server does what? If you’re about to head out for vacation, and you’ve neglected to document your data center, your second in command might have a bit of drama on his or her hands. Or worse, even you’ve forgotten the domain admin credentials. I know, I know — fat chance.  But there’s this guy named Murphy. He has this law. You know how it goes. If you’re not documenting your data center, eventually the fates will decide it’s time to deal you a dirty hand and you will have a tangled mess to sift through.

7: Desktop fun

How many times have you caught yourself or IT staff using one of the machines in the data center as a desktop? Unless that machine is a Linux or Mac desktop, one time is all it takes to send something like the sexy.exe virus running rampant through your data center. Yes, an end user can do the same thing. But why risk having that problem originate in the heart of your network topology? Sure, it’d be cool to host a LAN party in your data center and invite all your buds for a round of CoD or WoW. Just don’t.

8: Forgotten commitments

When was the last time you actually visited your data center? Or did you just “set it and forget it”? Do you think that because you can remote into your data center everything is okay? Shame on you. That data center needs a regular visit. It doesn’t need to be an all-day tour. Just stop by to check batteries, temperature, cabling, etc. If you fail to give the data center the face time it needs, you could wind up with a disaster on your hands.

9: Tourist traps

You’re proud of your data center — so much so, you want to show it off to the outside world. So you bring in the press; you allow tours to walk through and take in its utter awesomeness. But then one of those tourists gets a bit too curious and down goes the network. You’ve spent hundreds of thousands of dollars on that data center (or maybe just tens of thousands — or even just thousands). You can’t risk the prying eyes and fingers of the public to gain access to the tenth wonder of the world.

10: Midnight massacre

Don’t deny it: You’ve spent all-nighters locked in your data center. Whether it was a server rebuild or a downed data network, you’ve sucked down enough caffeine that you’re absolutely sure you’re awake enough to do your job and do it right. Famous. Last. Words. If you’ve already spent nine or 10 hours at work, the last thing you need to do is spend another five or 10 trying to fix something. Most likely you’ll break more things than you fix. If you have third-shift staff members, let them take care of the problem. Or solve the issue in shifts. Don’t try to be a hero and lock yourself in the data center for “however long it takes.” Be smart.

Source from: http://www.techrepublic.com/blog/10-things/10-stupid-things-people-do-in-their-data-centers/

A Guide to Physical Security for Data Centers

July 26, 2012
A Guide to Physical Security for Data Centers

The aim of physical data center security is largely the same worldwide, barring any local regulatory restrictions: that is, to keep out the people you don’t want in your building, and if they do make it in, then identify them as soon as possible (ideally also keeping them contained to a section of the building). The old adage of network security specialists, that “security is like an onion” (it makes you cry!) because you need to have it in layers built up from the area you’re trying to protect, applies just as much for the physical security of a data center.

There are plenty of resources to guide you through the process of designing a highly secure data center that will focus on building a “gold standard” facility capable of hosting the most sensitive government data. For the majority of companies, however, this approach will be overkill and will end up costing millions to implement.

When looking at physical security for a new or existing data center, you first need to perform a basic risk assessment of the data and equipment that the facility will hold according to the usual impact-versus-likelihood scale (i.e., the impact of a breach of the data center versus the likelihood of that breach actually happening). This assessment should then serve as the basis of how far you go with the physical security. It is impossible to counter all potential threats you could face, and this is where identification of a breach, then containment, comes in. By the same token, you need to ask yourself if you are likely to face someone trying to blast their way in through the walls with explosives!

There are a few basic principles that I feel any data center build should follow, however:

  • Low-key appearance: Especially in a populated area, you don’t want to be advertising to everyone that you are running a data center. Avoid any signage that references “data center” and try to keep the exterior of the building as nondescript as possible so that it blends in with the other premises in the area.
  • Avoid windows: There shouldn’t be windows directly onto the data floor, and any glazing required should open onto common areas and offices. Use laminate glass where possible, but otherwise make sure windows are double-glazed and shatter resistant.
  • Limit entry points: Access to the building needs to be controlled. Having a single point of entry for visitors and contacts along with a loading bay for deliveries allows you to funnel all visitors through one location where they can be identified. Loading-bay access should be controlled from security or reception, ideally with the shutter motors completely powered down (so they can’t be opened manually either). Your security personnel should only open the doors when a pre-notified delivery is arriving (i.e., one where security has been informed of the time/date and the delivery is correctly labelled with any internal references). Of course all loading-bay activity should also be monitored by CCTV.
  • Anti-passback and man-traps: Tailgating (following someone through a door before it closes) is one of the main ways that an unauthorized visitor will gain access to your facility. By implementing man-traps that only allow one person through at a time, you force visitors to be identified before allowing access. And anti-passback means that if someone tailgates into a building, it’s much harder for them to leave.
  • Hinges on the inside: A common mistake when repurposing an older building is upgrading the locks on doors and windows but leaving the hinges on the outside of the building. This makes is really easy for someone to pop the pins out and just take the door off its hinges (negating the effect of that expensive lock you put on it!).
  • Plenty of cameras: CCTV cameras are a good deterrent for an opportunist and cover one of the main principles of security, which is identification (both of a security breach occurring and the perpetrator). At a minimum you should have full pan, tilt and zoom cameras on the perimeter of your building, along with fixed CCTV cameras covering building and data floor entrances/exits. All footage should be stored digitally and archived offsite, ideally in real time, so that you have a copy if the DVR is taken during a breach.
  • Make fire doors exit only (and install alarms on them): Fire doors are a requirement for health and safety, but you should make sure they only open outward and have active alarms at all times. Alarms need to sound if fire doors are opened at any time and should indicate, via the alarm panel, which door has been opened; it could just be someone going out for a cigarette, but it could also be someone trying to make a quick escape or loading up a van! On the subject of alarms, all doors need to have  alarms and be set to go off if they are left open for too long, and your system should be linked to your local police force, who can respond when certain conditions are met.
  • Door control: You need granular control over which visitors can access certain parts of your facility. The easiest way to do this is through proximity access card readers (lately, biometrics have become more common) on the doors; these readers should trigger a maglock to open. This way you can specify through the access control software which doors can be opened by any individual card. It also provides an auditable log of visitors trying to access those doors (ideally tied in with CCTV footage), and by using maglocks, there are no tumblers to lock pick, or numerical keypads to copy.
  • Parking lot entry control: Access to the facility compound, usually a parking lot, needs to be strictly controlled either with gated entry that can be opened remotely by your reception/security once the driver has been identified, or with retractable bollards. The idea of this measure is to not only prevent unauthorized visitors from just driving into your parking lot and having a look around, but also to prevent anyone from coming straight into the lot with the intention of ramming the building for access. You can also make effective use of landscaping to assist with security by having your building set back from the road, and by using a winding route into the parking lot, you can limit the speed of any vehicles. And large boulders make effective barriers while also looking nice!
  • Permanent security staff: Many facilities are manned with contract staff from a security company. These personnel are suitable for the majority of situations, but if you have particularly sensitive data or equipment, you will want to consider hiring your security staff permanently. A plus and minus of contract staff is that they can be changed on short notice (e.g., illness is the main cause of this). But it creates the opportunity for someone to impersonate your contracted security to gain access. You are also at more risk by having a security guard who doesn’t know your site and probably isn’t familiar with your processes.
  • Test, test and test again: No matter how simple or complex your security system, it will be useless if you don’t test it regularly (both systems and staff) to make sure it works as expected. You need to make sure alarms are working, CCTV cameras are functioning, door controls work, staff understands how visitors are identified and, most importantly, no one has access privileges that they shouldn’t have. It is common for a disgruntled employee who has been fired to still have access to a building, or for a visitor to leave with a proximity access card that is never canceled; you need to make sure your HR and security policies cover removing access as soon as possible. It’s only by regular testing and auditing of your security systems that any gaps will be identified before someone can take advantage of them.
  • Don’t forget the layers: Last, all security systems should be layered on each other. This ensures that anyone trying to access your “core” (in most cases the data floor) has passed through multiple checks and controls; the idea is that if one check fails, the next will work.

The general rule is that anyone entering the most secure part of the data center will have been authenticated at least four times:

1. At the outer door or parking entrance. Don’t forget you’ll need a way for visitors to contact the front desk.

2. At the inner door that separates the visitors from the general building staff. This will be where identification or biometrics are checked to issue a proximity card for building access.

3. At the entrance to the data floor. Usually, this is the layer that has the strongest “positive control,” meaning no tailgating is allowed through this check. Access should only be through a proximity access card and all access should be monitored by CCTV. So this will generally be one of the following:

  • A floor-to-ceiling turnstile. If someone tries to sneak in behind an authorized visitor, the door gently revolves in the reverse direction. (In case of a fire, the walls of the turnstile flatten to allow quick egress.)
  • A man-trap. Provides alternate access for equipment and for persons with disabilities. This consists of two separate doors with an airlock in between. Only one door can be opened at a time and authentication is needed for both doors.

4. At the door to an individual server cabinet. Racks should have lockable front and rear doors that use a three-digit combination lock as a minimum. This is a final check, once someone has access to the data floor, to ensure they only access authorized equipment.

The above isn’t an exhaustive list but should cover the basics of what you need to consider when building or retrofitting a data center. It’s also a useful checklist for auditing your colocation provider if you don’t run your own facility.

In the end, however, all physical security comes down to managing risks, along with the balance of “CIA” (confidentiality, integrity and access). It’s easy to create a highly secure building that is very confidential and has very high integrity of information stored within: you just encase the whole thing in a yard of concrete once it’s built! But this defeats the purpose of access, so you need a balance between the three to ensure that reasonable risks are mitigated and to work within your budget—everything comes down to how much money you have to spend.

About the Author

David Barker is technical director of 4D Data Centres. David (26) founded the company in 1999 at age 14. Since then he has masterminded 4D’s development into the full-fledged colocation and connectivity provider that it is today. As technical director, David is responsible for the ongoing strategic overview of 4D Data Centres’ IT and physical infrastructure. Working closely with the head of IT server administration and head of network infrastructure, David also leads any major technical change-management projects that the company undertakes.

About 10 “must haves” your data center needs to be successful.

The evolution of the data center may transform it into a very different environment thanks to the advent of new technologies such as cloud computing and virtualization. However, there will always be certain essential elements required by any data center to operate smoothly and successfully.  These elements will apply whether your data center is the size of a walk-in closet or an airplane hanger – or perhaps even on a floating barge, which rumors indicate Google is building:

Figure A

floatingbarge_google.jpg
 Credit: Wikimedia Commons

1. Environmental controls

A standardized and predictable environment is the cornerstone of any quality data center.  It’s not just about keeping things cool and maintaining appropriate humidity levels (according to Wikipedia, the recommended temperature range is 61-75 degrees Fahrenheit/16-24 degrees Celsius and 40-55% humidity). You also have to factor in fire suppression, air flow and power distribution.  One company I worked at was so serious about ensuring their data center remained as pristine as possible that it mandated no cardboard boxes could be stored in that room. The theory behind this was that cardboard particles could enter the airstream and potentially pollute the servers thanks to the distribution mechanism which brought cooler air to the front of the racks. That might be extreme but it illustrates the importance of the concept.

2. Security

It goes without saying (but I’m going to say it anyhow) that physical security is a foundation of a reliable data center. Keeping your systems under lock and key and providing entry only to authorized personnel goes hand and hand with permitting only the necessary access to servers, applications and data over the network. It’s safe to say that the most valuable assets of any company (other than people, of course) reside in the data center. Small-time thieves will go after laptops or personal cell phones. Professionals will target the data center. Door locks can be overcome, so I recommend alarms as well. Of course, alarms can also be fallible so think about your next measure: locking the server racks? Backup power for your security system? Hiring security guards? It depends on your security needs, but keep in mind that “security is a journey, not a destination.”

3. Accountability

Speaking as a system administrator, I can attest that most IT people are professional and trustworthy.  However, that doesn’t negate the need for accountability in the data center to track the interactions people have with it. Data centers should log entry details via badge access (and I recommend that these logs are held by someone outside of IT such as the Security department, or that copies of the information are kept in multiple hands such as the IT Director and VP). Visitors should sign in and sign out and remain under supervision at all times. Auditing of network/application/file resources should be turned on. Last but not least, every system should have an identified owner, whether it is a server, a router, a data center chiller, or an alarm system.

4. Policies

Every process involved with the data center should have a policy behind it to help keep the environment maintained and managed. You need policies for system access and usage (for instance, only database administrators have full control to the SQL server). You should have policies for data retention – how long do you store backups? Do you keep them off-site and if so when do these expire? The same concept applies to installing new systems, checking for obsolete devices/services, and removal of old equipment – for instance, wiping server hard drives and donating or recycling the hardware.

5. Redundancy

fordpinto.image002.jpg
 Credit: Wikimedia Commons

The first car I ever owned was a blue Ford Pinto. My parents paid $400 for it and at the time, gas was a buck a gallon, so I drove everywhere. It had a spare tire which came in handy quite often. I’m telling you this not to wax nostalgic but to make a point: even my old breakdown-prone car had redundancy. Your data center is probably much shinier, more expensive, and highly critical, so you need more than a spare tire to ensure it stays healthy. You need at least two of everything that your business requires to stay afloat, whether this applies to mail servers, ISPs, data fiber links, or voice over IP (VOIP) phone system VMs. Three or more wouldn’t hurt on many scenarios either!

It’s not just redundant components that are important but also the process to test and make sure they work reliably – such as scheduled failover drills and research into new methodologies.

6. Monitoring

Monitoring of all systems for uptime and health will bring tremendous proactive value but that’s just the beginning. You also need to monitor how much bandwidth is in use, as well as energy, storage, physical rack space, and anything else which is a “commodity” provided by your data center.

There are free tools such as Nagios for the nuts and bolts monitoring and more elaborate solutions such as Dranetz for power measurement. Alerts when outages or low thresholds occur is part of the process – and make sure to arrange a failsafe for your alerts so they are independent of the data center (for instance, if your email server is on a VMWare ESX host which is dead, another system should monitor for this and have the ability to send out notifications).

7. Scalability

So your company needs 25 servers today for an array of tasks including virtualization, redundancy, file services, email, databases, and analytics? What might you need next month, next year, or in the next decade? Make sure you have the appropriate sized data center with sufficient expansion capacity to increase power, network, physical space, and storage.  If your data center needs are going to grow – and if your company is profitable I can guarantee this is the case – today is the day to start planning.

Planning for scalability isn’t something you stop, either; it’s an ongoing process. Smart companies actively track and report on this concept. I’ve seen references in these reports to “the next rivet to pop” which identifies a gap in a critical area of scalability that must be met (e.g., lack of physical rack space) as soon as possible.

8. Change management

You might argue that Change Management falls under the “Policies” section, a consideration which has some bearing. However, I would respond that it is both a policy and a philosophy. Proper guidelines for change management ensure that nothing occurs in your data center which hasn’t been planned, scheduled, discussed and agreed upon along with providing backout steps or a Plan “B.” Whether it’s bringing new systems to life or burying old ones, the lifecycle of all elements of your data center must fall in accordance with your change management outlook.

9. Organization

I’ve never known an IT pro who wasn’t pressed for time. Rollout of new systems can result in some corners being cut due to panic over missed deadlines – and these corners invariably seem to include making the environment nice and neat.

A successful system implementation doesn’t just mean plugging it in and turning it on; it also includes integrating devices into the data center via standardized and supportable methods. Your server racks should be clean and laid out in a logical fashion (production systems in one rack, test systems in another). Your cables should be the appropriate length and run through cabling guides rather than haphazardly draped. Which do you think is easier to troubleshoot and support; a data center that looks like this:

cablemess.jpg
 Credit: Wikimedia Commons

Or THIS:

cables.neat.jpg
 Credit: Wikimedia Commons

10. Documentation

The final piece of the puzzle is appropriate, helpful, and timely documentation – another ball which can easily be dropped during an implementation if you don’t follow strict procedures. It’s not enough to just throw together a diagram of your switch layout and which server is plugged in where; your change management guidelines should mandate that documentation is kept relevant and available to all appropriate personnel as the details evolve – which they always do.

Not to sound morbid, but I live by the “hit by a bus” rule. If I’m hit by a bus tomorrow, one less thing for everyone to worry about is whether my work or personal documentation is up to date, since I spend time each week making sure all changes and adjustments are logged accordingly. On a less melodramatic note, if I decide to switch jobs I don’t want to spend two weeks straight in a frantic braindump of everything my systems do.

The whole ball of wax

The great thing about these concepts is that they are completely hardware/software agnostic.  Whether your data center contains servers running Linux, Windows or other operating systems, or is just a collection of network switches and a mainframe, hopefully these will be of use to you and your organization.

To tie it all together, think of your IT environment as a wheel, with the data center as the hub and these ten concepts as the surrounding “tire”:

dc-diag.png
 Credit: Wikimedia Commons

Devoting time and energy to each component will ensure the wheels of your organization turn smoothly.  After all, that’s the goal of your data center, right?