'2017/07'에 해당되는 글 7건

  1. 2017.07.29 [VMware] vSAN 6.6.1 릴리스
  2. 2017.07.27 [VMware] VCSA vSAN 6.6 easy install
  3. 2017.07.24 [Nutanix] 사이징 툴
  4. 2017.07.23 [VMware] vSAN 사이징 툴
  5. 2017.07.18 [Nutanix] Acropolis Block Services에 대해서
  6. 2017.07.12 [VMware] vRealize Automation 7.2 (18)
  7. 2017.07.08 [VMware] vSAN 모의 디스크 장애 테스트
2017.07.29 19:53

[VMware] vSAN 6.6.1 릴리스

어제 vSphere 6.5 Update 1 이 릴리스되었습니다. ESXivCenter도 각각 6.5 U1이 되었죠. 아울러 vSAN도 6.6.1이 릴리스되었습니다. 이번 6.6.1은 버그 수정은 물론 다음과 같은 기능이 개선되었다고 합니다.


vSphere Update Manager의 통합

: Update Manager를 통해 vSAN 관련의 패치를 적용하거나 업그레이드할 수 있게되었습니다.


● vSAN의 성능진단 개선

: 6.6에서 CEIP(고객 환경 개선 프로그램)을 통해 vSAN 환경의 건강상태를 VMware사에 전송할 수 있는 기능이 추가되었죠. 6.6.1에서는 스루풋이나 지연 등을 비교할 수 있는 벤치마크 기능이 추가되었습니다.


● 스토리지 디바이스의 보수성 개선

: 각 ESXi의 스토리지 디바이스에 대해 vCenter에서 LED를 점등시킬 수 있게 되었습니다. 


● 새로운 라이센스 추가

: "vSAN Enterprise for ROBO"에서 "암호"와 "확장 클러스터"를 구성할 수 있게 되었습니다. 또한 Horizon Advanced 또는 Enterprise 에디션에 "vSAN Advanced"에디션이 포함되게 되었다고 합니다.


한가지 더...

vSphere 6.5의 GA가 릴리스된 후로 vSAN도 두 번의 버전 업그레이드가 실시되었습니다. 6.5 이전까지는 ESXi 버전 번호와 동일한 버전으로 구성되었습니다만, 6.5부터는 조금 애매하게 되었죠. 아시는 분들이 대부분이기겠지만 간단히 정리를 해보겠습니다.

 vSAN  버전

 ESXi 버전 

 vCenter 버전 

 vSAN 6.5  

 6.5 GA

 6.5a

 6.5 GA

 6.5a

 6.5b

 6.5c 

 vSAN 6.6

 6.5d 

 6.5d

 6.5e 

 vSAN 6.6.1

 6.5 U1 

 6.5 U1 


 

저작자 표시 비영리 변경 금지
신고

'virtualization > VMware' 카테고리의 다른 글

[VMware] 새로운 자격 신설  (0) 2017.08.25
[VMware] vExpert 2017 VSAN  (3) 2017.08.17
[VMware] vSAN upgrade guide  (0) 2017.08.16
[VMware] DRS Lens  (0) 2017.08.06
[VMware] vSAN 6.6.1 릴리스  (0) 2017.07.29
[VMware] VCSA vSAN 6.6 easy install  (0) 2017.07.27
[VMware] vSAN 사이징 툴  (0) 2017.07.23
[VMware] vRealize Automation 7.2 (18)  (0) 2017.07.12
[VMware] vSAN 모의 디스크 장애 테스트  (0) 2017.07.08
Trackback 0 Comment 0
2017.07.27 21:15

[VMware] VCSA vSAN 6.6 easy install

공식적으로 vsandatastore 위의 vCenter 구성을 지원하고 있습니다. (추천은 vCenter 같은 관리서버는 컴퓨트 클러스터와는 별도의 클러스터상에서 가동하는 것입니다)


하지만 실제로 구성을 할 경우 설치과정은 번거롭습니다. 과거의 포스팅에서도 소개를 했듯이, '닭'이 먼저인지 '달걀'이 먼저인지의 문제에 부닥치게 되어 1대의 ESXi 호스트의 디스크 일부를 로컬 데이터스토어로 구성을 한 뒤 vCenter를 설치하죠. vCenter가 설치되었다면 vSAN을 구성할 수 있으니 vSAN을 구성후 vCenter를 스토리지 vMotion으로 vsandatastore로 이동~. vCenter을 이동했다면 로컬 데이터스토어로 구성한 디스크를 vSAN 디스크로 재구성... 이 필요합니다. <--- vSAN 6.5까지는 이랬습니다.


vSAN 6.6에서는 바뀌었습니다. 이름하여 easy install!



대상은 VCSA 6.5d 이후의 버전입니다만, VCSA 전개 마법사 진행시 최초의 ESXi 호스트에 일시적으로 vsandatastore을 구성하여 VCSA를 설치할 수 있게해줍니다. 위의 그림처럼 설치할 데이터스토어 선택시 "새로운 vSAN 클러스터에 포함되는 ESXi 호스트에 설치" 옵션을 선택하면 됩니다.



"새로운 vSAN 클러스터에 포함되는 ESXi 호스트에 설치" 옵션을 선택한 뒤에는 vSAN에서 이용할 디스크를 선택하여 설치 마법사를 진행하면 끝입니다. 간단하죠?


설치후 확인을 해보니 아래와 같은 점을 발견했습니다.

위의 그림을 보시면 ”Used - VM Overreserved”가 440GB나 된다는 겁니다.  ”Used - VM Overreserved”는 스토리지 정책중 "Object Space Reservation"에 의해 예약된 상태를 말합니다. vSAN 구성시 자동적으로 생성되는 Virtual SAN Default Storage Policy의  Object Space Reservation 값은 0% 이기 때문에 예약 용량이 440GB이 된다는건 스토리지 정책이 적용되지않은 것을 의미하는거죠.


전개한 VCSA의 스토리지 정책을 확인해보니 아니나다를까 정책은 적용되지 않은 상태였습니다. easy install로 VCSA를 설치하고 나머지 2대의 ESXi 호스트를 추가하여 정상적인 vSAN을 구성한 뒤에도 말입니다. 뭐, 스토리지 정책이 자동적으로 적용되는게 아니니 당연한거지만 말입니다. 흐흐 :)


하여간 스토리지 정책을 적용해주었습니다.


스토리지 정책을 적용해주었더니 ”Used - VM Overreserved”의 용량은 20GB로 줄었습니다. 흐흐


easy install로 VCSA를 설치하시는 분들은 잊지마시고 vSAN 구성후 VCSA에 스토리지 정책을 적용하세요!





저작자 표시 비영리 변경 금지
신고
Trackback 0 Comment 0
2017.07.24 22:21

[Nutanix] 사이징 툴

어제는 vSAN의 사이징 사이트에 대해서 소개를 했죠. 오늘은 Nutanix의 사이징 사이트를 소개하겠습니다.


Nutanix사도 두 종류의 사이징 사이트를 제공하고 있습니다. 첫번째는 말그대로 사이징 페이지입니다. 

Nutanix Sizer



이 사이징 사이트를 이용하기 위해서는 My Nutanix의 계정이 있어야 됩니다.(계정 등록은 간단합니다)

이 페이지는 시니리오를 기반으로 필요한 노드수를 시작으로 CPU, 메모리, 디스크까지 하드웨어 전반에 걸친 사이징을 확인할 수 있습니다. 아울러 Erasure Coding나 RF에 의한 스토리지 용량의 변화나 오버헤드도 확인을 할 수 있습니다.




다 좋은데 My Nutanix의 계정이 없으시다고요? CPU, 메모리는 필요없고 스토리지의 사이징 정보만 필요하시다고요? 흐흐


그렇다면 아래의 페이지에서 가능합니다.

Nutanix Disk Usage Calculator



보시는대로 화면 왼편의 디스크 정보, 노드수를 지정하면 실질적으로 얼마나 이용을 할 수 있는지 간단하게 알 수가 있습니다. 개인적으로는 사이징 페이지보다는 이 페이지를 이용하는 빈도가 크네요. 











저작자 표시 비영리 변경 금지
신고
Trackback 0 Comment 0
2017.07.23 10:05

[VMware] vSAN 사이징 툴

간단한 구성과 다이나믹한 스케일-아웃을 세일스 문구로 하는 vSAN이긴 하지만 설계에 필요한 사이징은 의외로 중요합니다. vSAN 도입을 검토할 경우 CPU, 메모리에 대해서 10%의 vSAN 오버헤드를 고려하는 것은 물론 하이브리드 구성의 경우 캐시용 SSD 용량이 HDD 용량의 10% 이상이 되어야 된다는 점도  고려를 해야됩니다. 또한 스토리지 영역의 80%를 이용했을 경우 자동적으로 리밸런스가 실행되어 vSAN 성능 자체에 영향을 줄 수 있죠. 따라서 80%를 넘지않도록 실질적 이용가능 용량은 전체 스토리지 영역의 70%를 기준으로 각 디스크를 선정해야되죠. 여기에 Erasure Coding이나 중복제거/압축 기능을 이용할 경우는 더욱 신중해야 됩니다. :)


따라서 사이징과 디자인 가이드가 공개되어있죠. 하지만 문서다보니 전부 읽는건 귀찮죠? 흐흐 이러한 부분을 전부 해결하면서 간단히 사이징을 해주는 vSAN의 새로운 사이징 사이트가 공개되었습니다.

All Flash vSAN ReadyNode Sizer 



위의 사이징 사이트를 이용하면 간단히 몇대의 노드가 필요하며 노드는 어떤 종류의 CPU, 메모리 용량, 디스크 용량과 디스크 그룹의 구성을 알 수 있습니다.



위의 사이트의 이용에는  My VMware나 Partner Central의 계정이 있으면 편리합니다만 없어도 일반 용도의 vSAN 구성에 대해서는 확인을 할 수 있습니다.

All Flash vSAN ReadyNode Sizer - Evaluation



vSAN의 도입을 검토하시는 분은 사전에 위의 사이트에서 필요한 구성을 확인해 보시는 것이 좋을거 같네요. :)


위의 사이트는 All Flash 전용입니다. 하이브리드 구성의 경우는 기존의 사이징 사이트를 이용하시면 됩니다.

vSAN Hybrid TCO and Sizing Calculator





저작자 표시 비영리 변경 금지
신고
Trackback 0 Comment 0
2017.07.18 23:27

[Nutanix] Acropolis Block Services에 대해서

얼마전 vSAN의 iSCSI Target (VIT) 서비스에 대한 포스팅을 했었습니다. 그때 다른 Nutanix도 동일한 기능이 있다고 했었죠.  이번에는 Nutanix의 iSCSI Target 서비스에 대해서 소개를 해볼까 합니다.


Nutanix의 iSCSI Target 서비스의 정식명칭은 Acropolis Block Services (ABS)라고 합니다. 사실은 vSAN 보다도 한걸음 빠른 2016년 6월에 발표되었죠. 


이 ABS 역시 컨테이너안의 vDisk를 LUN(볼륨)으로 제공을 합니다. 이 ABS를 이용하므로써 가상머신에게 iSCSI Target 서비스를 제공할 수 있습니다. 하지만 VIT와는 달리 공유 볼륨으로 이용이 가능하기에 Windows Server Failover Clustering과 같은 가상머신의 게스트 클러스터링을 구성할 수 있으며 하이퍼바이저에서도 이용이 가능합니다.  또한 작성한 볼륨을 SSD 티어에 고정할 수 있는 플래시 모드(이전에는 피닝-pinning라고도 했죠)도 이용이 가능하죠. 솔직히 말해서 ABS가 보다 실용적(실환경에서 이용이 가능한...) 이라고 할 수 있습니다.


Starter 에디션 이외라면 이용이 가능한 이 ABS도 VIT와 같이 매우 간단하게 구성을 할 수 있습니다,

VIT도 구성방법에 대해서 소개를 했으니 ABS도 구성방법에 대해서 소개를 하도록 하죠. :)



① Prism에 접속후 [관리]메뉴로부터 [클러스터 상세정보]를 클릭합니다.


② [External Data Services IP Address]를 지정합니다. 이 "외부 데이터 서비스 IP 어드레스"가 이른바 iSCSI Target 어드레스가 됩니다.


③ iSCSI Target 어드레스 지정했다면, 그다음은 iSCSI Target 볼륨을 설정하도록 하겠습니다. 메인메뉴로부터 [스토리지]를 클릭합니다.


④ iSCSI Target 볼륨은 [볼륨 그룹]에서 작성을 합니다. 우선 iSCSI Target 볼륨명을 지정한 뒤에 제공할 볼륨 사이즈를 지정합니다.


⑤ iSCSI Initiater를 추가합니다. 아울러 작성한 볼륨을 SSD 상에서 제공할 경우는 피닝인 "Enable Flash Mode"를 선택하면 됩니다. 이외의 볼륨을 클러스터 이외의 서버에 제공을 할 경우는 "Enable external client access"을 지정하면 됩니다.(Enable external client access 기능을 이용하기 위해서는 Starter 이외의 라이센스가 필요합니다)


⑥ 이로써 제공할 iSCSI Target 볼륨 작성을 마쳤습니다. 작성한 볼륨은 [볼륨 그룹]에서 확인을 할 수 있습니다.


⑦ 이번에는 iSCSI Initiater에서 iSCSI Target을 지정합니다. 전 간단히 Windows Server를 이용했습니다. iSCSI Initiater 설정화면에서 ②에서 설정한 "External Data Services IP Address"를 지정합니다.


⑧ 정상적으로 iSCSI Target이 추가되면 [디스크의 관리] 화면에서 마운트된 볼륨을 확인할 수 있습니다. 마운트된 볼륨을 온라인, 유효화, 포맷을 하면 드라이브로서 이용을 할 수 있게됩니다.


⑨ 추가한 드라이브에 대량의 화일을 복사한 뒤에 Prism에서 iSCSI Target의 상태를 확인해봤습니다. Read/Write latency는 물론 IOPS, SSD와 HDD로의 Read 상태로 확인을 할 수 있네요. :)



어떻습니까? 간단하죠? 흐흐 커뮤니티 에디션을 이용하여도 충분히 검증도 가능하므로 관심있는 분들은 한번 검증해 보세요. 의외로 쓸만합니다. 


 



저작자 표시 비영리 변경 금지
신고
Trackback 0 Comment 0
2017.07.12 20:39

[VMware] vRealize Automation 7.2 (18)

(0) vRA 개요

(1) vRA 구성요소

(2) vRA 설치 - vRA어플라이언스

(3) vRA 설치 - IaaS서버

(4) vRA 초기설정 - 테넌트 작성

(5) 테넌트 구성 - AD

(6) 엔드포인트 작성

(7) 데이터 콜렉션과 패브릭 그룹 작성

(8) 머신 접두사와 네트워크 프로화일 작성

(9) 비지니스 그룹과 예약 작성

(10) 블루프린트 작성

(11) 서비스 카탈로그 작성

(12) 블루프린트의 요구

(13) 승인 정책의 설정

(14) 커스텀 속성(사용자 지정 속성)의 설정

(15) vRO 엔드포인트 작성

(16) NSX와의 통합

(17) 가상머신의 임포트

(18) 가상머신의 해제


(18) 가상머신의 해제

오랜만의 vRA 관련 포스팅이네요. 지난 회(17)에서는 기존의 가상머신을 vRA의 관리하에 두는 방법을 소개했습니다. 이 Bulk import 기능을 이용하면 간단히 가상머신을 vRA에서 관리할 수 있죠.


이번에는 반대로 vRA 관리하에서 가상머신을 해제하는 방법에 대해서 소개를 하겠습니다.

가상머신을 관리하에 둘 경우는 vRA의 GUI를 통해 가능합니다만, 해제의 경우는 GUI로는 불가능합니다. :)


가상머신을 vRA 관리하에서 해제할 경우는 Cloud Client 툴을 이용해야 됩니다. 간단히 소개를 하죠.


① 우선 최신의 Cloud Client 툴을 다운로드합니다. 현재의 최신버전은 4.4입니다.

https://code.vmware.com/web/dp/tool/cloudclient/


② 다운로드받은 화일의 압축을 풀어 "bin" 폴더안의 "cloudclient.bat"를 실행합니다.


③ 아래의 명령어를 실행, 일단 vRA 가상어플라이언스에 접속을 합니다.

vra login userpass --user 테넌트 관리자 --tenant 가상머신을 해제할 테넌트 --server vRA 어플라이언스 FQDN --password 테넌트 관리자 암호


④ 다음에는 아래의 명령어를 실행, 일단 vRA IaaS 서버의 model manager에 접속을 합니다.

vra login iaas --user IaaS 관리자 --domain 도메인 --server IaaS 서버 FQDN --password IaaS 관리자의 암호


⑤ 다음의 명령어를 실행, 해제할 가상머신을 확인합니다.

vra machines list


⑥ 다음의 명령어를 실행, 가상머신을 해제합니다.

vra machines forceunregister --name 가상머신 이름


⑦ 명령어를 실행하면 5분이내에 가상머신이 사라집니다.

(가상머신이 삭제되는건 아닙니다. vRA 관리하에서 해제되는 것 뿐입니다


여기까지가 가상머신을 vRA 관리하에서 해제하는 방법이었습니다. 





저작자 표시 비영리 변경 금지
신고
Trackback 0 Comment 0
2017.07.08 16:31

[VMware] vSAN 모의 디스크 장애 테스트

vSAN을 구성후 빠짐없이 해야될 작업이 있을겁니다.

바로 장애 테스트죠. 네트워크는 물론 호스트의 정지를 시작해서 캐시용 SSD나 캐퍼시티용 HDD(또는 SSD)의 장애를 상정한 테스트가 필요하죠.


디스크 장애 테스트는 어떻게 하지는지요? 디스크의 경우는 네트워크나 호스트와 달리 모의로 장애를 발생시키기가 어렵습니다. 그냥 디스크를 뽑으면 된다고요? 흐흐

아시다시피 가동중인 디스크의 탈착(탈착)으로 실시를 할 경우, 디스크의 장애로는 인식을 하지않죠. 가동중인 디스크를 뽑아둔 뒤 60분 이상 냅두면 데이터의 동기가 시작되므로 결과적으로 장애와 동일한 움직임을 확인할 수 있습니다.


가동중인 디스크를 뽑는 것은 그다지 좋은 방법이 아닙니다. 

  • 우선 60분을 기다려야되니 시간낭비이죠. ESXi 호스트에 대해서 전부 실행할 경우는 더더욱 시간이 아깝습니다. 물론 clomrepairdelay 옵션값을 10분 정도로 짧게 하면 되기는 합니다만...
  • 또다른 이유는 가동중인 디스크를 뽑기 때문에 디스크가 손상될 수 있습니다. 이 경우 하드웨어 벤더의 지원 대상이 되지않는 것으로 알고 있습니다.


자아, 그러면 어떻게 하면 되느냐...

VMware사에서 멋진 문서를 공개해놓고 있습니다. 이름하며 "Failure Testing"!


이 문서는 호스트를 포함한 디스크 장애 발생시의 동작에 대한 내용의 문서입니다. 여기에 디스크를 가동중에 뽑았을 경우의 동작, 예를들어 60분 이내에 되돌렸을 경우나 반대로 60분 넘게 되돌리지 않았을 경우 등에 대한 vSAN의 동작에 대해서도 소개를 하고 있습니다.


추천하고 싶은 부분은 "Virtual SAN Disk Fault Injection Script for POC Failure Testing"란 부분입니다. 이 부분은 가동중인 디스크를 뽑지않아도 모의 장애 상태를 만들수 있는 명령어를 소개하고 있습니다.

/usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc


위의 스크립트는 ESXi 6.0 U1부터 디폴트로 포함이 되어있으며 스크립트를 실행하므로써 디스크의 에러를 의도적으로 발생시킬 수 있습니다.


스크립트를 실행합니다. 영구 손상의 상태를 만들 경우는 -p 옵션을 지정합니다.

python /usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc -p -d 디바이스명


스크립트를 실행하면 금새 디스크가 "permanent error" 상태가 됩니다.(타이밍에 따라 수분 걸릴수가 있습니다)


이 상태에서 데이터의 동기나 가상머신에 대한 영향을 확인하시고...


장애 테스트가 완료되었다면 -c 옵션을 지정하여 에러 상태를 클리어합니다. 

주의 : -c 옵션을 지정하여 에러 상태를 클리어하여도 디스크 그룹은 원상태로 복구되지않습니다. 따라서 디스크 그룹은 다시 만들어줘야 합니다. 주의하세요.

python /usr/lib/vmware/vsan/bin/vsanDiskFaultInjection.pyc -c -d 디바이스명



어떻습니까? 디스크 뽑고 60분 멍~하니 기다리지않아도 되죠? 흐흐


위의 문서를 참고하셔서 확인을 해보시고 활용하시길...!



저작자 표시 비영리 변경 금지
신고
Trackback 0 Comment 0