ESXi nfs datastore komut satırından bağlanmak

Bu komutları ESXi 5.5’te denedim ve kullanıyorum.

NFS mount alanların listesi;

[homesxi01] ~ # esxcli storage nfs list (esxcfg-nas -l)

Volume NameHostShareAccessibleMountedRead-OnlyHardware Acceleration
VMROOTs01192.168.0.100/vol/VMROOTs01truetruefalseNot Supported

Yeni bir nfs datastore eklemek için;

[homesxi01] ~ # esxcli storage nfs add -H 192.168.0.100 -s /vol/VMROOTs01 -v VMROOTs01 (esxcfg-nas -a -o 192.168.0.100 -s /vol/VMROOTs01 VMROOTs01)

Connecting to NAS volume: VMROOTs01
VMROOTs01 created and connected.

Netapp 7mode stats komutu

Yakın zamanda işimi kolaylaştıran stats komutunun kullanımı;

Aşağıdak görüldüğü gibi toplayabileceğimiz statslar. Tabiki bunlarında alt kırılımları bulunuyor.

homelab01> stats list objects

Objects:

cpx

rquota

aggregate

audit_ng

cifs

disk

dump

ext_cache_obj

ext_cache

fcp

hostadapter

wafl_hya_per_aggr

wafl_hya_sizer

wafl_hya_sizer_vvol

wafl_hya_sizer_interval

ifnet

iscsi_conn

iscsi_lif

iscsi

logical_replication_destination

logical_replication_source

lun

ndmp

nfsv3

nfsv4

path

processor

qtree

quota

raid

spinhi

system

target_port

target

vfiler

volume

Beni en cok ilgilendiren volume ile ilgili stat’lar.

homelab01> stats list counters volume

Counters for object name: volume

instance_name

node_name

node_uuid

process_name

vserver_name

vserver_uuid

avg_latency

total_ops

read_data

read_latency

total_protocol_read_latency

read_ops

write_data

write_latency

total_protocol_write_latency

write_ops

other_latency

total_protocol_other_latency

other_ops

nfs_protocol_read_latency

nfs_protocol_write_latency

nfs_protocol_other_latency

cifs_protocol_read_latency

cifs_protocol_write_latency

cifs_protocol_other_latency

fcp_protocol_read_latency

fcp_protocol_write_latency

fcp_protocol_other_latency

iscsi_protocol_read_latency

iscsi_protocol_write_latency

iscsi_protocol_other_latency

spinvfs_protocol_read_latency

spinvfs_protocol_write_latency

spinvfs_protocol_other_latency

Storage’ta bulunan volume listesi;

homelab01> stats list instances volume

Instances for object name: volume

vol0

nfstest01

Volume ile ilgili stats’ları toplamaya başlıyalım. Stats başlattığımızda açık unutmamız gerekiyor. Performans sorununa yol açabilir.

homelab01> stats start -I volstats volume:nfstest01

Volume için toplanan stats’lara inceleyelim. Volume hakkında detaylar uzun uzun gelecektir.

homelab01> stats show -I volstats

StatisticsID: volstats

volume:nfstest01:instance_name:nfstest01

volume:nfstest01:node_name:

volume:nfstest01:node_uuid:

volume:nfstest01:process_name:

volume:nfstest01:vserver_name:

volume:nfstest01:vserver_uuid:

volume:nfstest01:avg_latency:1254.66us

volume:nfstest01:total_ops:143/s

volume:nfstest01:read_data:412547b/s

volume:nfstest01:read_latency:3382.53us

Stats ları durdurmak için;

homelab01> stats stop -I volstats

Shellshock vulnerabilities for vmware

VMware’in linux appliance shellshock’tan etkileniyor. ESXi 4 sürümü bash açığını dün gece patch duyurdu. Eğer VMware Update Manager kullanıyorsanız. Kolayca hostlarınıza updateleri uygulayabilirsiniz. ESXi 5.x sürümleri bu açıktan etkilenmiyor. Detayları aşağıdaki linkte bulabilirsiniz.

http://www.vmware.com/security/advisories/VMSA-2014-0010.html

http://blogs.vmware.com/security/2014/09/new-vmware-security-advisory-vmsa-2014-0010-shellshock.html

ShellShock hakkında detayı aşağıdaki linkten edinebilirsiniz.

https://blog.cloudflare.com/inside-shellshock/

shellshock_Linux_check.jpeg

Add static route on Netapp

Netapp filer’in üzerine static route eklemek;

filer01> route
usage:
route [-fn] add [inet] [host|net] <destination>[&netmask|/prefixlen] <gateway> <metric>
route [-fn] add [inet] default <gateway> <metric>
route [-fn] delete [inet] [host|net] <destination>
route [-fn] delete [inet] default
route -s

Örnek;

route add inet host 10.10.10.202 10.10.5.222 1

Riverbad yada alternatif wan optimizer kullanırsanız, static route yazmak gerekebiliyor.

ESXi multipath policy değiştirme

ESXi storage’tan gelen fiber(SAN) disk’lerin multipath policy ayarlarını aşağıdaki gibi değiştirebilirsiniz.
Genelde path fixed olarak kullanılır ama önerilen round robin olarak kullanılması. Bu seçim tamamen sizin oluşturacağınız alt yapı ile ilgilidir.

Listemizi oluşturup hızlıdan path’leri round robin yapalım;

# esxcli storage nmp device list

naa.60a98000000e0f000c0a000c0f000000 (naa. ile başlıyalan satırlar bizim için önemli)
Device Display Name: NETAPP Fibre Channel Disk (naa.60a98000000e0f000c0a000c0f000000)
Storage Array Type: VMW_SATP_DEFAULT_AA
Storage Array Type Device Config: SATP VMW_SATP_DEFAULT_AA does not support device configuration.
Path Selection Policy: VMW_PSP_FIXED (bu alanı VMW_PSP_RR yapacağız)
Path Selection Policy Device Config: {preferred=vmhba2:C0:T4:L8;current=vmhba2:C0:T4:L8}
Path Selection Policy Device Custom Config:
Working Paths: vmhba2:C0:T4:L8
Is Local SAS Device: false
Is Boot USB Device: false

# esxcli storage nmp device set –device=naa.60a98000000e0f000c0a000c0f000000 –psp=VMW_PSP_RR

tekrar device listesini aldığımızda round robine döndüğünü görebilirsiniz. Bu işlemleri yaptığınız ESXi host’unuzu reboot etmeniz gerekmektedir.

 # esxcli storage nmp device list

naa.60a98000000e0f000c0a000c0f000000
Device Display Name: NETAPP Fibre Channel Disk (naa.60a98000000e0f000c0a000c0f000000)
Storage Array Type: VMW_SATP_ALUA
Storage Array Type Device Config: {implicit_support=on;explicit_support=off; explicit_allow=on;alua_followover=on;{TPG_id=3,TPG_state=ANO}{TPG_id=2,TPG_state=AO}}
Path Selection Policy: VMW_PSP_RR
Path Selection Policy Device Config: {policy=rr,iops=1000,bytes=10485760,useANO=0;lastPathIndex=2: NumIOsPending=0,numBytesPending=0}
Path Selection Policy Device Custom Config:
Working Paths: vmhba2:C0:T3:L12, vmhba2:C0:T4:L12, vmhba1:C0:T3:L12, vmhba2:C0:T5:L12, vmhba1:C0:T4:L12, vmhba1:C0:T5:L12
Is Local SAS Device: false
Is Boot USB Device: false

vSphere 5 – DRS invocation not completed error

vCenter’da aşağıdaki hatayı alıyorsanız.

1861176

 

 

ESXi hostlarınızın Ram ve CPU değerleri gözükmüyorsa.

1861176_1

 

 

 

Cluster’da bulunan Host’larınızı tek tek Maintenance çekip sonra Cluster dışına alıp Disconnect Connect adımlarını uygulayarak, sunucunun kaynaklarını tekrardan görebilirsiniz. Kaynakları düzgün görebiliyorsanız tekrar clusterınıza dahil edebilirsiniz.

The Host IPMI System Event Log Status alarm is triggered repeatedly in VMware vCenter Server 4.x and 5.x

Aşağıdaki hatayı aldığınızda, ESXi host’unuzu maintenance alıp, ssh ile bağlanıp aşağıdaki komutu çalıştırıp. hostumuzu reboot etmemiz yeterli olacaktır.

ipmi_hata

 

 

Clear the IPMI logfiles with:

# localcli hardware ipmi sel clear

Restart the hardware status provider

# /etc/init.d/sfcbd-watchdog restart

You also can list the logs with :

# localcli hardware ipmi sel list

Record:1:
Record Id: 1
When: 2015-03-03T15:16:15
Event Type: 111 (Unknown)
SEL Type: 2 (System Event)
Message: Assert + Event Logging Disabled Log area reset/cleared
Sensor Number: 254
Raw:
Formatted-Raw: