[Share] Linux KVM di Virtualizor


Status
Not open for further replies.

hostune

Poster 1.0
coba hdparm -tT /dev/sdX (X=nama HDnya) itu VPSnya di raid? 1? 10? hw? sw?

sama hdparm -I | grep model (atau Model) lupa saya..


Saya barusan coba nyalain virtio dan juga nambahin parameter kernel elevator=noop , pastiin cache = none (iseng nyoba writeback malah kernel panic :) ) , tetep aja lambat test dd fdatasync.

Ini HDD nya gak pake RAID apa apa di dalem VPS nya, murni cuma 1 partisi aja. Kalau nodenya sih RAID1 HW dan kenceng2 aja IOnya.

/dev/hda1:
Timing cached reads: 21816 MB in 2.00 seconds = 10918.34 MB/sec
Timing buffered disk reads: 298 MB in 3.01 seconds = 99.07 MB/sec

Model Number: QEMU HARDDISK
 

cpserv

Expert 1.0
ga ada yg lagi "nunggu" kan? saya sih normalnya raid1 di node 130MB/s di VPS 90-130MB/s (jadi ga jauh banget sama yang di node). RHEL brapa nodenya? klo 6 siap2 ganti kernel :D semua punya saya masih RHEL 5 soalnya. yang 6 babak belur dd testnya.. (masalah di kernel 32 dst).

btw grep Modelnya di node. biar keliatan HDnya tipe apa.. klo green (dll yg bukan enterprise jangan harap I/O-nya bisa so so)..
 

hostune

Poster 1.0
ga ada yg lagi "nunggu" kan? saya sih normalnya raid1 di node 130MB/s di VPS 90-130MB/s (jadi ga jauh banget sama yang di node). RHEL brapa nodenya? klo 6 siap2 ganti kernel :D semua punya saya masih RHEL 5 soalnya. yang 6 babak belur dd testnya.. (masalah di kernel 32 dst).

btw grep Modelnya di node. biar keliatan HDnya tipe apa.. klo green (dll yg bukan enterprise jangan harap I/O-nya bisa so so)..

Nodenya Centos 5 kok. Saya pakai RAID 1 juga. Ini beneran jauh beda performanya antara Node dan VPS.

Oh maksudnya grep Model mau liat jenis HDD nya di Node, sy pake Enterprise RE 4, tega amat pake green hehehe :)
 

cpserv

Expert 1.0
Nodenya Centos 5 kok. Saya pakai RAID 1 juga. Ini beneran jauh beda performanya antara Node dan VPS.

Oh maksudnya grep Model mau liat jenis HDD nya di Node, sy pake Enterprise RE 4, tega amat pake green hehehe :)

Mmm.. PE Size-nya brapa? mudah2an bukan 32MB.. soalnya udah bingung saya nyari masalahnya ada dimana itu.. :D

scheduler-nya si node coba ganti ke deadline.. sama pastiin ga ada %wa di top..
 

hostune

Poster 1.0
Mmm.. PE Size-nya brapa? mudah2an bukan 32MB.. soalnya udah bingung saya nyari masalahnya ada dimana itu.. :D

scheduler-nya si node coba ganti ke deadline.. sama pastiin ga ada %wa di top..

PE size punyanya VG nya node yang ditanya ? saya check emang 32MB sih, ada yang salah dengan itu ?

Untuk %wa kira kira 0-2%
 

cpserv

Expert 1.0
ngga.. PE Size 32MB udah seharusnya buat LVM partisi 500GB keatas..

%wa jg ga keliatan "mengganggu"..

raid cardnya apa ya? bisa cek lewat command line pake toolsnya ga? saya curiganya malah masalah disitu. entah itu bad spin, mati, atau terlalu banyak bad sectornya.
 

hostune

Poster 1.0
ngga.. PE Size 32MB udah seharusnya buat LVM partisi 500GB keatas..

%wa jg ga keliatan "mengganggu"..

raid cardnya apa ya? bisa cek lewat command line pake toolsnya ga? saya curiganya malah masalah disitu. entah itu bad spin, mati, atau terlalu banyak bad sectornya.

Ini RaidCardnya pake ServerRaid IBM, yg versi low end sih. Cuma emang ada yang aneh sih ya, saya check pake hdparm di node keluar seperti ini:

/dev/sda1:
Timing cached reads: 22380 MB in 2.00 seconds = 11214.43 MB/sec
HDIO_DRIVE_CMD(null) (wait for flush complete) failed: Inappropriate ioctl for device
Timing buffered disk reads: 362 MB in 3.01 seconds = 120.14 MB/sec
HDIO_DRIVE_CMD(null) (wait for flush complete) failed: Inappropriate ioctl for device

/sbin/hdparm -I /dev/sda1 | grep Model
HDIO_DRIVE_CMD(identify) failed: Inappropriate ioctl for device

Hehehe ya udah gpp pak, saya juga udah hopeless. Kalau masalahnya di HW masa iya sih ?, lah di node aja kalau di test speednya kenceng2 aja.
 

cpserv

Expert 1.0
oh iya saya lupa bilang hdparm (yg lama) ga bisa baca klo pake raid card. coba install hdparm yg baru aja klo mau hdparm: HDIO_DRIVE_CMD(identify) Failed: Inappropriate Ioctl For Device

KVM emang begitu (apalagi krn dia di dalem LVM), lebih lambat "sedikit", tapi klo di node 100 dan di VPS 10 itu udah keterlaluan. :D

itu klo ga salah serverraidnya IBM ngaktifin writeback yah defaultnya walaupun ga ada bbu? ga peduli itu raid 0, 1, 5, 10, dsb. coba aja dimatiin dulu klo emang disetnya di writeback. selain ga aman (klo stripping tanpa bbu) saya pernah pengalaman di dell I/Onya jadi lambat klo pake partisi LVM.

agak susah sih troubleshooting dengan "mengira2", harus cek satu persatu. jadi ya diulang aja dari depan sampe abis, trus analisa kira2 dimana masalahnya. :D gutlak..
 

hostune

Poster 1.0
oh iya saya lupa bilang hdparm (yg lama) ga bisa baca klo pake raid card. coba install hdparm yg baru aja klo mau hdparm: HDIO_DRIVE_CMD(identify) Failed: Inappropriate Ioctl For Device

KVM emang begitu (apalagi krn dia di dalem LVM), lebih lambat "sedikit", tapi klo di node 100 dan di VPS 10 itu udah keterlaluan. :D

itu klo ga salah serverraidnya IBM ngaktifin writeback yah defaultnya walaupun ga ada bbu? ga peduli itu raid 0, 1, 5, 10, dsb. coba aja dimatiin dulu klo emang disetnya di writeback. selain ga aman (klo stripping tanpa bbu) saya pernah pengalaman di dell I/Onya jadi lambat klo pake partisi LVM.

agak susah sih troubleshooting dengan "mengira2", harus cek satu persatu. jadi ya diulang aja dari depan sampe abis, trus analisa kira2 dimana masalahnya. :D gutlak..

thanks alot sudah bantu banyak cari celah troubleshoot, udah kaya supportnya virtualizor aja nih :41: , ticket mereka aja jawabnya gak secepat dan selengkap ini :).

Ada secercah harapan dikit nih, ternyata Virtionya sampe sekarang belum berhasil saya enable. Ketika saya coba enable malah gak bisa boot alias kernel panic. Saya pikir itu kemarin karena masalah lain. Jadi sekarang sy coba cari tau kenapa bisa kernel panic kalai virtio enable, dan mudah mudahan :) ketika bisa dienable, IO speednya meningkat.
 

cpserv

Expert 1.0
hehehe karena supportnya lamban itu makanya saya caritau sendiri ( bosen buka ticket dibales 2 x 24 jam :p )

ni saya kasih contoh yg pake Virtio + sw raid1 (pake solusvm tapi :D ) :

Code:
root@chi2:~# df -h | grep da
/dev/vda1             9.4G  533M  8.4G   6% /
root@chi2:~# dd if=/dev/zero of=test.file bs=64k count=16k conv=fdatasync;rm -f test.file
16384+0 records in
16384+0 records out
1073741824 bytes (1.1 GB) copied, 8.66537 s, 124 MB/s
 
Status
Not open for further replies.

Top