Infiniband
Infiniband merupakan jenis interface (semacam Gigabit Ethernet) yang
dikembangkan Intel untuk menghubungkan server2 dengan remote storage dan
perangkat networking (switches).
Infiniband juga dikembangkan untuk
komunikasi di dalam server cluster menggunakan IPC (Inter Processor
Communication).
Infiniband merupakan teknology terbaik saat ini
yang patut dipertimbangkan jika kita ingin mengimplementasikan High
Performance Clustering, atau bahkan Virtual Data Center.
Alternatif
selain Infiniband adalah 10 Gigabit Ethernet. Teknologi Ethernet
mengalami banyak sekali kemajuan belakangan ini, namun demikian
dibandingkan dengan Infiniband, Ethernet masih kalah efisiensi dan
kecepatannya (penting sekali untuk aplikasi clustering).
Keuntungan utama infiniband : performance (kecepatan), latency dan QoS.
Speed
Satuan
kecepatan Infiniband adalah 2.5Gbps. Kecepatan ini bisa ditingkatkan
dengan menggunakan teknik DDR (Double Data Rate) dan QDR (Quad Data
Rate) menjadi 5 Gbps dan 10 Gbps.
DDR & QDR meningkatkan
kecepatan tanpa mengubah clock (clock tetap 2.5Gbps), tetapi dengan
memanfaatkan pulsa naik/turun (utk DDR) ditambah dengan pergeseran fasa
90 derajat (utk QDR).
Selain itu link yang paralel juga bisa diaggregasikan (4 atau 12 parallel links) sehingga kecepatannya menjadi berlipat-ganda. Agregasi 12 link tadi biasa digunakan pada super komputer/cluster dan interkoneksi antar switch.
Sehingga kecepatan maximum Infiniband sekarang adalah 12 parallel links yang QDR = 12x 10 Gbps = 120 Gbps. Kalau dihitung full duplexnya, berarti kecepatannya adalah 2x lipat, yaitu 240 Gbps ! (tetapi ada overhead 20%, sehingga efektif transfer ratenya adalah 192 Gbps.
Lumayan cepat dibandingkan dengan 10 Gigabit Ethernet yang diparallel menggunakan EtherChannel....
Selain itu link yang paralel juga bisa diaggregasikan (4 atau 12 parallel links) sehingga kecepatannya menjadi berlipat-ganda. Agregasi 12 link tadi biasa digunakan pada super komputer/cluster dan interkoneksi antar switch.
Sehingga kecepatan maximum Infiniband sekarang adalah 12 parallel links yang QDR = 12x 10 Gbps = 120 Gbps. Kalau dihitung full duplexnya, berarti kecepatannya adalah 2x lipat, yaitu 240 Gbps ! (tetapi ada overhead 20%, sehingga efektif transfer ratenya adalah 192 Gbps.
Lumayan cepat dibandingkan dengan 10 Gigabit Ethernet yang diparallel menggunakan EtherChannel....
Latency
Namun jika dibandingkan dengan Ethernet, keunggulan utama Infiniband bukan pada kecepatan, melainkan pada latency dan QoS. Latency utk QDR Infiniband adalah 140 nanosecond. Jauh lebih cepat dibandingkan dengan latency ethernet (pada umumnya 10GE punya latency dalam orde microsecond).
Namun jika dibandingkan dengan Ethernet, keunggulan utama Infiniband bukan pada kecepatan, melainkan pada latency dan QoS. Latency utk QDR Infiniband adalah 140 nanosecond. Jauh lebih cepat dibandingkan dengan latency ethernet (pada umumnya 10GE punya latency dalam orde microsecond).
0 komentar:
Posting Komentar