InfiniBand
Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de
versiunea revizuită pe 10 iulie 2019; verificările necesită
13 modificări .
Infiniband (uneori prescurtat IB ) este o rețea de calculatoare comutată de mare viteză utilizată în calculul de înaltă performanță, care are o lățime de bandă foarte mare și o latență scăzută. Folosit și pentru conexiunile interne în unele sisteme informatice. Începând cu 2014, Infiniband a fost cea mai populară rețea pentru supercomputere . Controlerele Infiniband ( adaptorul magistralei gazdă ) și comutatoarele de rețea sunt produse de Mellanox și Intel . La crearea Infiniband, scalabilitatea a fost integrată în el, rețeaua folosește o topologie de rețea bazată pe comutatoare ( Switched fabric ).
Ca o rețea de comunicații pentru clustere , Infiniband concurează cu grupul de standarde Ethernet și cu tehnologiile proprietare [1] precum Cray și IBM. Atunci când construiesc rețele de calculatoare, IB concurează cu Gigabit Ethernet , 10 Gigabit Ethernet și 40/100 Gigabit Ethernet . IB este, de asemenea, utilizat pentru a conecta dispozitive de stocare a informațiilor DAS . [2] Dezvoltarea și standardizarea tehnologiilor Infiniband sunt gestionate de Asociația Comercială InfiniBand[3] .
Scurtă descriere
La fel ca multe autobuze moderne , cum ar fi PCI Express , SATA , USB 3.0 , Infiniband folosește perechi diferențiale pentru a transporta semnale seriale. Cele două perechi alcătuiesc împreună o magistrală serială bidirecțională de bază ( bandă ang. ), notat 1x. Viteza de bază este de 2,5 Gbps în fiecare direcție. Porturile Infiniband constau dintr-o singură magistrală sau grupuri agregate de magistrale bidirecționale de bază de 4x sau 12x. Cele mai utilizate porturi sunt 4x [4] .
Pentru porturi, există mai multe moduri de transfer de date pe autobuze. Modurile anterioare foloseau codificarea 8B/10B [5] pentru a echilibra semnalul (fiecare 8 biți de date sunt transferați pe magistrală ca 10 biți) cu o supraîncărcare de 20%:
- Single Data Rate (SDR, 1999) - funcționare la o rată de bază de 2,5 Gb/s, viteză efectivă (inclusiv costurile de codare) 2 Gb/s per magistrală
- Double Data Rate (DDR, 2004) - rata de biți este egală cu dublul de bază (5 Gb/s, efectiv 4 Gb/s). Portul 4x are o viteză fizică de 20 Gbps și un efectiv de 16 Gbps
- Quad Data Rate (QDR, 2008) - respectiv, de patru ori (de bază 10 Gb/s), efectiv pentru 4x porturi de 32 Gb/s.
Pornind de la modul FDR-10, se folosește o codificare 64B/66B mult mai economică :
- Paisprezece Rate de date 10 (FDR-10) - viteză efectivă pe 1 magistrală puțin peste 10 Gb/s, pentru 4 porturi de 40 Gb/s
- Paisprezece rate de date (FDR, 2011) - viteza de bază 1x magistrală 14,0625 Gbps [6] , portul 4x oferă aproximativ 56 Gbps
- Rată de date îmbunătățită (EDR) - 1x viteză 25,78125 Gbps, 4x - aproximativ 100 Gbps
Scopul principal al Infiniband este conexiunile inter-server, inclusiv pentru organizarea RDMA ( Remote Direct Memory Access ).
Performanţă
Generaţie: |
SDR |
DDR |
QDR |
FDR-10 |
FDR |
EDR |
HDR |
NDR
|
Debit efectiv, Gbps, per 1x magistrală [7]
|
2 |
patru |
opt |
zece |
paisprezece |
25 |
cincizeci |
100
|
Viteze efective pentru autobuze 4x și 12x, Gbps
|
8, 24 |
16, 48 |
32, 96 |
41,25, 123,75 |
54,54, 163,64 |
100, 300 |
200, 600 |
400,
1200
|
Codificare (bit)
|
8/10 |
8/10 |
8/10 |
64/66 |
64/66 |
64/66 |
64/66 |
64/66
|
Întârzieri tipice, µs [8] [9]
|
5 |
2.5 |
1.3 |
0,7 |
0,7 |
0,5 |
|
|
Anul apariției [10]
|
2001, 2003 |
2005 |
2007 |
|
2011 |
2014 [7] |
~2017 [7] |
mai tarziu 2020
|
Topologie și conexiuni
InfiniBand folosește un mediu comutat cu conexiuni punct-la-punct, spre deosebire de rețelele Ethernet timpurii care foloseau un mediu partajat și, inițial, o conexiune de magistrală. Toate transmisiile încep și se termină la adaptorul de canal. Fiecare nod de calcul conține un adaptor HCA (adaptor canal gazdă) conectat la procesor prin interfața PCI Express (anterior prin PCI-X ). Datele și informațiile de control sunt trimise între adaptoare, inclusiv cele necesare pentru implementarea QoS .
Pentru dispozitivele periferice, se presupunea utilizarea adaptoarelor TCA (adaptorul canalului țintă), dar acestea nu au câștigat distribuție, iar astfel de dispozitive periferice sunt create pe baza plăcilor de bază standard [11] .
Adaptoarele HCA au de obicei unul sau două porturi 4x, care pot fi conectate fie la aceleași porturi HCA și TCA, fie la comutatoare (switch-uri). Switch-urile pot fi organizate în rețele cu topologii fat tree ( Fat Tree ), Close Network , mai rar - tor multidimensional, stea dublă și în diverse combinații hibride [5] [12] .
Porturile și cablurile Infiniband 4x vin în următorii factori de formă:
- CX4 (SFF-8470, de exemplu Fujitsu MicroGiGaCN), numai până la viteze DDR (uneori până la QDR)
- QSFP (SFF-8435, SFF-8436, 40 Gbps)
- QSFP+ (QSFP14, SFF-8685, 56 Gbps)
- zQSFP+ (QSFP28, SFF-8665, 100 Gbps).
Porturile 12x mai rare vin sub formă de factori:
- 12x MicroGiGaCN (Fujitsu FCN-260C024) [5]
- CXP [13]
Pentru a asigura debitul maxim, a fost luată decizia de a limita lungimea permisă a cablului InfiniBand la 10 metri (numai cablul activ).
Cablurile Infiniband sunt disponibile în diferite modele:
- Cabluri electrice pasive (sârme de cupru), de obicei în unități de metri, uneori până la 30 m. Pentru cabluri mai lungi, sunt disponibile viteze mai mici (7 m pentru QDR)
- Cabluri electrice active (la fel, dar cu amplificatoare, vă permit să măriți puțin lungimea maximă a cablului pentru o anumită viteză)
- Cabluri optice active cu un cablu de fibră optică integrată cu o lungime de la unități la zeci și sute de metri.
- Module optice active cu conector optic MTP/MTO pentru conectarea cablurilor de fibră optică OM3/OM4 (8 fibre) sau SR4 sau LC/LC
De asemenea, atunci când utilizați adaptoare universale Infiniband/Ethernet într-o infrastructură Ethernet, pot fi utilizate adaptoare pentru porturile SFP+.
Semnalele Infiniband pot parcurge câțiva centimetri peste plăcile de circuite imprimate, inclusiv prin conectori interni cu răspuns în frecvență adecvat, atâta timp cât toate perechile dintr-un port au aproape aceeași lungime.
Protocoale și API-uri
La nivel de legătură de date, InfiniBand transmite date sub formă de pachete de până la 4 KB (kiloocteți) lungime, care, după combinare, formează un mesaj. Unele dispozitive acceptă o dimensiune maximă de pachet mai mică, cum ar fi 2 KB. Tipuri de mesaje:
- operațiune de acces la memorie - citiți sau scrieți în memoria destinatarului (RDMA).
- operațiuni pe canal de redirecționare a mesajelor (emițătorul trimite un mesaj cu date, receptorul îl primește într-un buffer pre-alocat)
- operațiune tranzacțională
- transmisie către mai mulți destinatari (multicast, nu este acceptat de toate comutatoarele)
- operare atomică la memoria gazdă la distanță (adăugarea atomică și compararea cu schimbul pentru numere întregi pe 64 de biți)
Mesajele Infiniband sunt împărțite în servicii în funcție de garanțiile de livrare și de necesitatea inițializării conexiunii înainte de schimb:
- Reliable Connected (RC) - livrare fiabilă, este necesară inițializarea conexiunii dintre destinatar și expeditor
- Unreliable Connected (UC) - livrare nesigură, este necesară inițializarea
- Reliable Datagram (RD) este un serviciu opțional, implementat rar. Livrare fiabilă fără inițializare
- Datagramă nesigură (UD) - livrare nesigură, nu necesită inițializare
- Mai târziu, a fost introdus serviciul XRC [14] , combinând unele dintre proprietățile RC și RD
Infiniband vă permite să utilizați principiul RDMA ( English Remote Direct Memory Access - acces direct la memorie la distanță), în care transferul de date din memoria unui computer la distanță în memoria locală a solicitantului este efectuat direct de controlerul de rețea, în timp ce participarea CPU-ului nodului la distanță este exclusă. RDMA permite transferul datelor fără tamponare suplimentară și nu necesită operarea activă a sistemului de operare, biblioteci sau aplicație pe nodul a cărui memorie este accesată.
Infiniband poate fi utilizat cu două API-uri generice de nivel scăzut care au fost dezvoltate de la U-Net (Cornell, mijlocul anilor 1990) și VIA ( Virtual Interface Architecture , sfârșitul anilor 1990) [15] :
- Verbe Infiniband ( verbe IB , verbe OFED ) - standardizare API de la Open Fabrics Alliance
- uDAPL (din limba engleză User Direct Access Programming Library , de asemenea kDAPL, kernel DAPL) este un standard API pentru un transport abstract cu acces direct ( Engleză Direct Access Transport , DAT) de la DAT Collaborative .
Folosind verbe sau uDAPL, pot fi implementate interfețe și protocoale de programare de nivel înalt, în special:
- MPI ( Message Passing Interface ) este un standard popular pentru transmiterea mesajelor în clustere de computere. Există multe implementări MPI care acceptă rețele Infiniband.
- SHMEM , GASnet și alte interfețe RDMA populare
- IPoIB (IP over Infiniband) este un grup de protocoale care descriu transmiterea pachetelor IP prin Infiniband [16] :
- RFC 4390 „Protocol de configurare dinamică a gazdei (DHCP) prin InfiniBand”
- RFC 4391 „Transmiterea IP prin InfiniBand (IPoIB)”
- RFC 4392 „Arhitectură IP peste InfiniBand (IPoIB)”
- SRP ( SCSI RDMA Protocol ) este un protocol de schimb de date între dispozitive SCSI care utilizează RDMA [16] . Definit în ANSI INCITS 365-2002.
- DDP ( Direct Data Placement ): RFC 4296 este o arhitectură pentru implementarea Direct Data Placement (DDP) și Remote Direct Memory Access (RDMA) pe rețelele de internet.
- SDP ( Socket Direct Protocol ) este un protocol pentru stabilirea conexiunilor virtuale și schimbul de date între socluri prin Infiniband [16] , transferul de date nu folosește stiva TCP a sistemului de operare, ci folosește adrese IP și poate folosi IPoIB pentru a le rezolva.
- iSER ( iSCSI Extensions for RDMA ) este un standard IETF pentru adaptarea iSCSI la rețelele RDMA [5]
Istorie
InfiniBand s-a născut în 1999 din fuziunea a două proiecte concurente: Future I/O și Next Generation I/O. În același timp, a fost înființată Asociația Comercială InfiniBand , care includea Compaq , Dell , Hewlett-Packard , IBM , Intel , Microsoft și Sun. [17]
Versiunea 1.0 a specificației InfiniBand, Specificația de arhitectură InfiniBand, a fost lansată în 2000. Inițial, se presupunea că IB ar putea deveni simultan un înlocuitor pentru magistrala PCI lentă pentru I/O, rețele Ethernet, rețele de cluster specializate și Fibre Channel . [18] [19]
Echipamentul Infiniband a fost realizat de: Qlogic , Mellanox , Voltaire , Topspin .
Date principale:
- 2001: Mellanox a început să livreze dispozitive InfiniBridge de 10 Gb/s (4x SDR) și a livrat peste 10.000 de porturi InfiniBand. [douăzeci]
- 2002: Intel a anunțat că, în loc să furnizeze cipuri IB, va dezvolta magistrala PCI Express . Microsoft a încheiat suportul pentru proiect, trecând la extensia Ethernet. Sun și Hitachi au continuat să sprijine IB. [21]
- 2004: IB începe să fie folosit ca o rețea de cluster, oferind o latență mai mică decât rețelele Ethernet. [18] OpenFabrics Alliance dezvoltă o stivă standardizată de software InfiniBand pentru Linux. În anul următor, nucleul Linux primește suport IB. [22]
- 2005: IB este folosit ca o rețea de stocare. [23]
- 2005: Topspin a fost achiziționat de Cisco .
- 2009: Printre Top500 de supercomputere din lume, Gigabit Ethernet a fost folosit în 259 și InfiniBand în 181 de clustere. [24]
- 2010: Liderii pieței Infiniband Mellanox și Voltaire fuzionează [25] [26] . Pe lângă acestea, mai există un producător de dispozitive IB, QLogic , care, totuși, produce mai multe dispozitive Fibre Channel. Oracle face o investiție majoră în Mellanox.
- 2011: Switch-urile și adaptoarele FDR sunt anunțate la Conferința Internațională de Supercomputing . [27]
- 2012: Intel achiziționează tehnologii QLogic legate de InfiniBand. [28] [29] [30]
- 2019: NVIDIA achiziționează Mellanox și devine furnizor exclusiv de soluții bazate pe InfiniBand [31] [32]
Vezi și
Note
- ↑ Vance, Ashlee China strânge titlul de supercomputer din SUA . New York Times (28 octombrie 2010). Preluat la 28 septembrie 2017. Arhivat din original la 27 septembrie 2017. (nedefinit)
- ↑ Dispozitiv de stocare | SFA12KX | DDN (Link indisponibil) . Data accesului: 17 ianuarie 2015. Arhivat din original pe 7 iulie 2017. (nedefinit)
- ↑ Asociația comercială InfiniBand . Consultat la 28 noiembrie 2006. Arhivat din original pe 7 februarie 2006. (nedefinit)
- ↑ Consiliul consultativ HPC-AI - Un centru de sprijin al efortului comunitar pentru utilizatorii finali HPC . Data accesului: 17 ianuarie 2015. Arhivat din original pe 24 septembrie 2015. (nedefinit)
- ↑ 1 2 3 4 http://www.snia.org/sites/default/education/tutorials/2008/spring/networking/Goldenberg-D_InfiniBand_Technology_Overview.pdf Arhivat pe 24 septembrie 2015 la Wayback Machine 2008
- ↑ Fișă informativă FDR InfiniBand . Preluat la 17 ianuarie 2015. Arhivat din original la 26 august 2016. (nedefinit)
- ↑ 1 2 3 Foaia de parcurs InfiniBand: IBTA - Asociația comercială InfiniBand (link nu este disponibil) . Data accesului: 17 ianuarie 2015. Arhivat din original la 29 septembrie 2011. (nedefinit)
- ↑ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf Arhivat 19 august 2019 la Wayback Machine // Mellanox, 2014
- ↑ InfiniBand Too Quick For Ethernet To Kill Arhivat 8 decembrie 2015 la Wayback Machine / The Next Platform, Timothy Prickett Morgan, 2015-04
- ↑ Panda, Dhabaleswar K. Accelerarea vitezei rețelei cu IB și HSE . Proiectarea sistemelor de calcul cloud și grid cu InfiniBand și Ethernet de mare viteză 23. Newport Beach, CA, SUA: CCGrid 2011 (2011). Consultat la 13 septembrie 2014. Arhivat din original la 13 iunie 2020. (nedefinit)
- ↑ Introducere în InfiniBand pentru utilizatorii finali Arhivat 26 septembrie 2014 la Wayback Machine „Conceptul unui TCA nu este implementat pe scară largă astăzi; în schimb, majoritatea dispozitivelor I/O sunt implementate folosind plăci de bază standard pentru servere”
- ↑ Consiliul consultativ HPC-AI - Un centru de sprijin al efortului comunitar pentru utilizatorii finali HPC . Data accesului: 17 ianuarie 2015. Arhivat din original pe 24 septembrie 2015. (nedefinit)
- ↑ Anexa A6: 120 Gb/s 12x Small Form-Factor Pluggable (CXP) Arhivat la 9 ianuarie 2014 la Wayback Machine // Supliment la specificația de arhitectură InfiniBand, volumul 2, ediția 1.2.1, 2009
- ↑ Consiliul consultativ HPC-AI - Un centru de sprijin al efortului comunitar pentru utilizatorii finali HPC . Data accesului: 17 ianuarie 2015. Arhivat din original pe 24 septembrie 2015. (nedefinit)
- ↑ Ron Brightwell, Keith Underwood. Capitolul 6 Interfețe de programare în rețea pentru calcularea de înaltă performanță; 6.3 Interfețe de programare în rețea de nivel scăzut // Atingerea comunicațiilor de înaltă performanță: o abordare verticală / Ada Gavrilovska. - Boca Raton (Florida) : CRC Press, 2009. - S. 152. - 416 p. — ISBN 9781420093131 . Arhivat pe 27 decembrie 2014 la Wayback Machine
- ↑ 1 2 3 Anexa A Concepte InfiniBand Arhivat la 1 august 2014 la Wayback Machine // Ghidul utilizatorului Cisco SFS Product Family Element Manager.
- ↑ Pentakalos, Odysseas O introducere în arhitectura InfiniBand . O'Reilly . Preluat la 28 iulie 2014. Arhivat din original la 9 august 2014. (nedefinit)
- ↑ 1 2 Kim, Ted Scurtă istorie a InfiniBand: Hype to Pragmatism (link indisponibil) . Oracol. Preluat la 28 iulie 2014. Arhivat din original la 8 august 2014. (nedefinit)
- ↑ Understanding PCI Bus, PCI-Express and InfiniBand Architecture Arhivat 24 iulie 2015 la Wayback Machine // Mellanox Whitepaper, 2006: „Atât de mulți membri ai IBTA și IBTA însuși au promovat InfiniBand ca înlocuitor pentru PCI”.
- ↑ Cronologie . Mellanox Technologies. Preluat la 28 iulie 2014. Arhivat din original la 29 noiembrie 2019. (nedefinit)
- ↑ Sun confirmă angajamentul față de InfiniBand . Registrul . Data accesului: 28 iulie 2014. Arhivat din original pe 4 martie 2016. (nedefinit)
- ↑ Linux Kernel 2.6.11 Suportă InfiniBand . Consultat la 29 iulie 2014. Arhivat din original la 21 octombrie 2020. (nedefinit)
- ↑ Este InfiniBand pregătit pentru o revenire? , Infostor Vol . 10(2) , < http://www.infostor.com/index/articles/display/248655/articles/infostor/volume-10/issue-2/news-analysis-trends/news-analysis- trends/is-infiniband-poised-for-a-comeback.html > Arhivat 25 noiembrie 2020 la Wayback Machine
- ↑ Lawson, Stephen Două supercomputere rivale se găsesc pe primul loc (link indisponibil) . LUMEA CALCULATELOR. Consultat la 29 iulie 2014. Arhivat din original la 10 ianuarie 2017. (nedefinit)
- ↑ Mellanox Technologies Arhivat la 3 decembrie 2010 la Wayback Machine .
- ↑ Raffo, Dave Cei mai mari furnizori InfiniBand fuzionează; rețele convergente oculare (link indisponibil) . Consultat la 29 iulie 2014. Arhivat din original la 1 iulie 2017. (nedefinit)
- ↑ Mellanox Demos Souped-Up Version of Infiniband , CIO (20 iunie 2011). Arhivat din original pe 7 ianuarie 2014. Preluat la 1 august 2011.
- ↑ Intel cumpără activele InfiniBand ale QLogic pentru 125 de milioane de dolari Arhivat 25 august 2012 la Wayback Machine . // ZDN.
- ↑ Intel Snaps Up InfiniBand Technology, Linie de produse de la QLogic , HPCwire (23 ianuarie 2012). Arhivat din original pe 27 ianuarie 2012. Preluat la 27 ianuarie 2012.
- ↑ Mellanox ridică din umeri de la Intel InfiniBand buy Arhivat 27 aprilie 2018 la Wayback Machine // The Reg 26 ianuarie 2012
- ↑ Nvidia, sfidând Intel, a absorbit singurul producător de soluții InfiniBand din lume - CNews . Preluat la 12 martie 2019. Arhivat din original la 15 martie 2019. (nedefinit)
- ↑ NVIDIA va achiziționa Mellanox pentru 6,9 miliarde de dolari | Sala de știri NVIDIA . Preluat la 12 martie 2019. Arhivat din original la 11 martie 2019. (nedefinit)
Literatură
- Tom Shanley, Infiniband Network Architecture, Addison-Wesley, 2000, ISBN 0-201-726823 , ISBN 0-201-726823zz (eronat)
- GREGORY F. PFISTER, Chapter 42: An Introduction to the InfiniBand Architecture // High Performance Mass Storage and Parallel I/O: Technologies and Applications - Wiley, 2002, ISBN 978-0-471-20809-9 , paginile 617-632.
Link -uri
Autobuze și interfețe pentru computer |
---|
Noțiuni de bază |
|
---|
Procesoare |
|
---|
Intern |
|
---|
laptopuri |
|
---|
Unități |
|
---|
Periferie |
|
---|
Managementul echipamentelor |
|
---|
universal |
|
---|
Interfețe video |
|
---|
Sisteme integrate |
|
---|