InfiniBand

Versiunea actuală a paginii nu a fost încă examinată de colaboratori experimentați și poate diferi semnificativ de versiunea revizuită pe 10 iulie 2019; verificările necesită 13 modificări .

Infiniband (uneori prescurtat IB ) este o rețea de calculatoare comutată de mare viteză utilizată în calculul de înaltă performanță, care are o lățime de bandă foarte mare și o latență scăzută. Folosit și pentru conexiunile interne în unele sisteme informatice. Începând cu 2014, Infiniband a fost cea mai populară rețea pentru supercomputere . Controlerele Infiniband ( adaptorul magistralei gazdă ) și comutatoarele de rețea sunt produse de Mellanox și Intel . La crearea Infiniband, scalabilitatea a fost integrată în el, rețeaua folosește o topologie de rețea bazată pe comutatoare ( Switched fabric ).

Ca o rețea de comunicații pentru clustere , Infiniband concurează cu grupul de standarde Ethernet și cu tehnologiile proprietare [1] precum Cray și IBM. Atunci când construiesc rețele de calculatoare, IB concurează cu Gigabit Ethernet , 10 Gigabit Ethernet și 40/100 Gigabit Ethernet . IB este, de asemenea, utilizat pentru a conecta dispozitive de stocare a informațiilor DAS . [2] Dezvoltarea și standardizarea tehnologiilor Infiniband sunt gestionate de Asociația Comercială InfiniBand[3] .

Scurtă descriere

La fel ca multe autobuze moderne , cum ar fi PCI Express , SATA , USB 3.0 , Infiniband folosește perechi diferențiale pentru a transporta semnale seriale. Cele două perechi alcătuiesc împreună o magistrală serială bidirecțională de bază ( bandă ang.  ), notat 1x. Viteza de bază este de 2,5 Gbps în fiecare direcție. Porturile Infiniband constau dintr-o singură magistrală sau grupuri agregate de magistrale bidirecționale de bază de 4x sau 12x. Cele mai utilizate porturi sunt 4x [4] .

Pentru porturi, există mai multe moduri de transfer de date pe autobuze. Modurile anterioare foloseau codificarea 8B/10B [5] pentru a echilibra semnalul (fiecare 8 biți de date sunt transferați pe magistrală ca 10 biți) cu o supraîncărcare de 20%:

Pornind de la modul FDR-10, se folosește o codificare 64B/66B mult mai economică :

Scopul principal al Infiniband este conexiunile inter-server, inclusiv pentru organizarea RDMA ( Remote Direct Memory Access ).

Performanţă
Generaţie: SDR DDR QDR FDR-10 FDR EDR HDR NDR
Debit efectiv, Gbps, per 1x magistrală [7] 2 patru opt zece paisprezece 25 cincizeci 100
Viteze efective pentru autobuze 4x și 12x, Gbps 8, 24 16, 48 32, 96 41,25, 123,75 54,54, 163,64 100, 300 200, 600 400,

1200

Codificare (bit) 8/10 8/10 8/10 64/66 64/66 64/66 64/66 64/66
Întârzieri tipice, µs [8] [9] 5 2.5 1.3 0,7 0,7 0,5
Anul apariției [10] 2001,
2003
2005 2007 2011 2014 [7] ~2017 [7] mai tarziu 2020

Topologie și conexiuni

InfiniBand folosește un mediu comutat cu conexiuni punct-la-punct, spre deosebire de rețelele Ethernet timpurii care foloseau un mediu partajat și, inițial, o conexiune de magistrală. Toate transmisiile încep și se termină la adaptorul de canal. Fiecare nod de calcul conține un adaptor HCA (adaptor canal gazdă) conectat la procesor prin interfața PCI Express (anterior prin PCI-X ). Datele și informațiile de control sunt trimise între adaptoare, inclusiv cele necesare pentru implementarea QoS .

Pentru dispozitivele periferice, se presupunea utilizarea adaptoarelor TCA (adaptorul canalului țintă), dar acestea nu au câștigat distribuție, iar astfel de dispozitive periferice sunt create pe baza plăcilor de bază standard [11] .

Adaptoarele HCA au de obicei unul sau două porturi 4x, care pot fi conectate fie la aceleași porturi HCA și TCA, fie la comutatoare (switch-uri). Switch-urile pot fi organizate în rețele cu topologii fat tree ( Fat Tree ), Close Network , mai rar - tor multidimensional, stea dublă și în diverse combinații hibride [5] [12] .

Porturile și cablurile Infiniband 4x vin în următorii factori de formă:

Porturile 12x mai rare vin sub formă de factori:

Pentru a asigura debitul maxim, a fost luată decizia de a limita lungimea permisă a cablului InfiniBand la 10 metri (numai cablul activ).

Cablurile Infiniband sunt disponibile în diferite modele:

De asemenea, atunci când utilizați adaptoare universale Infiniband/Ethernet într-o infrastructură Ethernet, pot fi utilizate adaptoare pentru porturile SFP+.

Semnalele Infiniband pot parcurge câțiva centimetri peste plăcile de circuite imprimate, inclusiv prin conectori interni cu răspuns în frecvență adecvat, atâta timp cât toate perechile dintr-un port au aproape aceeași lungime.

Protocoale și API-uri

La nivel de legătură de date, InfiniBand transmite date sub formă de pachete de până la 4 KB (kiloocteți) lungime, care, după combinare, formează un mesaj. Unele dispozitive acceptă o dimensiune maximă de pachet mai mică, cum ar fi 2 KB. Tipuri de mesaje:

Mesajele Infiniband sunt împărțite în servicii în funcție de garanțiile de livrare și de necesitatea inițializării conexiunii înainte de schimb:

Infiniband vă permite să utilizați principiul RDMA ( English  Remote Direct Memory Access  - acces direct la memorie la distanță), în care transferul de date din memoria unui computer la distanță în memoria locală a solicitantului este efectuat direct de controlerul de rețea, în timp ce participarea CPU-ului nodului la distanță este exclusă. RDMA permite transferul datelor fără tamponare suplimentară și nu necesită operarea activă a sistemului de operare, biblioteci sau aplicație pe nodul a cărui memorie este accesată.

Infiniband poate fi utilizat cu două API-uri generice de nivel scăzut care au fost dezvoltate de la U-Net (Cornell, mijlocul anilor 1990) și VIA ( Virtual Interface Architecture , sfârșitul anilor 1990) [15] :

Folosind verbe sau uDAPL, pot fi implementate interfețe și protocoale de programare de nivel înalt, în special:

Istorie

InfiniBand s-a născut în 1999 din fuziunea a două proiecte concurente: Future I/O și Next Generation I/O. În același timp, a fost înființată Asociația Comercială InfiniBand , care includea Compaq , Dell , Hewlett-Packard , IBM , Intel , Microsoft și Sun. [17]

Versiunea 1.0 a specificației InfiniBand, Specificația de arhitectură InfiniBand, a fost lansată în 2000. Inițial, se presupunea că IB ar putea deveni simultan un înlocuitor pentru magistrala PCI lentă pentru I/O, rețele Ethernet, rețele de cluster specializate și Fibre Channel . [18] [19]

Echipamentul Infiniband a fost realizat de: Qlogic , Mellanox , Voltaire , Topspin .

Date principale:

Vezi și

Note

  1. Vance, Ashlee China strânge titlul de supercomputer din SUA . New York Times (28 octombrie 2010). Preluat la 28 septembrie 2017. Arhivat din original la 27 septembrie 2017.
  2. Dispozitiv de stocare | SFA12KX | DDN (Link indisponibil) . Data accesului: 17 ianuarie 2015. Arhivat din original pe 7 iulie 2017. 
  3. Asociația comercială InfiniBand . Consultat la 28 noiembrie 2006. Arhivat din original pe 7 februarie 2006.
  4. Consiliul consultativ HPC-AI - Un centru de sprijin al efortului comunitar pentru utilizatorii finali HPC . Data accesului: 17 ianuarie 2015. Arhivat din original pe 24 septembrie 2015.
  5. 1 2 3 4 http://www.snia.org/sites/default/education/tutorials/2008/spring/networking/Goldenberg-D_InfiniBand_Technology_Overview.pdf Arhivat pe 24 septembrie 2015 la Wayback Machine 2008
  6. Fișă informativă FDR InfiniBand . Preluat la 17 ianuarie 2015. Arhivat din original la 26 august 2016.
  7. 1 2 3 Foaia de parcurs InfiniBand: IBTA - Asociația comercială InfiniBand (link nu este disponibil) . Data accesului: 17 ianuarie 2015. Arhivat din original la 29 septembrie 2011. 
  8. http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf Arhivat 19 august 2019 la Wayback Machine // Mellanox, 2014
  9. InfiniBand Too Quick For Ethernet To Kill Arhivat 8 decembrie 2015 la Wayback Machine / The Next Platform, Timothy Prickett Morgan, 2015-04
  10. Panda, Dhabaleswar K. Accelerarea vitezei rețelei cu IB și HSE . Proiectarea sistemelor de calcul cloud și grid cu InfiniBand și Ethernet de mare viteză 23. Newport Beach, CA, SUA: CCGrid 2011 (2011). Consultat la 13 septembrie 2014. Arhivat din original la 13 iunie 2020.
  11. Introducere în InfiniBand pentru utilizatorii finali Arhivat 26 septembrie 2014 la Wayback Machine „Conceptul unui TCA nu este implementat pe scară largă astăzi; în schimb, majoritatea dispozitivelor I/O sunt implementate folosind plăci de bază standard pentru servere”
  12. Consiliul consultativ HPC-AI - Un centru de sprijin al efortului comunitar pentru utilizatorii finali HPC . Data accesului: 17 ianuarie 2015. Arhivat din original pe 24 septembrie 2015.
  13. Anexa A6: 120 Gb/s 12x Small Form-Factor Pluggable (CXP) Arhivat la 9 ianuarie 2014 la Wayback Machine // Supliment la specificația de arhitectură InfiniBand, volumul 2, ediția 1.2.1, 2009
  14. Consiliul consultativ HPC-AI - Un centru de sprijin al efortului comunitar pentru utilizatorii finali HPC . Data accesului: 17 ianuarie 2015. Arhivat din original pe 24 septembrie 2015.
  15. Ron Brightwell, Keith Underwood. Capitolul 6 Interfețe de programare în rețea pentru calcularea de înaltă performanță; 6.3 Interfețe de programare în rețea de nivel scăzut // Atingerea comunicațiilor de înaltă performanță: o abordare verticală / Ada Gavrilovska. - Boca Raton (Florida) : CRC Press, 2009. - S. 152. - 416 p. — ISBN 9781420093131 . Arhivat pe 27 decembrie 2014 la Wayback Machine
  16. 1 2 3 Anexa A Concepte InfiniBand Arhivat la 1 august 2014 la Wayback Machine // Ghidul utilizatorului Cisco SFS Product Family Element Manager.
  17. Pentakalos, Odysseas O introducere în arhitectura InfiniBand . O'Reilly . Preluat la 28 iulie 2014. Arhivat din original la 9 august 2014.
  18. 1 2 Kim, Ted Scurtă istorie a InfiniBand: Hype to Pragmatism (link indisponibil) . Oracol. Preluat la 28 iulie 2014. Arhivat din original la 8 august 2014. 
  19. Understanding PCI Bus, PCI-Express and InfiniBand Architecture Arhivat 24 iulie 2015 la Wayback Machine // Mellanox Whitepaper, 2006: „Atât de mulți membri ai IBTA și IBTA însuși au promovat InfiniBand ca înlocuitor pentru PCI”.
  20. Cronologie . Mellanox Technologies. Preluat la 28 iulie 2014. Arhivat din original la 29 noiembrie 2019.
  21. Sun confirmă angajamentul față de InfiniBand . Registrul . Data accesului: 28 iulie 2014. Arhivat din original pe 4 martie 2016.
  22. Linux Kernel 2.6.11 Suportă InfiniBand . Consultat la 29 iulie 2014. Arhivat din original la 21 octombrie 2020.
  23. Este InfiniBand pregătit pentru o revenire? , Infostor Vol . 10(2) , < http://www.infostor.com/index/articles/display/248655/articles/infostor/volume-10/issue-2/news-analysis-trends/news-analysis- trends/is-infiniband-poised-for-a-comeback.html > Arhivat 25 noiembrie 2020 la Wayback Machine 
  24. Lawson, Stephen Două supercomputere rivale se găsesc pe primul loc (link indisponibil) . LUMEA CALCULATELOR. Consultat la 29 iulie 2014. Arhivat din original la 10 ianuarie 2017. 
  25. Mellanox Technologies Arhivat la 3 decembrie 2010 la Wayback Machine .
  26. Raffo, Dave Cei mai mari furnizori InfiniBand fuzionează; rețele convergente oculare (link indisponibil) . Consultat la 29 iulie 2014. Arhivat din original la 1 iulie 2017. 
  27. Mellanox Demos Souped-Up Version of Infiniband , CIO (20 iunie 2011). Arhivat din original pe 7 ianuarie 2014. Preluat la 1 august 2011.
  28. Intel cumpără activele InfiniBand ale QLogic pentru 125 de milioane de dolari Arhivat 25 august 2012 la Wayback Machine . // ZDN.
  29. Intel Snaps Up InfiniBand Technology, Linie de produse de la QLogic , HPCwire  (23 ianuarie 2012). Arhivat din original pe 27 ianuarie 2012. Preluat la 27 ianuarie 2012.
  30. Mellanox ridică din umeri de la Intel InfiniBand buy Arhivat 27 aprilie 2018 la Wayback Machine // The Reg 26 ianuarie 2012
  31. Nvidia, sfidând Intel, a absorbit singurul producător de soluții InfiniBand din lume - CNews . Preluat la 12 martie 2019. Arhivat din original la 15 martie 2019.
  32. NVIDIA va achiziționa Mellanox pentru 6,9 miliarde de dolari | Sala de știri NVIDIA . Preluat la 12 martie 2019. Arhivat din original la 11 martie 2019.

Literatură

Link -uri