StorageReview odzyskało prestiżową koronę obliczeniową obliczając π do zadziwiających 314 bilionów cyfr, łamiąc poprzedni rekord świata.Współczesny wyścig o precyzję π przekształcił się z początkowych eksperymentów z chmurą w pełnowymiarowy pokaz umiejętności infrastruktury i pomysłowości inżynieryjnej.
W 2022 roku Google Cloud znalazło się na pierwszych stronach gazet, obliczając π do 100 bilionów cyfr.Projekt zużył dziesiątki petabytów danych I/OW tym czasie ten kamień milowy stanowił ostateczny punkt odniesienia dla górnych limitów, jakie można osiągnąć w przypadku tradycyjnej infrastruktury.
Na początku 2024 roku zmodernizowaliśmy nasz system, aby ustanowić nowy rekord 105 bilionów cyfr, obsługiwany przez prawie 1 petabajt SSD Solidigm QLC.To osiągnięcie ustanowiło nowy punkt odniesienia w skaliKilka miesięcy później przesunęliśmy granice jeszcze dalej do 202 trylionów cyfr.Ten przełom potwierdził, że pamięć flash o wysokiej gęstości, w połączeniu z skrupulatnym dostosowaniem systemu, może przewyższać infrastrukturę chmury hiperskałowej w tym bardzo wymagającym obciążeniu pracą.
Linus Media Group i KIOXIA następnie zdobyły tytuł, obliczając π do 300 bilionów cyfr.Ich konfiguracja opierała się na dużym zbiorniku pamięci masowej Weka wyposażonym w 2PB pamięci flash.Podczas gdy to wykazało potencjał tradycyjnej infrastruktury o dużej ilości magazynowania, wiązało się to ze znaczącymi kompromisami: pełnym rackem sprzętu, znacznym zużyciem energii,i złożone wymagania chłodzeniaByliśmy zdeterminowani, by ten rekord nie pozostał bezkontrowersyjny.
Dziś, StorageReview z dumą ogłasza nasze nowe zwycięstwo: π obliczone na 314 trylionów cyfr.wyposażony w podwójny procesor AMD EPYC o 192 rdzeniach i czterdzieści jeden 61.44TB Mikron 6550 Ion SSD. Skończyliśmy budowę i dostosowanie systemu w lipcu, rozpoczynając bieg obliczeniowy 31 lipca 2025./który sprawia, /że ten nowy rekord /wysokiej wydajności obliczeniowej (HPC) /jest jeszcze bardziej aktualny..
Skalizowanie y-cruncher do 314 bilionów cyfr
Gdy skala obliczeniowa przekroczy setki bilionów cyfr, y-cruncher przekształci się z tradycyjnego punktu odniesienia w wyczerpujący test stresu infrastruktury na długie dystansy.Podstawowa logika programu pozostaje prosta., ale jego interakcja z sprzętem w tej skali staje się decydującym czynnikiem.Cała operacja opiera się na zdolności systemu do utrzymania tysięcy operacji wieloprecyzyjnych bezproblemowo bez zatrzymania procesorów lub przytłaczania warstwy pamięci masowejW rzeczywistości, ten nowy rekord został naprawdę wygrany w warstwie magazynowej.
Wdrożyliśmy 40 Mikron 6550 Ion Gen5 NVMe SSD, z których 34 przeznaczone są wyłącznie do uruchamiania y-cruncher.Dając y-cruncherom wystarczającą ilość pamięci, potrzebną do obliczania i przetwarzania 314 bilionów cyfr π.Pozostałe 6 dysków SSD jest skonfigurowanych w oprogramowaniu RAID10, specjalnie wykorzystywane do przechowywania ostatecznych 314 bilionów cyfr wyników.
Poprawy w projektowaniu między 16 a 17 generacją serwerów Dell PowerEdge odegrały również kluczową rolę w zwiększeniu wydajności w tym rekordowym 314-bilionowym wyścigu.Nasza poprzednia próba 202 trylionów cyfr użyła 24-bay Dell PowerEdge R760W przeciwieństwie do serwerów PowerEdge 17th generacji, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge, w przypadku serwerów PowerEdge.takie jak Intel-based R770 i AMD-based R7725, wyposażone są w płaszczyznę tylną o konstrukcji tylko do bezpośredniego połączenia, oferującą 2 lub 4 pasy PCIe na przejście.
PowerEdge R7725, wyposażony w 40-bay Gen5 E3.S backplane, zapewnia 2 pasy PCIe na slot SSD.Platforma nadal może dostarczać imponujące prędkości: maksymalnie 280 GB/s jednoczesnego odczytu i zapisu, gdy wszystkie 40 pól jest w pełni wykorzystanych.
Wykorzystując wewnętrzny benchmark pamięci masowej y-cruncher, mierzyliśmy wydajność pamięci masowej każdej platformy w jej odpowiedniej konfiguracji.obserwowaliśmy poprawę wydajności magazynowania w zakresie od 72% do 383%, z dobrze zbilansowanymi wskaźnikami odczytu i zapisu, które umacniają przewagę serwera PowerEdge 17 generacji w obliczeniach o wysokiej intensywności pamięci masowej.
| Metryczny | System 202T (stary zapis) | System 314T (nowy rekord) | Różnica procentowa (314T vs 202T) |
|---|---|---|---|
| Pisanie sekwencyjne | 470,0 GiB/s | 107 GiB/s | +127,7% |
| Czytanie sekwencyjne | 560,7 GiB/s | 127 GiB/s | +124,0% |
| Wpisany próg | 62.2 GiB/s | 107 GiB/s | +72,0% |
| Przeczytanie prógów | 200,9 GiB/s | 101 GiB/s | +383,3% |
Dell PowerEdge R7725 jest czymś więcej niż tylko centrem pamięci masowej. Świeci jasno jako dwu-złotowa platforma AMD Turin z wyjątkowym potencjałem obliczeniowym.Wyposażyliśmy nasz system w 192-rdzeniowy procesor AMD EPYC 9965Aby osiągnąć tę wydajność, zmodernizowaliśmy rozwiązanie chłodzenia powietrzem na płytki chłodzące CoolIT SP5,chłodzony przez CoolIT AHx10 Liquid-to-Air CDU (Unit Distribution Coolant).
Ta strategiczna modernizacja chłodzenia przyniosła trzy kluczowe zalety: umożliwiła procesorom utrzymanieutrzymywane wysokie prędkości zegarowe, utrzymywał wentylatory podwozia serwera na niezwykle niskim30% PWM(Pulse Width Modulation) i zapewnił, że średnie zużycie energii systemu pozostaje stałe na poziomie około1,600W.
Optymalizacja oprogramowania i systemu
W przypadku warstwy oprogramowania, odstąpiliśmy od poprzednich praktyk, wybierającUbuntu 24.04.2 Serwer LTSDecyzja ta okazała się pomocna w maksymalizacji stabilności systemu i odblokowaniu znaczących zysków w wydajności obciążenia.
Przed rozpoczęciem rekordowego uruchomienia, przeprowadziliśmy rygorystyczne iteracje testów i dopasować konfigurację.4 z 384 dostępnych rdzeniW rezultacie nie tylko pokonaliśmy poprzedni rekord pi.Zniszczyliśmy go.Nasz bieg jest niezrównany pod względem wydajności, efektywności energetycznej i, co najbardziej imponujące, bezbłędnej niezawodności.Jesteśmy wyjątkowo dumni z tego, że jesteśmy jedyną wielkoskalową próbą zdobycia światowego rekordu pizerowy czas przestoju; obliczenia przebiegały bezproblemowo od początku do końca, bez konieczności ponownego rozpoczęcia.
Rekordowa wydajność energetyczna
Podstawową zasadą każdej próby zapisu pi w StorageReview jest zminimalizowanie złożoności systemu i optymalizacja efektywności energetycznej.Poprzedni rekord 300T opierał się na rozproszonym klastrze pamięci masowej z siecią wysokiej prędkości, co wymagało większych budżetów na energię i chłodzenie.
Podejmowaliśmy zupełnie inne podejście.ekstremalna gęstość przechowywania, skonsolidowaliśmy zarówno przestrzeń swapową, jak i trwałe przechowywanie wyników na jednym serwerze 2U. Ten wybór architektoniczny był kluczowy w drastycznym zmniejszeniu całkowitej mocy i chłodzenia.
W trakcie całego 314 bilionowego obliczenia, nasz Dell PowerEdge R7725 zużył łącznie4,3040,662 kWhTo jest niezwykłe.130,70 kWh na bilion cyfr/Przeznaczamy nasze rozwiązanie do najbardziej energooszczędnych obliczeń na dużą skalę, jakie kiedykolwiek wykonano.podejście pojedynczego serwera i zasilania głodna metoda rozproszone klastra jest natychmiast jasne, jak podkreślono w poniższej tabeli porównawczej.
| Uciekaj! | Całkowita ilość kWh | Koszt @ $0,12/kWh | Koszt @ 0,20 USD/kWh |
|---|---|---|---|
| 300T Weka Cluster Run | 33,600 kWh (est.) | 4 dolary.032 | 6 dolarów.720 |
| 314T Wykonanie pojedynczego serwera | 4,3040,662 kWh | $517 | 861 dolarów |
Ważne jest, aby podkreślić, że podczas naszych 314 bilionów cyfr obliczeń, wykorzystywaliśmy dyski SSD w konfiguracji JBOD (Just a Bunch of Disks), która nie obejmuje wbudowanej odporności danych.Decyzja ta została podjęta w oparciu o dwa podstawowe priorytetyOptymalizacja zużycia energii i maksymalizacja ogólnej wydajności systemu.Rozpoczęła się również ważna rozmowa na temat dostosowania rozwiązań magazynowych do specyficznych wymagań obciążenia pracy.Każde obciążenie pracą jest unikalne.Niektóre z nich można ponownie uruchomić z minimalnym wpływem na operacje i dlatego nie wymagają tak wysokiego poziomu tolerancji błędów, jak zadania krytyczne dla misji.Skoncentrowaliśmy się na zabezpieczeniu końcowego wyjścia danych poprzez tradycyjne oprogramowanie RAID, zapewniając integralność rekordowych cyfr π bez narażania efektywności systemu.
110 dni bez przerwy
Pomimo obliczenia większej liczby cyfr niż jakakolwiek poprzednia próba zapisu π, czas pracy zegara ściennego był znacznie krótszy niż poprzedni punkt odniesienia.Poprzedni 300 bilionowy rekord wymagał około 225 dni całkowitych, co odpowiada 175 dniom obliczeniowym, nie licząc przestojów.W przeciwieństwie do tego, nasza 314 bilionowa liczba osiągnęła pełne 110 dni nieprzerwanej pracy.solidny i stabilny system operacyjny, zminimalizowane obciążenie tła w celu uniknięcia ograniczenia zasobów, zrównoważona topologia NUMA (Niejednolity dostęp do pamięci) dla optymalnej komunikacji CPU-pamięć,i zestaw scratch specjalnie zaprojektowany do obsługi unikalnych wzorców dostępu do danych generowanych przez y-cruncher w tej bezprecedensowej skali.
Najważniejsze informacje techniczne
- Łączna liczba liczb obliczona314000,000,000,000
- Stosowane sprzęt: Dell PowerEdge R7725 z 2x procesorami AMD EPYC 9965, 1.5TB DDR5 DRAM, 40x Micron 61.44TB 6550 Ion
- Oprogramowanie i algorytmy/Y-Cruncher v0.8.6.9545Chudnowski.
- SSD Wear na SMART: 7,3PB zapisane na dysk lub 249,11PB na 34 dyskach SSD używanych do swapu
- Logicznie największy punkt kontroli: 850,538,385,064,992 (774 TiB)
- Logiczny szczyt użycia dysku: 1,605,960,520,6361,43 PiB)
- Odczytywanie bajtów dysku logicznego: 148356,635,606,263,504 (132 PiB)
- Pisanie bajtów dysku logicznego: 126,658,805,195,776,600 (112 PiB)
- Data rozpoczęciaW czwartek 31 lipca 17:1600:01 2025
- Data zakończeniaWtorek 18 listopada.57:08 2025
- Pi:8793223.144 sekundy, 101.773 dni
- Całkowity czas obliczania9274878.580 sekund
- Czas ściany od początku do końca/ 9463226.454 sekundy
Zakończenie
Przez dziesięciolecia skrajne obliczenia π służyły jako pokaz umiejętności obliczeniowych, a "wielkie żelazo" każdej epoki zajmuje centralną pozycję.Wczesne zapisy opierały się na wysokiej wydajności desktopach i zewnętrznych dyskach pamięci masowejW ostatnim czasie wyścig przeniósł się na chmurę, a w tym roku wprowadzono nowe rozwiązania.gdzie inicjatywy takie jak Google's 100-trillion-digit run wykazały, że brutalna siła z tysiącami instancji i ogromną przepustowością I/O może zapewnić rekordNastępnie nastąpiło powstanie dużych klastrów z dzielonym magazynem, priorytetowo traktujących surowy równoległość niż prostotę, ale kosztem znacznego zużycia energii i złożonych wymagań chłodzenia.
Nasza podróż przebiegła w odwrotnej kierunku: podczas kolejnych rekordów traktowaliśmy obciążenie procesorem y-cruncher jako krytyczne, długodystansowe zadanie HPC, a nie jednorazowy numer.Kampanie 105T i 202T miały kluczowe znaczenie w identyfikacji głównych wąskich gardeł: optymalizacja zdolności magazynowania, zapewnienie stałego obciążenia procesora bez przytłaczania warstwy I/O oraz twardnienie systemu w celu zapewnienia niezawodnej wydajności przez wiele miesięcy.Wyścig 314T jest kulminacją tej ciężko zdobytej wiedzy.Jest to nie tylko większa liczba, ale równieżbardziej dojrzały, produkcyjny projekt.
Złamaliśmy barierę 300 trylionów cyfr na jednym 2U Dell PowerEdge R7725, wyposażonym w 40 mikronów 6550 Ion SSD i podwójnych 192-rodzowych procesorów AMD EPYC.System działał bezbłędnie przez 110 kolejnych dni.Przepustowość pamięci przechowywalnej ponad dwukrotnie wzrosła w porównaniu z platformą 202T, ale serwer utrzymywał skromne średnie zużycie energii wynoszące 1,600 W, przy całkowitym zużyciu energii zaledwie 4 305 kWh. Oznacza to niezwykle wydajne 13,70 kWh na bilion cyfr, czyli ułamek szacunkowej mocy zużytej przez poprzedni klaster o pojemności 300 T.W skrócie., osiągnęliśmy więcej pracy z mniejszą liczbą węzłów, mniejszą złożonością i niższymi kosztami energii.
Jeśli jeden komercyjny serwer 2U może utrzymać tak duże obciążenie z taką niezawodnością i wydajnością,Te same zasady architektoniczne przekładają się bezpośrednio na rzeczywiste obliczenia naukowe.Długotrwałe modele klimatyczne, precyzyjne symulacje fizyki, przewodniki genomowe i duże szkolenia w zakresie sztucznej inteligencji zależą od tych samych podstawowych elementów: zrównoważonej wydajności I/O,przewidywalne zarządzanie cieplneNasza platforma udowodniła, że może spełniać te podstawowe wymagania w najbardziej wymagających warunkach.
Pekin Qianxing Jietong Technology Co., Ltd.
Sandy Yang, dyrektor ds. strategii globalnej
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Strona internetowa: www.qianxingdata.com/www.storagesserver.com
Sandy Yang, dyrektor ds. strategii globalnej
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Strona internetowa: www.qianxingdata.com/www.storagesserver.com
Skoncentruj się na biznesie:
Dystrybucja produktów ICT/Integracja systemów i usługi/Rozwiązania infrastrukturalne
Dzięki ponad 20-letniemu doświadczeniu w dystrybucji IT współpracujemy z wiodącymi światowymi markami w celu dostarczania niezawodnych produktów i profesjonalnych usług.
Używanie technologii do budowy inteligentnego świata•Twój zaufany dostawca usług produktów ICT!



