NAND jest istotnym elementem przyszłości elektroniki. Jest wszędzie, zwiększając pojemność pamięci masowej, wydajność i efektywność energetyczną wszystkiego, od serwerów w centrach danych po najmniejsze urządzenia mobilne – takie jak telefonydrony, kamery i inne urządzenia przenośne.
W miarę jak te systemy i urządzenia elektroniczne będą dodawać więcej funkcji i wykonywać bardziej złożone zadania, takie jak sztuczna inteligencja, potrzeby w zakresie przechowywania danych będą nadal rosły, co sprawi, że pamięć flash NAND stanie się kluczowym elementem przyszłych innowacji.
W rezultacie trwa wyścig w budowaniu pamięci NAND o większej pojemności, lepszej wydajności i niższej mocy. Wiele osób uważa, że jedynym rozwiązaniem jest zwiększenie liczby warstw. Prawda jest jednak taka, że istnieje wiele wektorów innowacji NAND, a wyższa liczba warstw nie jest jedynym sposobem na zwiększenie liczby bitów flash NAND i składowanie pojemność.
Nowa era pamięci NAND oznacza okres zmian, w którym wyścig skupiony na warstwach jest już za nami. Nacisk przesuwa się w kierunku strategicznego zgrania czasu wprowadzenia nowych, trwalszych węzłów zoptymalizowanych pod kątem konkretnych przypadków użycia i zastosowań. Nie wszystkie aplikacje potrzebujesz najnowszego węzła o najwyższej pojemności i wydajności. Zwiększanie gęstości każdej warstwy zamiast prostego układania kolejnych warstw zwiększa efektywność energetyczną, wydajność i pojemność, jednocześnie zarządzając kosztami zgodnie z konkretnymi potrzebami klientów.
Starszy wiceprezes ds. inżynierii rozwojowej w Western Digital.
Tradycyjne skalowanie pionowe
„Wyścig warstw” to pogląd, że więcej warstw oznacza większą gęstość bitową i pojemność, co prowadzi do przewagi kosztowej – dlatego NAND z największą liczbą warstw musi być najlepszy. Ale dzięki 3D NAND nie jest to już takie proste.
Skalowanie pamięci NAND przypomina zwiększanie pojemności w hotelu. Samo dodanie większej liczby pięter może wydawać się dobrym pomysłem, należy jednak pamiętać, że rozbudowa prowadzi do wzrostu kosztów operacyjnych i złożoności, w tym kosztów zakupu i przenoszenia sprzętu, budowy pięter itp. W pewnym momencie zyski z inwestycji maleją. dodanie kolejnych pięter. Intuicyjnie proporcjonalna redukcja kosztów wynikająca z dodania dziesięciu pięter do stupiętrowego budynku jest lepsza niż dodanie tej samej liczby pięter do pięciostupiętrowego budynku. Jednak kapitał niezbędny do dodania dodatkowej kwoty może być wyższy, aby zbudować dodatkowe 10 pięter na szczycie pięćsetpiętrowego budynku.
Zagęszczenie każdego piętra poprzez zmniejszenie pomieszczeń i efektywniejsze wykorzystanie przestrzeni może zapewnić taki sam wzrost obłożenia w znacznie bardziej wydajny i opłacalny sposób.
Ta sama logika dotyczy architektury NAND. Samo dodanie warstw NAND jedna na drugiej może nie być jedynym sposobem na zbudowanie większej liczby bitów lub pojemności. Podobnie jak podłogi w hotelu, zbudowanie użytecznej pamięci NAND staje się droższe i trudniejsze w miarę wzrostu liczby warstw. Na przykład układanie warstw prowadzi do wydłużenia czasu przetwarzania, co stanowi dodatkowy kapitał na zaawansowane narzędzia potrzebne do zapewnienia niezawodnej produkcji matrycy NAND o wysokiej jakości.
Inteligentniejsze skalowanie dzięki wykorzystaniu wielu wektorów
Chociaż liczba warstw będzie nadal rosła, nie jest to już główny czynnik stymulujący innowacje. Zamiast tego innowacja obejmuje wiele wektorów, a oprócz skalowania pionowego istnieją inne sposoby skalowania architektury NAND, w tym metody skalowania bocznego, logicznego i skalowania architektury.
Skalowanie boczne polega na pakowaniu każdej pojedynczej warstwy pamięci i usuwaniu niektórych zbędnych struktur pomocniczych. To jakby wcisnąć więcej pokoi na to samo piętro pokoju hotelowego lub zmniejszyć liczbę schodów i wind w budynku. Na przykład rozpoczęcie od skalowania bocznego pozwala zoptymalizować dostępną przestrzeń przed dodaniem kolejnej warstwy. To etapowe podejście jest znacznie bardziej wydajne, pozwala zaoszczędzić koszty i jednocześnie zmniejszyć ryzyko. Umożliwia także klientom osiągnięcie określonego poziomu wydajności we właściwym czasie, przy stałej dostawie i jakości. A kiedy zostanie podjęta decyzja o dodaniu większej liczby warstw, korzyści zostaną zwielokrotnione przez zwiększoną wydajność dodanych warstw.
Skalowanie logiczne zwiększa liczbę bitów logicznych, które można przechowywać na urządzeniu fizycznym. W scenariuszu z pokojem hotelowym przypominałoby to wciśnięcie większej liczby gości do tego samego pokoju hotelowego bez powodowania zakłóceń.
Wreszcie, architektura skalowanie optymalizuje sposób, w jaki obwody obsługują macierze pamięci – na przykład umieszczając obwody obok macierzy, umieszczając je pod spodem lub być może wdrażając na osobnej płytce. W hotelu może to być miejsce parkingowe dla potrzebnych gości – z boku budynku, pod lub nad budynkiem (oczywiście z ekonomicznym sposobem transportu samochodów powietrznych).
Połączenie wszystkich czterech
Podejście wykorzystujące kombinację wszystkich czterech wektorów skalowania jest znacznie mądrzejszym sposobem na zwiększenie liczby bitów NAND bez poświęcania wydajności i efektywności energetycznej w najszerszym zakresie zastosowań i urządzeń. Dodatkową korzyścią jest optymalizacja redukcji kosztów między węzłami i minimalizacja kapitału potrzebnego na przejścia.
I choć technologia NAND jest złożona, procesy produkcyjne, w wyniku których powstają wydajne węzły NAND, a ostatecznie produkty, są jeszcze bardziej złożone. Warunki te pogarszają dynamika podaży i popytu w nadchodzącej epoce, w której nowe aplikacje, zwłaszcza sztuczna inteligencja, znacznie zwiększą zapotrzebowanie na rozwiązania oparte na pamięci flash wymagające dużej mocy obliczeniowej i pamięci masowej.
Na przykład ta struktura cyklu danych AI pokazuje korzystny cykl, w którym pamięć masowa zasila modele sztucznej inteligencji, a sztuczna inteligencja w zamian wymaga więcej pamięci. Ten cykl danych AI będzie znaczącym czynnikiem wzrostu w branży pamięci masowych.
Wydajność, moc i pojemność
Wydajność, moc i pojemność odgrywają główną rolę na każdym etapie, ponieważ każdy etap wymaga czegoś innego. Podczas gdy początkowe etapy wymagają ogromnej pojemności, aby pomieścić jak najwięcej danych do uczenia modelu, w miarę jak dane przechodzą przez cykl, ważniejszymi czynnikami mogą być szybkość i wydajność. A moc staje się coraz bardziej krytycznym czynnikiem w każdym zastosowaniu sztucznej inteligencji.
W nowej erze NAND ścieżki migracji węzłów NAND powinny również opierać się na potrzebach klienta, a nie na uniwersalnym podejściu z przeszłości.
Różne potrzeby różnych klientów zaczynają się rozdzielać, a rola dostawców NAND w zaspokajaniu tych potrzeb staje się coraz bardziej interesująca. Ostatecznie to, co zbuduje klient, będzie decydowało o tym, jak powinna działać umieszczona w nim lampa błyskowa — jak duża powinna być, jaką pojemność mieści i ile energii będzie zużywać. Nie chodzi o to, ile warstw ma produkt. Skoncentrowanie się na funkcjach, które są najważniejsze dla klientów — wydajności, pojemności i mocy — to zwycięska strategia.
Podajemy najlepsze dyski SSD: najlepsze dyski półprzewodnikowe do Twojego komputera.
Ten artykuł powstał w ramach kanału Expert Insights TechRadarPro, na którym przedstawiamy najlepsze i najbystrzejsze umysły dzisiejszej branży technologicznej. Poglądy wyrażone tutaj są poglądami autora i niekoniecznie są poglądami TechRadarPro lub Future plc. Jeśli jesteś zainteresowany współpracą, więcej informacji znajdziesz tutaj: https://www.techradar.com/news/submit-your-story-to-techradar-pro