Dzisiaj kilka słów na temat pamięci flash, przez niektórych nazywanych dyskami SSD. I tak niektóre z nich są wbudowane na stałe w naszych urządzeniach (przylutowane do płyt głównych) i korzystają z różnych interfejsów (eMMC, UFS, itp.), z kolei te wymienne oparte są o starszy standard SATA albo nowszy i szybszy NVME (przy czym jeśli chodzi o wygląd fizyczny, mogą być w formie mSATA, dysków 2,5”, modułów NVME o długości 2240mm, itp.)
Jak to działa?
W takim urządzeniu mamy kontroler i pamięci flash, czasem również kość pamięci DRAM i radiator.
Standard SATA to generalnie powoli odchodząca do lamusa przeszłość, znacznie większe możliwości daje NVME (więcej możliwych do wykonania równoczesnych operacji i wyższe prędkości).
Jesteśmy bombardowani parametrami, tymczasem… kolejne generacje pamięci są coraz mniej wytrzymałe i wolniejsze. I tak możemy spotkać kostki SLC, MLC, TLC (MLC 3-bit) i QLC (w jednej fizycznej komórce dostępny jest zapis odpowiednio jednej, dwóch, trzech lub czterech wartości). Każdy kolejny z wymienionych standardów daje w praktyce większą pojemność (więcej danych, które da się przechować), ale również mniejszą ilość możliwych zapisów i mniejszą prędkość zapisu.
Co z tego wynika?
Przykładowo przy tej samej pojemności dyski z kościami TLC wymagają ich więcej niż przy QLC, ale pozwalają na zapis większą ilość razy, potrafią go przechować przez dłuższy czas i są szybsze od QLC.
Producenci szacują jakość użytych kostek, określając np. TBW – parametr podający ilość TB danych uwzględnianych w czasie trwania gwarancji (im wyższy, tym lepszy).
Przykładowo: przy kościach QLC w dyskach 1TB potrafi to być 50TBW, a przy TLC typowym standardem jest 600TBW (choć zdarzają się rodzynki, i na przykład WD Red SN700 1TB ma 2000TBW).
Parametr ten potrafi być istotny w centrach danych, z kolei w typowych zastosowaniach domowych np. przy większych dyskach na układach TLC często użytkownik szybciej wyrzuci urządzenie, bo zestarzeje się „moralnie”, niż wykorzysta je w całości (przy czym uwaga – jeżeli kostki zostaną zużyte do końca, dysk teoretycznie powinien przejść w tryb do odczytu).
Żeby zniwelować powolność kolejnych generacji, producenci potrafią dodać bufor z szybką pamięcią SLC / używać niewykorzystanej części dysku w trybie „lepszym” – stąd właśnie chwilowy spadek prędkości po ciągłym zapisie dużej ilości danych (bufor się wypełnił i jest zrzucany na wolniejszą część dysku) albo permanentny spadek prędkości zapisu np. po wypełnieniu dysku w 50 czy więcej procent (należy zauważyć, że potrafią to być drastyczne – np. z 3000MB/s dyski potrafią zejść do 500MB/s).
Z uwagi na koszty w wielu nowych konstrukcjach nie ma również pamięci DRAM – normalnie jest mała, ale pozwala przechowywać różne dane przyspieszające pracę kontrolera (dyski bez niej czasem korzystają z „głównej” pamięci RAM komputera w ramach rozwiązania HMB).
Jeżeli chodzi o kontrolery, te często są jeszcze produkowane w „archaicznych” procesach (np. do niedawna to było 28nm) i przez to się grzeją (w naszym interesie jest, żeby obniżać ich temperaturę), z kolei kości pamięci wydają lubić się ciepło (ale, i to jest ważne, za duża temperatura w trakcie przechowywania wyłączonego dysku szybciej kasuje zapis).
Wśród producentów pojawia się również loteria komponentów – przykładowo pierwsze partie Kingstona NV2 miały kontroler Phision i kości TLC, obecnie często jest tam kontroler Silicon i gorsze układy QLC (podobny proceder stosowało PNY, Adata, Crucial, Team Group i inni, a nawet Samsung, który zrobił podmiankę kontrolera w 970 Evo Plus).
Istotne jest to, że taka zmiana jest najczęściej robiona na najniższej półce cenowej (i często po zrobieniu recenzji przez różne serwisy), a urządzenie w nowej wersji ma zupełnie inne parametry (przy czym producenci „są kryci”, bo w takich modelach zazwyczaj nie podają modelu kontrolera albo IOPS).
Co jest ważne w przypadku wyboru nowego dysku? Technologia pamięci (raczej starałbym się unikać QLC), obecność jak najnowszego kontrolera, transfery (jak najwyższe, szczególnie po zajęciu bufora) i jak największa ilość IOPS (ilość równoległych operacji na sekundę), jak również temperatury i to, czy dysk zwalnia (czy się przegrzewa). Do tego należy zwrócić uwagę na wykresy zużycia energii w recenzjach i fizyczną formę (najbardziej popularne dyski NVME o długości 4420mm mogą mieć układy po obu stronach i/lub radiator i czasem mogą nie mieścić się w obudowie).
Ogólnie nie ma co tu się zwariować, ale… polecałbym dokładnie poczytać techniczne testy np. na techpowerup, anandtech, guru3d czy notebookcheck.net.
PS. W przypadku PS5 potrzebne są jeszcze minimalne wartości prędkości i bodajże również IOPS (oraz wymiary), do tego konsola nie ma HMB (jeśli kontroler ma zbyt duży spadek wydajności bez tej funkcjonalności, może być bezużyteczny) – najlepiej wybierać tu dyski z certyfikacją.
Pisał m.in. dla Chipa, Linux+, Benchmarka, SpidersWeb i DobrychProgramów (więcej na mwiacek.com). Twórca aplikacji (koder i tester). Niepoprawny optymista i entuzjasta technologii. Nie zna słów "to trudne", tylko zawsze pyta "na kiedy?".
Nowości od blogera
Inne tematy w dziale Technologie