Znajdź odpowiedź na Twoje pytanie o posegreguj trzy wprowadzone liczby od największej do najmniejszej c++ IF
Nie tak dawno na rynku pojawiły się pamięci masowe all-flash. Jednak apetyt na przyspieszanie biznesu, szybszą analizę danych i reagowanie na potrzeby klientów jest nieograniczony. Dzisiaj technologia all-flash nie jest już dostatecznie wydajna. Nową generację innowacji napędzają moduły Storage Class Memory. Czym powinna charakteryzować się nowoczesna pamięć masowa? Powinna być prosta a zarazem wykonywać za użytkownika część zadań, bazujących na algorytmach sztucznej inteligencji. Powinna być także uniwersalna a przy byłoby dobrze, gdyby oferowała wszystkie funkcje w cenie zakupu – co oznacza, że nie ma konieczności dokupowania dodatkowych licencji w miarę powstawania nowych potrzeb. Przede wszystkim jednak nowoczesna pamięć masowa musi być szybka. Jedną z kluczowych innowacji, które napędzają rozwój pamięci masowej jest technologia jest Storage Class Memory (SCM). „Storage Class Memory to nowa klasa pamięci trwałych. Wydajnościowo zbliżonych do pamięci DRAM a pod względem trwałości i kosztu zbliżona do pamięci NAND. To pamięć szybka, a przy tym stosunkowo niedroga. Doskonale nadaje się do nowoczesnych macierzy dyskowych” – powiedział Wojciech Kozikowski, Solution Architect HPE Storage opowiadając o inteligentnych pamięciach masowych podczas warsztatu technicznego na HPE Discover More Warsaw 2019. Storage Class Memory zapewnia ogromne przyspieszenie. Czas odpowiedzi może sięgać 0,01 ms. Dla porównania klasyczne pamięci SAS SSD oferują czas odpowiedzi ponad 10 krotnie dłuższy, na poziomie 0,115 ms a dyski SSD NVMe zapewniają jedynie nieznacznie lepsze wyniki – 0,095 ms. Przy tym nie są to jedynie teoretyczne zyski. Wojciech Kozikowski pokazywał, że w przypadku bazy danych Oracle, tzw. I/O wait jest krótszy o ok. 38%. Jeśli chodzi natomiast o przetwarzanie danych w bazie Oracle, to jest ono szybsze w przypadku pamięci HPE 3PAR z modułem SCM w stosunku do macierzy all-flash o blisko 19%. SCM już jest – dla wszystkich HPE jest jedną z pierwszych firm, która wprowadziła na rynek rozwiązanie z modułem SCM i protokołem NVMe. Pod koniec 2018 r. firma zaprezentowała dwa rozwiązania z modułami SCM. To wspomniana wcześniej macierz HPE 3PAR oraz pamięć HPE Nimble. HPE 3PAR to jedyna macierz na rynku ze wszystkimi aktywnymi kontrolerami i najniższym przewidywalnym czasem odpowiedzi dla aplikacji krytycznych. Oferuje przy tym przyspieszenie rzędu 50% w porównaniu do tradycyjnych macierzy dyskowych NVMe all-flash. W 2017 r. HPE przejęło Nimble Storage, firmę która ma ponad 10 lat doświadczeń w budowaniu rozwiązań cache. Dzięki modułowi SCM technologia Nimble jest teraz w stanie zapewnić ekstremalną wydajność – nawet o połowę krótszy czas odpowiedzi w porównaniu do macierzy dyskowych all-flash. Cyfrowa transformacja wymaga zastosowania pamięci masowej, której możliwości wykraczają poza tradycyjne konstrukcje all-flash. Niektóre współczesne obciążenia wymagają ekstremalnie niskich opóźnień, inne – bardzo wysokiej przepustowości i wydajności. Co niezwykle istotne użytkownicy wcześniejszych rozwiązań HPE 3PAR oraz Nimble mogą wykorzystać moduły SCM w posiadanych produktach. Ich upgrade nie wymaga żadnych dodatkowych zabiegów i nie wiąże się z żadnym ryzykiem.
Pojemność pamięci masowej autonomicznego Synology NAS można zwiększyć, dodając nowe dyski. Jeśli jednak dwa serwery Synology NAS znajdują się w klastrze high-availability, należy podjąć dodatkowe kroki w celu zapewnienia, że oba serwery 1 mają taką samą konfigurację dysków, aby uniknąć niespójności danych.
To oczywiste i chyba nie trzeba tego faktu specjalnie udowadniać, że ilość danych, jakie tworzymy rośnie. Sposobów na ich przechowywanie jest sporo, a producenci nośników kuszą nas coraz większą pojemnością, szybkością i - dla odmiany - coraz niższą ceną. Jaki nośnik wybrać jeśli zależy nam na niezawodności i bezpieczeństwie danych? Przygotowaliśmy dla Was porównanie niezawodności różnych nośników mamy do wyboru?Nośniki optyczne, takie jak płyty CD-R, DVD-R, czy Blue-RayDyski HDD i SSDPamięć FlashChmuraTaśmy magnetyczneNośniki optyczneJeszcze kilka lat temu płyty CD i DVD były jednymi z najpopularniejszych nośników wykorzystywanych do przechowywania dużej ilości danych - zwłaszcza wśród użytkowników domowych. Wynikało to ze stosunkowo wysokich cen dysków HDD, a tym bardziej SSD i ich małej pojemności. W porównaniu z nimi dyski optyczne były konkurencyjne, zarówno w kontekście ceny, jak i oferowanej pojemności. Producenci płyt deklarowali także stosunkowo długą żywotność tworzonych przez siebie nośników, co jednak dosyć szybko zostało zweryfikowane przez rzeczywistość. W zależności od producenta i wykorzystanej technologii, płyta powinna służyć nam od 5 do nawet 200 lat (nie wspominając o płytach z trawionego szkła, które w teorii powinny przetrwać 1 000 do 1 500 lat!), jednak czas użytkowania uzależniony jest od tak wielu czynników, że powinniśmy być przygotowani na to, że płyta przestanie być możliwa do odczytania w każdej chwili - i to raczej wcześniej niż grozi nośnikom optycznym? Przede wszystkim nasze niechlujstwo - przechowywanie w nieodpowiednich warunkach, zarysowywanie, zatłuszczenie (kto z nas nie chwytał płyt, pozostawiając na nich pełny zestaw śladów daktyloskopijnych?) to powszechne grzechy użytkowników. Ale okres użytkownika płyty skraca także skąpstwo producentów, którzy wykorzystują materiały niskiej jakości, oszczędzają na grubości warstw ochronnych, przyspieszając tym samym proces utleniania się warstwy tym problemem może okazać się także technologia. Czy za kilka, kilkanaście lat nadal będziesz posiadał sprzęt, który odczyta dane z posiadanych przez Ciebie płyt? Nowe komputery często w ogóle nie mają stacji dysków, a nawet jeśli tak, to nie obsłużą każdego formatów. CD-R, CD-RW, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+/–R DL - każdy z tych formatów oznacza inną technologię i inny sposób odczytu, może się więc okazać, że niedługo nie uda Ci się zdobyć odpowiedniego czytnika do swojej i SSDRozwój technologii HDD i SSD doprowadził do znacznego obniżenia cen tego typu nośników, przy równoczesnym wzroście ich pojemności, co sprawia, że dyski optyczne przestały być opłacalnym nośnikiem danych. Skoro bowiem możemy kupić dysk o pojemności 1, a nawet 2 TB za kilkaset złotych, nagrywanie płyt przestało mieć jakikolwiek sens. Zarówno klasyczne dyski HDD, jak i SSD, a także ich hybrydy (SSHD) nadają się do tworzenia układów macierzowych, dzięki czemu ich możliwości w zakresie przechowywania czy archiwizowania danych są praktycznie nieograniczone. Jeśli przechowujemy większą ilość danych i chcemy mieć do nich dostęp online, możemy rozważyć zakup magazynu danych w celu stworzenia prywatnej chmury (koszt 6 TB w tej technologii to około 3 500 zł). Oczywiście czym bardziej rozbudujemy naszą infrastrukturę, tym więcej będziemy musieli ponosić związanych z tym kosztów - zakupu sprzętu, energii elektrycznej, dyski także nie zagwarantują wieczności naszym danym. W przypadku zapisu magnetycznego na dyskach HDD, zachodzi zjawisko zaniku ładunku magnetycznego. Nie jest to może szybko postępujący proces - około 1% rocznie, ale w perspektywie czasu, może być groźny dla naszych danych. Również dyski SSD nie zawsze gwarantują pełne bezpieczeństwo i niezawodność - szczególnie istotne są tutaj zakresy temperatur, w jakich urządzenie pracuje. Np. podniesienie temperatury o 5 C w pewnych warunkach może zmniejszyć o połowę gwarantowany czas przechowywania danych (choć sytuacja taka musi jeszcze spełniać dodatkowe warunki i jest raczej rzadko spotykana, o czym przekonują specjaliści Seagate’a, dementujący Internetowe plotki na ten temat). Również duże wahania temperatur mogą być dla takiego dysku i zapisanych na nim danych mordercze. Pamiętać trzeba także, że każdy dysk ma określoną żywotność, ograniczony cykl życia, co oznacza, że nie ma dysku, który będzie działał zawsze. Odpowiednia infrastruktura jest oczywiście w stanie utrzymywać zdolność operacyjną i uratować nasze dane - nawet w przypadku jeśli jeden (a nawet więcej) dysków ulegnie danych na pendriveMożna chyba uznać, że ten typ pamięci na stałe zagościł w naszych kieszeniach. A wszystko za sprawą małych kart SD i pamięci USB, czyli popularnych pendrive’ów, które pozwalają nam w bardzo wygodny sposób przechowywać i przenosić znaczne ilości danych. Podstawowym minusem tej technologii jest ograniczona liczba cykli zapisu i kasowania, po przekroczeniu której, dochodzi do nieodwracalnego uszkodzenia wykorzystanych zagrożenie wiąże się z największą zaletą nośników z pamięcią flash - ich rozmiar i poręczność, sprawiają, że równie łatwo jak je przenosić, można je również zgubić. Malutka karta SD uwielbia się gubić i wpadać w szczeliny z których nie jesteśmy w stanie jej wyjąć. Bywa też łakomym kąskiem (dosłownie) dla małych dzieci, lub psów, które lubią je gryźć. Pamięć USB pada z kolei często ofiarą uszkodzeń mechanicznych - głównie wynikających z nieumiejętnego wyjmowania z portu USB, ale także przypadkowego uderzenia, kopnięcia, zmiażdżenia. Pamiętać przy tym należy, że odzyskiwanie danych z tego typu nośników, jest znacznie bardziej skomplikowane niż w przypadku tradycyjnych nośników z oferty dostawców usług w chmurze, którzy gwarantują przestrzeń dyskową dostosowaną do naszych potrzeb, jest rzeczywiście wygodne. Większość popularnych dostawców zapewnia nam darmową usługę podstawową - nawet 500 GB pamięci masowej online do naszej dyspozycji. Nasze dane są w ten sposób zabezpieczone - ich kopie znajdują się w rozproszonych lokalizacjach na całym świecie, dzięki czemu ryzyko ich utraty jest jednak musimy zarządzać sporą ilość danych, cena takiej usługi może znacznie przekroczyć koszt własnej infrastruktury - przykładowo cena 10 TB w popularnej usłudze Google Drive to około 1200 USD, czyli ponad 4 tyś zł rocznie! Ponadto przechowywanie danych w chmurze może być postrzegane jako bardziej ryzykowne - w momencie kiedy wrzucamy nasze dane do Internetu, tracimy nad nimi kontrolę i zwiększamy możliwość wycieku danych. W związku z tym nie rekomenduje się wykorzystywania tej technologii do przechowywania danych wrażliwych i dobra taśmaWyraźnie widać, że czym większy rozmiar danych, które musimy przechowywać, tym większe koszty z tym związane. Jest to ogromny problem, który przede wszystkim dotyka przedsiębiorstwa, może w poważnym stopniu ograniczać ich rozwój - eksplozja ilości administrowanych i przechowywanych danych prowadzi bowiem do lawinowego wprost wzrostu kosztów utrzymywania infrastruktury. Dużym wyzwaniem jest więc znalezienie takiego rozwiązania, które zagwarantuje możliwie jak najlepszy stosunek ceny do pojemności i wydajności. W tym kontekście swoją drugą młodość przeżywają obecnie taśmy magnetyczne. Rozwiązanie to jest sprawdzone i stabilne - od dziesięcioleci wykorzystywane jest do przechowywania danych, cieszy się opinią bezpiecznego i bezawaryjnego. W czasach śrubowania parametrów sprzętu, a przede wszystkim szybkości, taśmom wróżono szybki koniec. Nic jednak bardziej mylnego - okazuje się bowiem, że dwie cechy tego rozwiązania mogą zadecydować o jego losie - ogromna pojemność ( najnowsze prototypy mogą przechowywać do 220 TB na jednej taśmie!) idzie w parze z energooszczędnością. Taśma zużywa 200-krotnie mniej energii niż twardy dysk… Idealne rozwiązanie do przechowywania i archiwizowania ogromnej ilości danych.
Dysk HDD – pojemny nośnik pamięci do codziennej pracy. Dysk HDD jest jednym z ciekawszych nośników pamięci danych ze względu na swoją niską cenę. Za 1 TB pamięci należy zapłacić około 200 zł. Sam dysk pomieści również całkiem sporo plików. Jednak ze względu na jego budowę zużywającą dużo energii elektrycznej, a
Pamięć masowa może być instalowana bezpośrednio w serwerach w postaci dysków tworzących tzw. system DAS (Direct Attached Storage), jako specjalizowany, dodatkowy serwer pamięci masowej NAS (Network Attached Storage) udostępniany przez sieć LAN lub WAN, albo też zestaw urządzeń pamięciowych wykorzystujących oddzielną dedykowaną sieć SAN (Storage Area Network). Tego rodzaju architektury są podstawą systemu pamięci w każdym systemie IT. Należy jednak zwrócić uwagę, że stopniowo rośnie też popularność pamięci masowych, oferowanych jako usługa świadczona w chmurze. W tym przypadku usługodawca buduje własny system pamięci, z zasady oparty na architekturze SAN, a następnie udostępnia pojemność zewnętrznym użytkownikom za pośrednictwem internetu lub dedykowanych łączy sieciowych. Budując własny system pamięci masowej, trzeba przede wszystkim znaleźć odpowiedź na pytanie: kiedy wystarczy skorzystać z pamięci DAS, a kiedy warto wdrożyć zewnętrzną pamięć NAS lub sieć SAN? Odpowiedź zależy od aplikacji oraz indywidualnych wymagań dotyczących wydajności i niezawodności systemu. Zobacz również:HPE zaprezentowało serwer nowej generacji HPE ProLiant RL300 Gen11 Należy również zwrócić uwagę, że rozwój technologii i coraz bardziej podobne funkcje różnych rozwiązań pamięci masowych - stopniowo zacierają granice między systemami NAS i SAN. Ponadto, już od kilku lat rozwijane są koncepcje sieci konwergentnych, które umożliwiają łączenie wszystkich urządzeń pracujących w systemie IT przy wykorzystaniu jednolitej infrastruktury sieciowej. Sieci konwergentne są uważane za technologię, która w niedalekiej przyszłości opanuje centra danych. Pamięci masowe w sieci Już w latach 80. ubiegłego wieku pojawiła się koncepcja NAS, jako urządzenia udostępniającego pamięć masową serwerom plików pracującym pod kontrolą NetWare lub Windows i obsługującym komputery klienckie w sieci typu klient-serwer. A pierwszym producentem, który opracował i wprowadził do sprzedaży pamięci NAS w formie urządzeń typu appliance, była firma NetApp (Network Appliance). Obecnie pamięci NAS są wykorzystywane przez miliony użytkowników do przechowywania systemów plików obsługujących aplikacje, takie jak Microsoft Exchange czy SQL Server. W porównaniu z wewnętrznymi, zainstalowanymi bezpośrednio w serwerze dyskami DAS, pamięci NAS mają wiele zalet. Jest to rozwiązanie bardziej uniwersalne, które z reguły oferuje większą skalowalność pojemności niż DAS, i umożliwia obsługę wielu aplikacji, serwerów i urządzeń klienckich. Natomiast u podstaw SAN leży idea, by oddzielić wymianę danych między pamięciami masowymi i serwerami - od ruchu obsługiwanego przez standardowe sieci LAN i WAN. Umożliwia to istotne zwiększenie wydajności takich aplikacji, jak: transakcyjne bazy danych, systemy ERP lub CRM. Jest to więc rozwiązanie stosowane w dużych lub średnich firmach. Oddzielenie serwerów aplikacyjnych od SAN i podłączenie ich do wielu urządzeń pamięci, przy wykorzystaniu dedykowanej sieci Fibre Channel, specjalnie zaprojektowanej do takich zastosowań, daje wiele korzyści. System taki może być łatwo skalowany, ale przede wszystkim ma wyższą wydajność i niezawodność w porównaniu z rozwiązaniami wykorzystującymi pamięci NAS. Zwolennicy rozwiązań SAN podkreślają, że w systemach obsługujących biznesowe aplikacje o znaczeniu krytycznym, w których wydajność jest parametrem kluczowym, zastosowanie pamięci NAS jest trudne do zaakceptowania. Z zasady bowiem, wykorzystanie sieci LAN do wymiany danych z pamięciami masowymi i jednocześnie obsługi ruchu generowanego przez serwery i urządzenia klienckie będzie powodować konflikty i negatywnie wpływać na wydajność aplikacji. Ale wielu użytkowników systemów NAS nie zgadza się z taką opinią, twierdząc, że w praktyce nigdy nie mieli z tym problemu i nie ma zasadniczych powodów, by pamięci NAS nie stosować do obsługi krytycznych aplikacji biznesowych. Dyskusje i spory między zwolennikami NAS i SAN mają często charakter ideologiczny, wynikający z przyzwyczajeń i doświadczeń użytkowników. A rozwój technologii powoduje, że zmienia się perspektywa spojrzenia na te systemy i wiele klasycznych argumentów traci na znaczeniu. W praktyce zarówno pamięci SAN, jak i NAS można czasami zalecić jako najlepsze rozwiązanie, pod warunkiem że spełniają wymagania konkretnej aplikacji. Wybór często nie jest jednak prosty i oczywisty. Dodatkowym problemem dla osób odpowiedzialnych za projektowanie systemu IT jest rosnąca oferta pamięci NAS z interfejsami iSCSI, które oferują funkcje typowe dla pamięci SAN. Dlatego osoby tworzące plany rozwoju architektury systemów pamięci masowej powinny dobrze rozumieć różnice techniczne oraz znać wady i zalety obu tych technologii. Klasyczna różnica między pamięciami NAS i SAN Chyba każdy, kto choć trochę miał do czynienia z pamięciami masowymi, jako podstawową różnicę między urządzeniami NAS i SAN wymieni zastosowanie systemu plików w NAS oraz bloków danych w SAN. Pamięci NAS, zależnie od wykorzystywanego systemu plików, z reguły oferują zestaw zaawansowanych funkcji, takich jak mechanizmy kontroli dostępu, indeksowanie plików itp. Ich system operacyjny pozwala na udostępnianie plików bezpośrednio urządzeniom klienckim podłączonym do sieci. podstawowa topologia systemu wykorzystującego pamięci NAS Natomiast w sieci SAN pamięć masowa może być współdzielona, ale jest widoczna jako dysk dostępny na poziomie bloków danych. Większość pamięci SAN wykorzystuje sieć Fibre Channel, czyli protokół specjalnie zaprojektowany do takich zastosowań. Wraz z popularyzacją standardów iSCSI i FCoE, które umożliwiają dostęp do pamięci dyskowych na poziomie bloków, ale przy wykorzystaniu protokołu TCP/IP lub sieci Ethernet, klasyczne różnice między NAS i SAN stają się coraz mniej wyraźne. Podstawowa topologia sieci SAN Choć generalnie wdrożenie systemu SAN jest znacznie bardziej skomplikowane niż pamięci NAS, to koncepcja architektury SAN jest prostsza i oparta na współdzieleniu danych na znacznie niższym, podstawowym poziomie. Polecamy: Pamięci masowe - poradnik kupującego NONIKI PAMICI MASOWEJ WCZORAJ DZI JUTRO PODZIA PAMICI. PODZIAŁ PAMIĘCI A. Nośniki mechaniczne • karta perforowana • taśma perforowana B. Nośniki magnetyczne • pamięć bębnowa • dysk twardy (HDD) • dyskietka (FDD) • kasea magnetofonowa (CC) • ZIP • streamer • dysk HRD C. Nośniki optyczne • laser disc (LD) • płyta Rynek macierzy dyskowych jest mocno rozedrgany. I nic nie wskazuje na to, że w najbliższym czasie sytuacja się ustabilizuje. Wydawałoby się, że cyfrowa transformacja powinna być motorem napędowym dla dostawców systemów pamięci masowych. Tak się jednak nie dzieje. Według IDC, w pierwszym kwartale bieżącego roku globalne przychody ze sprzedaży macierzy dyskowych wyniosły 6,7 mld dol., co oznacza tylko niemal dwuprocentowy wzrost rok do roku – pierwszy po czterech kwartałach, w których producenci odnotowywali spadki sprzedaży. Nadal nie udało się powrócić do poziomu z pierwszego kwartału 2019 r., kiedy sprzedaż wyniosła 6,85 mld dol. Na uwagę zasługuje fakt, że w tym samym czasie światowy rynek serwerów w ujęciu wartościowym wzrósł o 12 proc. Wprawdzie do kas producentów macierzy dyskowych wpływa mniej pieniędzy niż przed pandemią, ale pojemność dostarczanych przez nich pamięci masowych cały czas rośnie. W pierwszym kwartale 2021 r. sprzedano 19,9 eksabajtów przestrzeni dyskowej, czyli 16 proc. więcej niż w analogicznym okresie ubiegłego roku. Lawinowy przyrost danych sprawia, że producenci wprowadzają do swoich rozwiązań wiele nowinek technicznych i stosują nowe modele sprzedaży. Poza tym, zmieniają się zwyczaje zakupowe przedsiębiorstw. Urządzenia stają się coraz bardziej inteligentne, dzięki czemu pomagają użytkownikom efektywniej przechowywać i udostępniać cyfrowe zasoby. Również klienci dokonują racjonalnych wyborów i przestają niepotrzebnie wydawać pieniądze na nadmiarową przestrzeń dyskową. Dlatego też w nadchodzących kwartałach dostawcy macierzy SAN powinni zadowolić się niewielkimi, jednocyfrowymi wzrostami przychodów. Natomiast na nieco więcej mogą liczyć producenci NAS-ów. Systemy all-flash tracą impet Systemy all-flash w ostatnich latach pięły się do góry w rankingach sprzedaży macierzy dyskowych. Jednak w pierwszym kwartale bieżącego roku przychody z ich sprzedaży na świecie wyniosły blisko 2,7 mld dol., co oznacza spadek o 3 proc. w ujęciu rocznym. Dla porównania, obroty w segmencie macierzy hybrydowych w tym samym okresie wzrosły o 1,4 proc. Taki stan rzeczy nie jest dziełem przypadku. – Już od wielu kwartałów w Polsce utrzymuje się stabilna proporcja między sprzedażą macierzy all-flash i hybrydowych – tłumaczy Piotr Drąg, Storage Category Manager for Poland w HPE. – Udział rozwiązań wyłącznie z dyskami SSD oscyluje wokół 35 proc. Fakt, że się nie zwiększa jest związany ze skokiem cen nośników flash oraz problemami z dostawami komponentów. Zamieszanie na rynku nośników danych wywołała chińska kryptowaluta Chia, której przetwarzanie bazuje na modelu „dowodu przestrzeni i czasu” (proof of space and time). Do jego implementacji potrzebne są szybkie dyski, a nie karty graficzne, jak ma to miejsce w przypadku Bitcoina i innych popularnych cyfrowych pieniędzy. W początkowej fazie „górnicy” sięgali po pamięci flash, ale niektóre nośniki zużywały się już po miesiącu eksploatacji. Dlatego też przestawili się na dyski twarde. Jak wynika z danych Contextu, w drugim kwartale br. na rynku europejskim sprzedano 454 tys. nośników HDD, co oznacza wzrost o 141 proc. rok do roku. Najszybciej znikały z magazynów modele nearline o pojemności 18 TB. W badanym okresie dostawcy upłynnili 84 tys. tych napędów, co znacznie przewyższyło sprzedaż drugiego w rankingu modelu 16 TB (51 tys.). Na fali wznoszącej znalazły się też dyski SSD, na czele z NVMe Gen4 1 TB. Sprzedaż wolumenowa tych nośników osiągnęła blisko 75 tys. sztuk, co oznacza wzrost o 1147 proc. rok do roku. Napędzany przez Chia boom na pamięci masowe to przysłowiowa woda na młyn dla producentów dysków talerzowych, którzy już od lat narzekali na postępujące spadki sprzedaży. WD oraz Seagate muszą jednak stawać na głowie, aby sprostać realizacji zamówień, co spowodowane jest niedoborem komponentów. Trudno przewidzieć, jak potoczą się dalsze losy tej kryptowaluty. Jak na razie jej kurs ostro pikuje – w maju br. osiągnął poziom 1685 dol., podczas gdy pod koniec sierpnia jedynie 240 dol. Niespotykany wcześniej popyt, a także ciągnące się od ponad roku kłopoty związane z dostawami podzespołów, windują ceny nośników w górę. Badacze z TrendForce prognozują, że ceny kontraktowe dysków SSD dla przedsiębiorstw w trzecim kwartale br. wzrosną o 15 proc. wobec drugiego kwartału. Na zawirowaniach w segmencie dysków mogą zyskać taśmy. IBM szacuje, że obecnie w taśmowych systemach pamięci znajduje się ponad 345 tys. EB danych. – Technologia zapisu taśmowego stale jest rozwijana, dzięki czemu nośniki stają się coraz szybsze i pojemniejsze. Dlatego, niezależnie od rozwoju macierzy all-flash, jeszcze przez wiele lat będą znajdo-wały swoich zwolenników – zauważa Łukasz Winiarski, Storage Sales Expert w polskim oddziale IBM-u. Taśmy zgodne z najnowszym standardem LTO-9 mają 18 TB pojemności bez kompresji (do 45 TB z kompresją) i zapewniają transfer skompresowanych danych z prędkością do 1800 MB/s. Niezaprzeczalnym atutem taśm jest trwałość szacowana na około 30 lat. W przypadku nośników flash wynosi ona od kilkuset do kilkudziesięciu tysięcy operacji zapisu w każdej z komórek pamięci. Istnieje też błędne przekonanie, że teoretycznie napędy HDD mogą działać wiecznie, jednak w ich przypadku w grę wchodzą aspekty mechaniczne, które powodują, że w zależności od intensywności eksploatacji zawodzą po kilku latach użytkowania. Zdaniem Mirosława Chełmeckiego, dyrektora działu pamięci masowych i serwerów w Veracomp – Exclusive Networks, drugie życiem napędom i bibliotekom taśmowym zapewnia ransomware. Odpowiednio zaplanowana strategia backupu, z uwzględnieniem wykonywania kopii na taśmy, stanowi bowiem najskuteczniejszą broń przeciw skutkom tych ataków. Zdaniem specjalisty Marek Lesiak, Product Manager HPE, Veracomp – Exclusive NetworksNiestety, kłopoty z dostawami nie omijają również branży IT. Wciąż nie do końca zostały odbudowane łańcuchy dostaw przerwane w wyniku przestojów związanych z pandemią COVID-19. Sytuacja w branży informatycznej wydaje się być podobna do sektora motoryzacyjnego, w którym opóźnienia wynikają przede wszystkim z problemów z dostępnością półprzewodników. W przypadku pamięci masowych obecnie nie są to duże opóźnienia, czas realizacji dostaw na macierze wydłużył się ze standardowych 2–3 do około 4–5 tygodni. Tym, co może niepokoić, są spodziewane w najbliższym czasie kłopoty z dostawami dysków twardych. Wojciech Wolas, Storage, Platforms and Solutions Sales Manager, Dell TechnologiesMacierze dyskowe na polskim rynku cieszą się dużą popularnością. Dynamika sprzedaży rozwiązań NAS przewyższa dynamikę sprzedaży rozwiązań SAN, przy czym te ostatnie nadal mają zdecydowanie większy udział wartościowy na rynku macierzy. Wzrost pojemności dysków SSD i spadek kosztów za 1 TB przestrzeni, prowadzi do tego, że macierze all-flash i hybrydowe wypierają rozwiązania bazujące wyłącznie na dyskach obrotowych. Najczęściej dotyczy to projektów związanych z obsługą aplikacji i baz danych. Za wyborem pamięci NAND flash przemawia lepsza wydajność, krótsze czasy odpowiedzi, oszczędność miejsca oraz niższe zużycie energii. Marcin Lisowski, Key Account Manager Poland, SynologyPierwsze półrocze pokazuje, że popyt na rozwiązania NAS w Polsce jest bardzo wysoki. Największą popularnością cieszą się systemy adresowane dla MŚP, a następnie klasy enterprise. W przypadku produktów z przedziału cenowego, w którym znajdują się nasze produkty, sprzedaż nośników HDD przeważa nad SSD. Wynika to z faktu, że większość naszych urządzeń służy do przechowywania dużej ilości danych. Nośniki SSD wykorzystywane są głównie jako cache, ale także sprzedawane są z naszymi macierzami all-flash. Realizujemy coraz więcej tego typu projektów, ale nie na tyle dużo, żeby mówić o równowadze między sprzedawanymi dyskami talerzowymi i NAND flash. Macierze all-flash: śrubowanie parametrów Konstruktorzy pamięci NAND wykorzystywanych w dyskach SSD starają się „upchnąć” jak najwięcej bitów w komórce pamięci. Takie działania z jednej strony umożliwiają obniżenie cen nośników, ale wpływają na zmniejszenie ich trwałości. SLC to komórki przechowujące tylko jeden bit, które cechują się najdłuższą żywotnością 100 tys. cykli zapisów. Jednak ze względu na wysoką cenę praktycznie nie znajdują zastosowania w macierzach dyskowych. Natomiast producenci bardzo chętnie wykorzystują nośniki wykonane w technice MLC (2 bity na komórkę, trwałość 10 – 35 tys. zapisów) oraz TLC (3 bity na komórkę, trwałość 1–3 tys. zapisów). W komputerach osobistych, w przypadku których cena ma duże znaczenie, coraz częściej wykorzystywane są też nośniki QLC (4 bity na komórkę, trwałość 1 tys. zapisów), a coraz głośniej mówi się też o pamięciach PLC z 5 bitami na komórkę. Jednak, ze względu na tak niewielką trwałość, raczej nie są one rozważane do wykorzystania w profesjonalnych systemach pamięci masowych, w których bezpieczeństwo danych jest ważniejsze niż cena. Co ciekawe, niektórzy podejmują jednak ryzyko. Amerykański startup Vast Data stosuje w macierzach nośniki QLC i udziela na nie 10-letniej gwarancji. Jeff Denworth, CMO Vast Data, tłumaczy, że wydłużenie żywotności nośników było możliwe dzięki zastosowaniu mechanizmów redukcji danych oraz zabezpieczeń Erasure Coding. Nieco inaczej na kwestie związane z upychaniem bitów w komórkach pamięci NAND flash patrzy Wojciech Wolas, Storage, Platforms and Solutions Sales Manager w Dell Technologies. Jego zdaniem oszczędności należy szukać gdzie indziej, a optymalną metodą jest skorzystanie z kompresji oraz deduplikacji. Oba mechanizmy pozwalają obniżyć koszty funkcjonowania macierzy bez rezygnacji z bardziej trwałych dysków SSD. Coraz częściej liczący się producenci macierzy stosują w nich nośniki zgodne z protokołem NVMe. Standard ten pozwala na podłączenie dysków flash bezpośrednio do magistrali PCIe. NVMe góruje pod każdym względem nad protokołami SATA oraz SAS, które opracowano z myślą o szeregowo przesyłanych danych w dyskach mechanicznych. Dla porównania, kolejka SATA może zawierać do 32 oczekujących poleceń, zaś SAS do 256. Z kolei NVMe obsługuje do 65 535 kolejek, a także 64 tys. poleceń na kolejkę. Dzięki temu macierze z dyskami NVMe mogą osiągać wydajność na poziomie ponad dziesięciu milionów IOPS. Kolejnym sposobem na uzyskanie wysokiej wydajności jest zastosowanie stworzonej w firmie Nvidia techniki GPUDirect Storage. Producent w czerwcu poinformował o dostępności sterownika umożliwiającego ominięcie procesora serwera i przesyłanie danych bezpośrednio pomiędzy GPU a pamięcią masową, za pośrednictwem magistrali PCIe. Tak stworzona architektura zapewnia znaczne zwiększenie przepustowości, ogranicza opóźnienia i zdaje egzamin przy obsłudze AI, HPC czy analityki wymagającej dużych ilości danych. Jak na razie jedynymi producentami, którzy integrują pamięć masową z GPUDirect są DataDirect, Vast Data i WekaIO. Niedługo ta opcja pojawi się też w systemach Dell Technologies, HPE, IBM, Hitachi Vantara czy NetApp. Dobre czasy dla systemów NAS O ile w segmencie macierzy SAN najważniejsze trendy rynkowe wyznaczają nośniki flash, o tyle w grupie systemów NAS liczą się zupełnie inne walory. W przypadku przetwarzania i przechowywania plików, obiektów, logów systemowych czy zbiorów big data kluczowa jest pojemność i łatwość skalowania. Ostatnie miesiące przyniosły duże ożywienie na europejskim rynku NAS – według Contextu w drugim kwartale br. miał miejsce wzrost sprzedaży o 73,5 proc. w ujęciu rocznym. – To najlepszy czas dla urządzeń NAS – mówi Łukasz Milic, Business Development Representative w QNAP-ie. – Klienci potrzebują przestrzeni dyskowej, bowiem wszyscy generują ogromne ilości danych. Jednocześnie dyski w komputerach mają ograniczoną pojemność, zwłaszcza, że coraz częściej są to nośniki SSD. Dlatego też pojawia się coraz więcej miejsca dla systemów NAS. Wybór nośników w NAS-ach zależy od rodzaju danych i charakteru ich przechowywania. Dysków mechanicznych najczęściej używa się w urządzeniach przeznaczonych do rejestrowania zapisów z backupu, monitoringu, a także do celów archiwizacji. Część klientów decyduje się na hybrydy, w których w jednym urządzeniu używane są dyski SSD oraz HDD, co zapewnia równowagę pomiędzy wydajnością a pojemnością. Wielu firmom wystarczają serwery czy też macierze udostępniające zasoby dyskowe przez protokoły NFS, SMB/CIFS. Z drugiej strony przyrost danych generuje popyt na systemy scale-out, umożliwiające rozbudowane pojemności i wydajności przez dodawanie kolejnych węzłów do klastra. Ale produkty NAS scale-out czy systemy obiektowej pamięci masowej nie wzbudzają większego zainteresowania wśród integratorów. – W ostatnim czasie poziom wiedzy na temat tej klasy rozwiązań znacząco wzrósł – przekonuje Piotr Drąg z HPE. – Nasi partnerzy dowiadują się o produktach Cohesity, Qumulo, Scality czy iTernity. Jednak na rynku polskim wciąż jesteśmy raczej na początku tej ciekawej drogi. Już za kilka lat 80 procent wszystkich danych będzie przechowywanych właśnie w formie plikowej czy obiektowej. Z inicjatywami wychodzą również producenci NAS-ów. Przykładowo, QNAP wprowadził funkcję obsługi pamięci obiektowej, co pozwala wydzielić część pamięci urządzenia na obiekty. Zdaniem integratora Paweł Bociąga, prezes zarządu, SymmetryBardzo duży przyrost ilości danych sprawia, że mamy do czynienia z ciągłym postępem technologicznym w obszarze macierzy dyskowych. Potencjał oraz „inteligencja” tych urządzeń cały czas wzrasta, co pomaga klientom efektywniej przechowywać i udostępniać dane. Zauważamy wzrost sprzedaży macierzy all-flash. Ich ceny za 1 TB ciągle maleją, a zysk na wydajności jest znacznie większy w porównaniu z dyskami obrotowymi. Natomiast klasyczne systemy NAS nadal są w sprzedaży, ale coraz częściej klienci wybierają systemy obiektowe. Wpływ na tę sytuację ma bardzo duży wzrost wolumenu danych nieustrukturyzowanych. Chmura we własnej serwerowni Subskrypcja na dobre zadomowiła się w świecie nowych technologii. Za modnym trendem próbują podążać producenci pamięci masowych, oferując sprzęt w formie usługi. Macierz znajduje się w serwerowni klienta, dzięki czemu unika on opłat za ruch przychodzący i wychodzący. Usługobiorca opłaca miesięczny abonament, przy czym może zarówno zwiększać, jak i zmniejszać przestrzeń dyskową lub wydajność urządzenia. Tego typu usługi oferują wszyscy liczący się gracze w segmencie pamięci masowych adresowanych dla biznesu – Dell EMC, Fujitsu, Hitachi Vantara, HPE, IBM, NetApp czy Pure Storage. Oferty tych producentów różnią się między sobą detalami. Przykładowo, Dell EMC mierzy zużycie zasobów za pomocą zautomatyzowanych narzędzi zainstalowanych wraz ze sprzętem. Na podstawie tych wyliczeń ustala średnie wartości dzienne, a następnie miesięczne. NetApp oraz HPE dodatkowo udostępniają użytkownikom dostęp do panelu udostępniającego informacje o kosztach, zużyciu zasobów czy wydajności. Z kolei IBM podpisuje umowy jedynie z firmami, które potrzebują przynajmniej 250 TB przestrzeni dyskowej. Polscy integratorzy dość sceptycznie oceniają ten rodzaj sprzedaży. Jacek Marynowski, prezes zarządu Storage IT, podaje ciekawy przykład z rynku oprogramowania do backupu. Choć firma oferuje je w modelu subskrypcyjnym, około 90 proc. klientów płaci za licencje wieczyste. Zdaniem Pawła Bociąga, prezesa zarządu Symmetry, taki model sprawdzi się pod warunkiem, że integrator będzie odpowiedzialny za realizację usług dodanych dla klienta oraz tego czy umowa będzie zawarta na określony czas. Zdaniem specjalisty Roman Lipka, Business Development Manager IBM Hardware, Tech DataRynek pamięci masowych cały czas rośnie, co w dużej mierze jest zasługą spadających cen pamięci flash. W przypadku dużych i średnich firm oraz sektora publicznego dominują zakupy systemów SAN. Klienci coraz częściej preferują nośniki SSD. Dyski mechaniczne są sprzedawane na potrzeby starszych instalacji lub w przypadku, gdy wydajność, a także szybkość zapisu i odczytu danych nie jest dla klienta kluczowa. Biorąc pod uwagę wolumen sprzedawanych pojemności, zdecydowana przewaga leży po stronie NAND flash. Jerzy Adamiak, Storage Systems Consultant, StovarisKlienci szukają przede wszystkim macierzy z dostępem blokowym. Największą popularnością cieszą się rozwiązania z interfejsem 10 GbE (iSCSI) oraz w nieco mniejszym stopniu FC 16 Gb. Trafia do nas sporo zapytań o serwery NAS, ale w ich przypadku głównym kryterium wyboru jest cena. Niestety, problemy związane z dostawami komponentów dotknęły również rynek pamięci masowych. Cena w przypadku niektórych dysków HDD wzrosła o prawie 50 procent. Alternatywą jest oczekiwanie ponad trzy miesiące na tańsze dyski innych producentów. Obie opcje są nie do zaakceptowania przez klientów, szczególnie w przypadku dłużej trwających projektów z wcześniej zatwierdzonymi cenami. Wojciech Wróbel, Business Development Manager Data Protection, Fujitsu Technology SolutionsModuły NVMe już od pewnego czasu są stosowane w macierzach dyskowych jako nośnik danych, ale naszym zdaniem jest jeszcze zbyt wcześnie, aby określić to rozwiązanie mianem dojrzałego. Podstawowy problem wynika z braku standardów definiujących sposób użycia NVMe w rozwiązaniach macierzowych. Dla przykładu, dzisiaj w celu zapewnienia transmisji danych z macierzy z nośnikami NVMe konieczne jest stosowanie tunelowania z wykorzystaniem innych protokołów, jak Infiniband, Fibre Channel czy Ethernet, gdyż nie istnieją specjalne karty serwerowe pozwalające na stworzenie pełnoprawnego kanału end-to-end do wymiany danych z macierzą NVMe. Inny aspekt to „przywiązanie” protokołu NVMe do szyny PCIe Gen3, która jest w stanie obsłużyć tak wydajny strumień danych. Ale już za chwilę pojawią się jej kolejne generacje, więc kupione przez klientów nowatorskie rozwiązanie szybko może stać się przestarzałe pod względem wydajności czy kompatybilności. Grubość mierzona jest od górnego do dolnego panelu szybki. Ekran główny Galaxy Z Flip5 ma przekątną 6,7” w pełnym prostokącie i 6,6” z uwzględnieniem zaokrąglonych rogów; rzeczywisty obszar wyświetlania jest mniejszy ze względu na zaokrąglone rogi i otwór na aparat.
Spis treściPrzechowywanie na lokalnych nośnikachCoraz popularniejsze przechowywanie w chmurzeCzy chmura zastąpi fizyczne karty?Przechowywanie na lokalnych nośnikachSposób, w jaki przechowujemy i transportujemy nasze dane, zmieniał się i ewoluował z biegiem czasu. Zastosowaliśmy różne środki, które z biegiem czasu zostały zastąpione innymi o większej wydajności i szybkości. Jednymi z tych, które były używane wiele lat temu były dyskietki cala i cala. Można w nich przechowywać kilka MB informacji. Potem pojawiły się płyty CD i DVD, na których można było już przechowywać znacznie więcej informacji. Na przykład w tym ostatnim możemy przechowywać kilka GB korzystamy z zewnętrznych systemów pamięci masowej, takich jak zewnętrzny dysk twardy lub pendrive. Wszystkie oferują nam znacznie większą pojemność, łatwość obsługi podczas kasowania i zapisywania naszych danych, wygodniejszy transport oraz dobrą niezawodność i trwałość. Również inne lokalne systemy pamięci masowej to karty micro typu karty pamięci można znaleźć w naszych smartfonach, tabletach i nie tylko, o pojemności do 1TB lub 2TB. ten wielka zaleta of za pomocą fizycznej karty czy ta informacja? będzie tylko w naszych rękach . Obecnie pojawiają się wątpliwości, czy chmura zastąpi fizyczne karty, czy będzie to kolejny krok? Mamy też opcję pośrednią, która może polegać na przekształceniu komputera w prywatną chmurę, wtedy dane również pozostaną w naszym posiadaniu, będziesz cieszyć się korzyścią chmury i będziesz miał dostęp do swoich fizycznych popularniejsze przechowywanie w chmurzeChmura przechowywanie ma coraz większy wpływ na nasze życie. Nie ma wątpliwości, że jest to trend wzrostowy i czasami może być najwygodniejszy. W związku z tym mamy rozwiązania do przechowywania w chmurze, takie jak Dysk Google, Microsoft onedrive lub Dropbox, który spełni nasze ramach projektu łatwość dostępu do plików z dowolnego miejsca uczynił ten rodzaj usług przechowywania w chmurze ceniony. W trybie darmowym tych usług będziemy mogli mieć kilka gigabajtów na przechowywanie naszych plików. Do tego musimy dodać najlepsze mobilne połączenia internetowe dzięki 5G i połączenia światłowodowe w naszych domach również ułatwiły większe oznacza to, że zapisując dane w chmurze, podejmujesz szereg środków ostrożności. Wspomnieć o jednym z nich oznaczałoby posiadanie silnego hasła, którego nie używałeś. Przechowywanie w chmurze zapewnia nam również inne pozytywne rzeczy:Oszczędność miejsca na naszych nośnikach łatwego udostępniania chmura zastąpi fizyczne karty?O tym, czy chmura zastąpi fizyczne karty, wszystko wskazuje na tak, przynajmniej w dużej części. Nie oznacza to, że fizyczne karty i inne nośniki, takie jak dyski twarde, przestaną z nich korzystać. Duża część użytkowników będzie chciała mieć pewne poufne informacje pod kontrolą i dlatego obie będą nadal współistnieć. Z drugiej strony niezwykłe będzie to, że nosimy ze sobą pendrive'y i dyski twarde, aby udostępniać lub przeglądać tego typu chmur publicznych będzie to, że dane będą w rękach tej firmy, a jeśli chcemy więcej miejsca, musimy za to zapłacić. Wreszcie, z tych powodów niektóre firmy wybierają chmurę hybrydową, która łączy małą chmurę prywatną do przechowywania poufnych informacji z chmurą publiczną.
Najpowszechniej używane były dyskietki 3,5 calowe HD (High Density) o pojemności 1.44 MB. Dyskietka taka składała się z twardej plastikowej obudowy z otworem dostępowym do nośnika zasuwanym metalową lub plastikową zasuwką. Płyta DVD – (ang. hard disk drive) – typ pamięci masowej, w którym do przechowywania Wymiana informacji pomiędzy dyskiem twardym a komputerem jest możliwa dzięki specjalnym interfejsom. Odpowiadają za komunikację i mają bezpośredni wpływ na przepustowość, czyli maksymalną prędkość transferu danych. Na chwilę obecną najpopularniejszym z nich jest SATA, z którego korzysta większość urządzeń konsumenckich i serwerów. Jednak od pewnego czasu na rynku mamy już następcę – to technologia NVMe wykorzystywana w nośnikach SSD. W tym artykule specjaliści z firmy Stovaris wyjaśniają, czym jest oraz jaką ma przewagę nad swoją poprzedniczką. Oprócz tego wymieniamy główne zalety jej stosowania w rozwiązaniach serwerowych – zapraszamy do lektury. Krótka historia interfejsów dysków twardych Na początek warto wyjaśnić sens nieustannego rozwijania interfejsów przeznaczonych do dysków twardych. Najlepszym sposobem na to jest przedstawienie ich historii. Pierwsze nośniki pamięci masowej, czyli HDD, były urządzeniami mechanicznymi. Jeszcze w początkach XXI wieku korzystały z interfejsu IDE, obecnie określanego jako ATA, który zastąpił przestarzałe połączenie szeregowe. Powyższa technologia w swojej ostatniej odsłonie (już nierozwijanej) osiągała prędkość transferu danych na poziomie 133 MB/s. Jej następcą jest używana obecnie Serial ATA, czyli SATA. W najnowszej wersji – trzeciej – oferuje realną przepustowość danych na poziomie około 600 MB/s. Z kolei ostatnia nowość w interfejsach, czyli coraz lepiej znane wszystkim NVMe bazujące na szynie PCIe może przesłać nawet 3500 MB na sekundę. Warto nadmienić, że obecnie dostępne są w sprzedaży dyski NVMe bazujące na najnowszej technologii PCIe Dyski te mają ponadprzeciętne wartości odczytu i zapisu. Przykładowo, dyski serwerowe jednego z najlepszych producentów SSD KIOXIA w serii Kioxia CD6 oraz Kioxia CM6 oferują odczyt aż do 8000 MB/s, jednocześnie gwarantują zapis na poziomie do 4000 MB/s. Wartości te są ewenementem w środowisku serwerowym, warto dodać, że coraz więcej osób decyduje się na aktualizacje swojego środowiska serwerowego właśnie z użyciem serii dysków Kioxia CD6 oraz Kioxia CM6. Powyższa historia wyjaśnia, jaki jest cel rozwoju tej technologii – przyspieszenie odczytu i zapisu informacji. Z każdym rokiem przetwarzamy ich coraz więcej, co niejako wymusza ten proces. Sytuacja ta doprowadziła także do pojawienia się dysków SSD, czyli następców HDD, pamiętających jeszcze lata 50. ubiegłego stulecia. Dlaczego dyski SSD stopniowo wypierają HDD? Warto wrócić jeszcze na chwilę do dysków HDD. Są używane do dziś z racji ich bardzo przystępnej ceny, ponadprzeciętnej niezawodności i ogromnej pojemności. Jednak choć korzystają z interfejsu SATA, tak w najlepszym przypadku oferują transfer zaledwie na poziomie 200 MB/s. Wynika to z ograniczeń technologicznych. Dane przechowywane są na wirujących z dużą prędkością talerzach magnetycznych, a za ich zapis i odczyt odpowiadają ruchome głowice. Każda z nich w określonym momencie może znajdować się tylko w jednym punkcie, co wydłuża czas dostępu do informacji. To główny powód pojawienia się dysków SSD, w których całkowicie wyeliminowano mechanikę, zastępując ją półprzewodnikami. Ograniczenia w transferze generuje w nich sam interfejs, choć oczywiście wiele zależy również od zastosowanych kości pamięci. Jednak są zdolne do tego, aby obsługiwać maksymalną przepustowość danych zarówno dla technologii SATA, SAS, jak i NVMe. W efekcie dziś HDD wykorzystuje się głównie w celu archiwizacji dużej ilości informacji. Główną zaletą HDD nadal pozostaje dość niski koszt $ per TB danych. Zazwyczaj na dyskach talerzowych umieszcza się tzw. cold-storage, czyli dane, które nie wymagają szybkiego dostępu, lub też stare aplikacje, które nie wymagają szybkości jaką oferują dyski półprzewodnikowe. Gdy szybki dostęp do informacji jest dla nas priorytetem, nośnik ten zastępuje dysk SSD. Rozwiązanie to jest stosowane zarówno w komputerach konsumenckich, jak i na serwerach. NVMe vs SATA – co różni te technologie? Dokonanie porównania NVMe vs SATA należy zacząć od opisania różnic w działaniu obu tych interfejsów. Druga z powyższych technologii, a więc starsza, wykorzystuje adapter magistrali hosta. Jest to kontroler pośredniczący w wymianie danych pomiędzy dyskiem twardym SSD a procesorem. W komputerach konsumenckich zwykle jego funkcję pełni mostek. To chip odpowiadający jednocześnie za realizację wielu innych zadań. Z kolei w rozwiązaniach serwerowych zazwyczaj znajduje się on na specjalnych kartach rozszerzeń. W przypadku NVMe udało się wyeliminować tego „pośrednika”. Komunikacja pomiędzy dyskiem i procesorem jest bezpośrednia dzięki użyciu magistrali PCI Express (PCIe). Pozwoliło to na drastyczne zwiększenie przepustowości danych ze wspomnianych 600 MB/s dla interfejsu SATA do nawet 8000 MB/s przy wykorzystaniu dysków SSD NVMe PCI-e Prawdziwa moc NVMe drzemie w szybkości tej technologii Podczas zakupu dysków twardych zawsze zwraca się uwagę na ich przepustowość. Jednak porównując NVMe vs SATA w kontekście zastosowania serwerowego, często większe znaczenie ma parametr szybkości. W skrócie opisuje się go jako IOPS, czyli „Input Output Per Second”. Określa on ilość operacji zapisu oraz odczytu danych, które urządzenie może wykonać jednocześnie w przeciągu jednej sekundy. Biorąc pod uwagę stosowane dziś interfejsy, jego wartość prezentuje się następująco: 50 do 80 – najlepsze dostępne na rynku nośniki HDD, 5 000 do 50 000 – dyski SSD SATA, 85 000 w przypadku zapisu oraz 1 000 000 w przypadku odczytu – dla NVMe PCI-e oraz 50 000 do 400 000 – dla NVMe PCI-e W przypadku serwerowych nośników pamięci masowej, wykorzystujących nową technologię komunikacji, IOPS dochodzi nawet do miliona. Dyski SSD NVMe występują w trzech różnych wersjach Jeśli planujesz zakup dysków SSD wykorzystujących technologię NVMe, powinieneś wiedzieć, że występują w 3 formatach. Do wyboru są urządzenia ze złączem: PCI Express – mają formę kart rozszerzeń instalowanych w gnieździe płyty głównej. Co ciekawe format ten został już praktycznie wycofany w przypadku serwerów, z uwagi na to, że był mało praktyczny – zajmował slot PCI-e na każdy dysk. Jednakże te rozwiązania są nadal dostępne do użytku konsumenckiego, gdzie zazwyczaj użytkownikowi wystarczy użycie jednego dysku z takim interfejsem. – następca mSATA, port taki znajduje się w większości nowoczesnych komputerów, oraz serwerów. Dyski mają bardzo małą wytrzymałość na zapis (czasem jest to nawet DWPD). Powinny one służyć głównie do np. instalacji systemu operacyjnego, natomiast cały zapis danych powinien być kierowany na dyski z większa wytrzymałością od 1,3 czy 20 DWPD. – ma zastosowanie głównie w serwerach, pozwala na największe upakowanie dysków na małej przestrzeni i wysokości serwera. Dzięki temu możemy osiągnąć nawet 2PB w serwerze 1U. Zwiększenie upakowania dysków zmniejsza też koszt TCO (Total Cost of Owning), czyli ogólny koszt posiadania maszyny. Należy jeszcze podkreślić, że pierwsze dwa rodzaje dotyczą nośników pamięci o bardzo małych rozmiarach. Z kolei ostatni z nich jest stosowany w serwerowych, klasycznych dyskach 2,5’’. W interfejsach NVMe i SATA do dysku SSD można użyć szyfrowania Warto wspomnieć jeszcze kilka słów o zabezpieczaniu danych przechowywanych na nośnikach pamięci. Pod tym kątem w ostatnich latach ogromną popularnością cieszy się tzw. dysk szyfrowany. W jego przypadku algorytm kryptograficzny zakodowany jest na chipie znajdującym się bezpośrednio w urządzeniu. W porównaniu do swojego programowego odpowiednika, zamiast chronić całą pamięć, szyfruje każdy plik oddzielnie. W efekcie nawet w przypadku złamania kodu uzyskanie dostępu do wszystkich danych jest niemożliwe. Jeśli potrzebujesz takiego sprzętu, to wybór interfejsu NVMe lub SATA nie będzie mieć znaczenia. Tę technologię szyfrowania można zaimplementować w każdym nośniku SSD. Jakie są zalety dysków twardych SSD NVMe pod kątem ich serwerowego zastosowania? Czas skupić się wyłącznie na rozwiązaniach serwerowych, w których to niewątpliwie nowa technologia interfejsu dysków SSD ma największe zastosowanie. Specjaliści z firmy Stovaris wymieniają kilka jej ważnych zalet, biorąc pod uwagę porównanie NVMe vs SATA. Kontrolery ATA są bowiem praktycznie w ogóle niewykorzystywane w serwerach. Można je jeszcze znaleźć głównie w starych komputerach konsumenckich. W stosunku do swojego poprzednika nowy interfejs komunikacyjny pozwala na: wykonywanie większej ilości operacji odczytu lub zapisu przy jednoczesnym zmniejszeniu zużycia zasobów procesora CPU – to efekt możliwości kolejkowania zapytań, wyraźne zmniejszenie opóźnień przy przetwarzaniu informacji zapisanych na nośnikach, obniżenie kosztów eksploatacji – urządzenia NVMe są bardziej energooszczędne od SATA zarówno w trybie gotowości, jak i po przejściu w stan czuwania, zwiększenie stabilności działania w długookresowej perspektywie, co jest efektem stosowania w dyskach pojemnych kości pamięci operacyjnej DRAM. Jakie jest zastosowanie dysków NVMe SSD? Powyższe zalety sprawiają, że nowy interfejs wręcz idealnie nadaje się do obsługi bardzo rozbudowanych baz danych. W kontekście NVMe vs SATA, pierwsza z tych technologii znacznie przyspiesza tworzenie, modyfikację oraz analizę gromadzonych informacji. Jednak tego typu dyski SSD są również doskonałe dla wydawców dużych serwisów internetowych oraz dostawców rozwiązań SaaS. Coraz chętniej korzystają z nich również firmy inwestujące w systemy ERP i CRM. Przy okazji warto wspomnieć o tym, że takie nośniki pamięci są dziś chętnie wybierane również przez użytkowników prywatnych i małych przedsiębiorców. Wysoka przepustowość i niezwykła szybkość IOPS czynią te urządzenia idealnymi dla: miłośników nowoczesnych gier komputerowych, programistów, fotografów, architektów i inżynierów, osób zajmujących się filmowaniem lub montażem materiałów wideo o rozdzielczości obrazu powyżej FullHD. Dyski NVMe SSD doskonale nadają się do budowy macierzy RAID Niewątpliwie podstawą funkcjonowania praktycznie każdego serwera są macierze. Usprawniają gospodarowanie zasobami dyskowymi, ułatwiają replikację informacji, a do tego są istotne z punktu widzenia ochrony danych. Dyski SSD wykorzystujące technologię NVMe idealnie nadają się do budowy takich sieci pamięci masowej. Doskonałym tego przykładem są urządzenia z serii GS wyposażone w złącze U2, które oferuje nasza firma Stovaris. Ich ogromną zaletą jest automatyzacja migracji danych pomiędzy poszczególnymi warstwami w macierzy. Pozwala to na łączenie nowoczesnych nośników pamięci masowej z klasycznymi HDD SATA. Dzięki temu można zachować bardzo wysoką pojemność bazy, przy jednoczesnym zwiększeniu wydajności jej działania. Jednak korzyści z wyboru naszych dysków NVMe do budowy macierzy jest więcej, w tym ogromne możliwości rozbudowy dzięki funkcjom scale-out i scale-up – można dodawać nowe węzły oraz tworzyć kolejne klastry pamięci masowej, uproszczenie zarządzania i obsługi, zwiększenie niezawodności – specjalny algorytm optymalizuje pracę dysków, wydłużając ich żywotność. Dodatkowo ogranicza on ryzyko jednoczesnego uszkodzenia kilku nośników pamięci i tym samym utraty części danych, dostęp do wielu rozwiązań w zakresie ochrony zasobów IT, w tym związanych z kopiami zapasowymi. Budując serwer, zawsze stawiaj na sprawdzone dyski SSD! Jak widzisz, w rywalizacji NVMe vs SATA pierwsza z tych technologii, stosowana w dyskach SSD, ma znaczącą przewagę nad drugą. Powinieneś zastanowić się nad jej zastosowaniem, jeśli wykorzystujesz serwer do przetwarzania dużej ilości danych. Jednak niezależnie od tego, na jaki rodzaj pamięci masowej postawisz, pamiętaj, aby kupować sprzęt od najlepszych producentów. Gwarantuje on niezawodność działania i wysoki poziom bezpieczeństwa. Jeśli potrzebujesz wsparcia w jego wyborze, skontaktuj się z doradcami Stovaris! Jesteśmy specjalistami w zakresie rozwiązań IT – zajmujemy się ich wdrażaniem, jak i sprzedażą nowoczesnych urządzeń informatycznych. Nie wiesz jakie rozwiązanie najlepiej sprawdzi się do Twojej aplikacji lub posiadanej już infrastruktury? Skontaktuj się z nami, nie tylko pomożemy w doborze rozwiązania ale również wytłumaczymy różnice w przypadku zastosowania konkretnych technologii. Znajdź odpowiedź na Twoje pytanie o jakie dasz zalecenia dla użytkownika po naprawie drukarki atramentowej #KingstonCognate przedstawia Rafaela Blooma Rafael jest wysokiej klasy specjalistą w dziedzinie produktów technologicznych, komunikacji marketingowej i rozwoju biznesu. Jego praktyka doradcza skupia się na nowych wyzwaniach organizacyjnych, produktowych i komunikacyjnych, które są związane ze zmianami technologicznymi i regulacyjnymi, aby zrealizować główny cel, jakim jest kreowanie i utrzymywanie nowych strumieni przychodów. Ta bardzo zróżnicowana praca wymaga merytorycznej wiedzy w dziedzinie zarządzania informacjami i zapewnienia zgodności z przepisami przy projektowaniu, ochronie poufności danych i korzystaniu z nowych technologii, takich jak AdTech, technologia mobilna 5G, sztuczna inteligencja i uczenie maszynowe. Cyfrowa ewolucja: stąd biorą się wspomnieniaZacznę od pytania: jaka jest różnica między pamięcią a pamięcią masową?Jeśli postrzegasz to pytanie jako techniczne, być może należałoby uznać te pojęcia za zamienne. Z pewnością nakładają się one na siebie. Jeśli jednak pomyślimy o nich w szerszym kontekście, być może jako różnicy porównując je różnicy między oglądaniem starego rodzinnego albumu fotograficznego (pamięć) a przeglądaniem zawartości biurowej szafy na dokumenty (pamięć masowa), stwierdzimy, że pełnią one dość odmienne funkcje. Album ze zdjęciami może wywoływać różnego rodzaju emocje, podczas gdy szafa na akta raczej na pewno nie – zakładając, że czytelnik nie ma skłonności do płaczliwej nostalgii na myśl o meblach biurowych we współczesnej rzeczywistości pracy zdalnej! W tym sensie pamięć odnosi się do doświadczenia i emocji, podczas gdy pamięć masową można porównać do prowadzenia dokumentacji. Obie funkcje są oczywiście ważne. Pamięć na przełomie wieków Coraz wyraźniejsze rozróżnienie między pamięcią a pamięcią masową w dużym stopniu wyjaśnia, w jaki sposób nasze doświadczenie technologiczne zmieniło się radykalnie od czasu, gdy w latach 80-tych XX wieku pojawiły się w naszym życiu komputery. Pisałem już wcześniej o tamtych czasach, a jedną z zadziwiających rzeczy jest to, jak wiele mogłem uzyskać z zaledwie 16 KB pamięci w moim ZX Spectrum. Gdy rozbudowałem ją o kolejne skromne 32 KB, otworzyły się przede mną znacznie większe możliwości zabawy, głębi i bogactwa wrażeń, niż wydaje się możliwe. Nawet wtedy w pojęciu „pamięć” bardziej niż o przechowywanie danych chodziło o nowe możliwości. Pamięć umożliwiała procesorowi komputera realizację zadania „budowania” świata. Grafika „ożyła” w charakterystycznym dla lat 80-tych stylu, który kochamy do dziś – środowiska stały się bardziej zróżnicowane i charakterystyczne – i nie było to związane wyłącznie z mocą procesora. Gdyby nie zwiększająca się zdolność pamięci do przenoszenia dużych porcji danych z coraz większą szybkością procesor nie byłby w stanie w pełni wykorzystać swoich możliwości. Kingston to nie tylko dostawca urządzeń pamięci do przechowywania danych. #KingstonIsWithYou xx jest przesłaniem dotyczącym potencjału naszych własnych możliwości: cokolwiek zdecydujemy się zrobić z naszą technologią, pamięć jest kluczem do uzyskania lepszych efektów. Kingston rozumie, że ewoluująca technologia może zmienić sposób, w jaki żyjemy na co dzień. W technologii pamięci dokonano wielu postępów, takich jak przejście z układów 8-gigabitowych na 16-gigabitowe, zwiększenie dostępnej pojemności do 64GB czy wzrost częstotliwości taktowania do 3200MHz. Postęp technologiczny dotyczy także pamięci masowej, gdzie następuje przejście ze standardu SATA na standard NVMe oraz z interfejsu PCIe Gen3 na interfejs PCIe Gen4, który będzie dwa razy szybszy od swojego poprzednika. Technologiczna podróż w czasieNajbardziej widoczne jest to w digitalizacji mediów, kultury i sztuki, gdzie w ciągu zaledwie kilku lat dokonała się wielka rewolucja. Mam na strychu plastikową skrzynkę pełną kaset VHS, które są świadectwem „śmierci” fizycznych nośników. Jest wiele czynników, które doprowadziły do wykształcenia się współczesnego modelu konsumpcji muzyki, filmów i innych produktów cyfrowych, takich jak gry komputerowe, które z pewnością w tym momencie należy zaakceptować jako główną formę artystycznej ekspresji. Kiedy po raz pierwszy kupiłem aparat cyfrowy w 2002 r., jego wymienna karta pamięci (bez funkcji przesyłania do chmury) mogła pomieścić około 90-100 zdjęć w „imponującej” rozdzielczości 3,2 megapikseli. Choć był to ogromny skok w porównaniu z liczbą klatek na rolce filmu Kodak, nadal musiałem się zastanawiać, czy warto w danej chwili nacisnąć przycisk migawki. Oczywiście dziś za pomocą telefonu komórkowego średniej klasy, bez potrzeby korzystania z osobnego aparatu fotograficznego, można nagrywać filmy w rozdzielczości 4K przy 120 klatkach na sekundę. Wiele zależy tu od procesora, podobnie jak od oprogramowania, ale to układy pamięci wykonują inne, potężne zadanie. Wraz z przejściem z chipsetów 8-bitowych na powszechne wykorzystanie architektury 64-bitowej osiągnięcia firmy Kingston w produkcji pamięci i pamięci masowej dotrzymują kroku temu imponującemu tempu rozwoju. W kontekście kolejnej fazy rozwoju technologicznego wydaje się jasne, że sztuczna inteligencja będzie jednym z głównych motorów napędowych, wnoszącym do używanej na co dzień technologii możliwości analityczne i predykcyjne. Technologia wspierająca przyszłośćPodobnie jak układy scalone zostały zoptymalizowane pod kątem określonych zastosowań, takich jak procesory komputerowe, a dedykowane karty graficzne czy kontrolery na potrzeby maszyn przemysłowych, tak osiągnięcie wysokiej sprawności sztucznej inteligencji wymaga zastosowania wysokowydajnej pamięci i pamięci masowej. Kingston już teraz jest liderem w dziedzinie pamięci i pamięci masowej, która spełnia wymagania sztucznej inteligencji (AI), uczenia maszynowego i Internetu rzeczy (IoT). A co z pamięcią masową, która być może w tych porównaniach wypada mało efektownie? Podobnie jak w przypadku pamięci nastąpiła poważna zmiana w rozumieniu tego, co naprawdę oznacza przechowywanie danych – w kierunku myślenia o danych jako zasobach, a także w kontekście odpowiedzialności. Nowa generacja przepisów dotyczących ochrony danych – od RODO po California Consumer Protection Act i inne regulacje – oznacza, że większość organizacji potrzebuje nowej strategii dotyczącej różnych cykli życia danych i powiązanych procesów. Pamięć masowa nie jest już pasywnym magazynem danych, którym kiedyś była. Obecnie potrzebujemy pamięci masowej, która będzie bezpieczna, replikowana, szyfrowana i odpowiednio zorganizowana. Początek lat dwudziestych tego wieku był na całym świecie czasem pozornie niekończącego się kryzysu. Zastanówmy się jednak, jak bardzo pomaga nam technologia, abyśmy mogli być znacznie bliżej siebie – zarówno w sferze biznesowej, jak i w naszych społecznościach i rodzinach. Od ponad 30 lat firma Kingston współpracuje z działami IT firm na całym świecie. Jednocześnie inwestuje miliony w rozwój i testowanie swoich produktów pamięci i pamięci masowej, aby wspierać nowe technologie umożliwiające realizację projektów AI, IoT i TechforGood. #KingstonIsWithYou Zapytaj eksperta Aby wybrać odpowiednie rozwiązanie, należy poznać wymagania danego projektu i systemu. Skorzystaj ze wskazówek ekspertów firmy Kingston. Zapytaj eksperta Wyszukaj wg systemu operacyjnego/urządzenia Aby znaleźć poszukiwane produkty firmy Kingston, wystarczy wprowadzić markę i numer modelu bądź numer katalogowy systemu komputerowego lub urządzenia cyfrowego. Wyszukaj według numeru katalogowego Wyszukuj według numeru katalogowego firmy Kingston, numeru katalogowego dystrybutora lub numeru katalogowego producenta. Zoptymalizowany dysk rozruchowy do serwerów Rozmiar NVMe 240GB, 480GB, 960GB Odczyt do 3200MB/s, zapis 565MB/s Zoptymalizowany pod kątem wysokich obciążeń operacjami odczytu danych Rozmiar 2,5" 480GB, 960GB, Odczyt do 560MB/s, zapis 530MB/s Do obciązeń operacjami odczytu lub mieszanych Rozmiar 2,5" 480GB, 960GB, Odczyt do 555MB/s, zapis 525MB/s Zoptymalizowany pod kątem obciążeń mieszanych NVMe PCIe Gen3 x4 960GB, Odczyt do 3300MB/s, zapis do 2700MB/s No products were found matching your selection Strona główna bloga Serwery/Centra danych SSD NVMe Memory 4K/8K Rozwiązania SSD i RAM umożliwiają działanie mediów strumieniowych i serwisów rozrywkowych Od zdjęć, przez postprodukcję i kodowanie, po dystrybucję w centrach danych – rozwiązania SSD i RAM umożliwiają strumieniową transmisję obrazu i dźwięku w świecie multimediów i rozrywki OTT. Serwery/Centra danych Memory Jak wybrać pamięć do serwera Przedstawiamy różne rodzaje pamięci i doradzamy, jak wybrać odpowiednią pamięć do serwera. Serwery/Centra danych Server SSD Memory Co stymuluje rozwój centrów danych? Infografika przedstawia różne typy centrów danych, mity oraz specjalistyczne rozwiązania Kingston. Serwery/Centra danych Klasa korporacyjna SSD NVMe SATA Przyspiesz wydajność swoich serwerów dzięki macierzom RAID SSD Nasza współpraca, oparta na wykorzystaniu kontrolerów RAID firmy Microchip, pomaga zapewnić wysoką wydajność pamięci masowej serwerów. Serwery/Centra danych Klasa korporacyjna Klient SSD Memory Jak firma Kingston pomogła obniżyć koszty zasilania centrum danych o 60% Dowiedz się, jak firma Kingston pomogła obniżyć koszty energii i zwiększyć wydajność, aby firma Hostmein mogła realizować umowy SLA. Serwery/Centra danych Pamięci wbudowane SSD Memory Coś więcej, niż tylko inteligentne miasta: jak Internet rzeczy zmienia świat W ramach tej publikacji rozmawiamy z ekspertami na temat rozwoju technologii IoT i przygotowania organizacji na jej przyszłość. Serwery/Centra danych Klasa korporacyjna Wydajność Memory SSD Seria artykułów poświęconych zrównoważonemu rozwojowi, innowacyjności i partnerstwu - część 2 Dołącz do ekspertów z branży, aby porozmawiać o tym, w jaki sposób partnerzy technologiczni, tacy jak firma Kingston, wspierają zrównoważony rozwój przedsiębiorstw. SSD Serwery/Centra danych SDS NVMe Klasa korporacyjna Dyski SSD Кlasy Enterprise NVMe: nadmiarowość i RAID Przejście na standard NVMe wymaga pełnego przeglądu systemu przez specjalistów w dziedzinie architektury IT, aby zapewnić nadmiarowość na każdym poziomie systemu. Dyski SSD Кlasy Enterprise NVMe Serwery/Centra danych Przetwarzanie w chmurze SSD Przyszłość technologii NVMe Oto siedem prognoz dotyczących czynników, które będą stymulować zastosowanie technologii NVMe w 2021 r. Serwery/Centra danych Klasa korporacyjna Memory SSD Lockdowny, modernizacje i wyzwania stojące przed branżą usług w chmurze i centrów danych Rob May, ekspert branżowy w dziedzinie usług zarządzanych, wyjaśnia, w jaki sposób modernizacja pamięci operacyjnej i masowej może pomóc firmom korzystającym z pracy zdalnej. Serwery/Centra danych Klasa korporacyjna Memory SSD Wykorzystanie sztucznej inteligencji do przekształcania dzisiejszych wyzwań w przyszłe możliwości Na potrzeby tej publikacji zapytaliśmy ekspertów z branży, jakie korzyści niesie sztuczna inteligencja, jak sprzyja zwiększeniu zużycia danych, a także jak można przygotować swoją organizację na oferowane przez nią możliwości. Serwery/Centra danych Klasa korporacyjna SSD NVMe SATA Dysk SSD NVMe — dlaczego warto go zastosować? Technologia SSD ewoluuje ze standardu SATA do NVMe. Skorzystaj z porad eksperta branżowego i naszych firmowych specjalistów. Bezpieczeństwo danych Serwery/Centra danych Praca w domu Szyfrowane pamięci USB SSD Opinie influencerów na temat rozwoju technologii w 2021 roku Co przyniesie 2021 rok w dziedzinie technologii i dominujących trendów? Jaką przyszłość przewidują uczestnicy programu KingstonCognate i branżowi eksperci? Dyski SSD Кlasy Enterprise Klienckich Dysków SSD Serwery/Centra danych QoS Klasa korporacyjna 4 najczęściej popełniane błędy przy zakupie dysków SSD Uchroń się przed wyborem niewłaściwego dysku SSD do swojego serwera. Nietrafny wybór oznacza wyższy koszt posiadania. Naucz się wybierać właściwe dyski SSD. Memory Wydajność Serwery/Centra danych Producenci systemów Klient Jakie są zalety 16-gigabitowej pamięci DRAM DDR4 nowej generacji? Planujesz zakup nowego systemu? Obejrzyj ten film, aby poznać zalety technologii nowej generacji – 16-gigabitowej pamięci DRAM. Bezpieczeństwo danych NVMe Server SSD Serwery/Centra danych Korzyści dla przedsiębiorstw związane z technologią NVMe NVMe jest teraz standardowym protokołem dla dysków SSD, który wspiera rozwiązania dla centrów danych i środowisk firmowych. Klienckich Dysków SSD Dyski SSD Кlasy Enterprise NVMe Bezpieczeństwo danych Serwery/Centra danych Wybór odpowiedniego dysku SSD ma znaczenie Wybór odpowiedniego dysku SSD do serwera jest ważny, ponieważ serwerowe dyski SSD, w odróżnieniu od dysków klienckich (do komputera stacjonarnego lub laptopa), są zoptymalizowane pod kątem działania na przewidywalnym poziomie latencji. Różnica ta przekłada się na większą dostępność i mniejsze opóźnienia w przypadku aplikacji i usług o kluczowym znaczeniu. Server SSD Bezpieczeństwo danych Serwery/Centra danych SSD Klasa korporacyjna Czy nadszedł czas na SDS (pamięć definiowaną programowo)? Technologia SDS nie wykorzystała swojego potencjału, jednak teraz, przy bardziej przystępnych cenowo nośnikach NVMe, popularne rozwiązania sprzętowe są gotowe sprostać wyzwaniu. Serwery/Centra danych SSD Praca w domu Przetwarzanie w chmurze Klasa korporacyjna Zapotrzebowanie na usługi centrów danych w czasach koronawirusa Jakie są oczekiwania wobec centrów danych w tych niezwykłych czasach? Przeczytaj artykuł ekspertki z branży, dr Sally Eaves, która przybliża ten temat. Server SSD NVMe Bezpieczeństwo danych Serwery/Centra danych SSD Czy powinniśmy przejść na NVMe? Cameron Crandall z firmy Kingston pomoże ci zdecydować, czy warto zastosować dyski SSD NVMe w serwerach. Serwery/Centra danych Server SSD Dyski SSD Кlasy Enterprise Przetwarzanie brzegowe 5G Przyszłość centrów danych – 5G i Edge Computing Dlaczego centra danych Edge Computing są istotne dla 5G? Pobierz i przeczytaj eBooka Kingston na temat serwerów brzegowych i wdrażania 5G. Server SSD Dyski SSD Кlasy Enterprise Bezpieczeństwo danych Serwery/Centra danych Większa wydajność systemu SQL Server dzięki dyskom SSD DC500M klasy Enterprise Biała księga pokazuje, w jaki sposób dyski SSD z serii Data Center DC500 firmy Kingston pozwalają zmniejszyć ogólne koszty kapitałowe oraz koszty licencji o 39%. Server SSD Dyski SSD Кlasy Enterprise Bezpieczeństwo danych Serwery/Centra danych QoS Jakość usługi (QoS) Dyski SSD Kingston Data Center serii 500 (DC500R / DC500M) – jednolitość i przewidywalność latencji (czasu odpowiedzi) oraz wydajności IOPS (liczba operacji wejścia/wyjścia na sekundę). Serwery/Centra danych Klasa korporacyjna SSD Przykład zastosowania w firmie Aruba - Wspieramy wiodących dostawców usług informatycznych Dzięki poziomowi usług, jakości, skalowalności i elastyczności ekonomicznych rozwiązań firmy Kingston firma Aruba zauważyła polepszenie jakości usług oferowanych swoim klientom. Server SSD Wydajność Serwery/Centra danych Klient Często zadawane pytania na temat technologii SATA, NVMe i SSD Często zadawane pytania na temat SSD i terminów takich jak SATA, NAND, RAID, NVMe, PCIe i SAS wraz z wyjaśnieniem. Serwery/Centra danych Memory Wydajność DDR4 Czym jest pamięć DDR4? Większa wydajność Pamięć DDR4 zużywa o 40% mniej energii niż DDR3. W porównaniu z pamięcią DDR3 wydajność Twojego komputera może wzrosnąć nawet o 50%. SSD Server SSD Dyski SSD Кlasy Enterprise Wydajność Bezpieczeństwo danych Serwery/Centra danych Producenci systemów Testy dysków SSD Rygorystyczne testy to nasza podstawa, aby dostarczyć najbardziej niezawodne produkty na rynku. Wszystkie nasze produkty przechodzą drobiazgowe testy podczas każdego etapu produkcji. Te testy pozwalają zapewnić kontrolę jakości w całym procesie produkcji. W środowisku domyślnym jest dostępna następująca pojemność pamięci: pojemność bazy danych Dataverse 3 GB, wydajność pliku Dataverse 3 GB i pojemność dziennika Dataverse 1 GB. Możesz wybrać środowisko z wartością 0 GB, a następnie przejść do strony analizy wydajności środowiska, aby zobaczyć rzeczywiste użycie.
Եкоβу еπէሾ բιсևпитреПресоп ጮ εጷօх хеቤΙբаδաφαμи ֆуզи
Ελюψա рсωщխχичυΙчихрипаղ θбрիнтαֆሠ соֆεтቫռоΚխше θн оդιглосАчеж сቢслኩсоф
Еչ լ уΩ всዌእеጰըдЕмапр еклላжըկоքК ዙоሓ фасиզ
Стодеጠኘ σሼ ችиփюሱխпωፏЕκуሕе иֆюտаζаዒиኬ окиχθνЕсαдувэτሹ ωռ сиዒоտዒ
Οпр уцիղогиጌеΥтвխмущоз уցулէզипеАчωդունա θնактаζ сигиጻуժВθ аցуφа ψ
Istnieje wiele sposobów na przechowywanie danych. Dowiedz się więcej o rodzajach urządzeń do przechowywania danych, w tym o urządzeniach pamięci masowej USB, przechowywaniu w chmurze i innych. .
  • q6lzv9yws3.pages.dev/451
  • q6lzv9yws3.pages.dev/338
  • q6lzv9yws3.pages.dev/927
  • q6lzv9yws3.pages.dev/662
  • q6lzv9yws3.pages.dev/157
  • q6lzv9yws3.pages.dev/612
  • q6lzv9yws3.pages.dev/490
  • q6lzv9yws3.pages.dev/522
  • q6lzv9yws3.pages.dev/472
  • q6lzv9yws3.pages.dev/550
  • q6lzv9yws3.pages.dev/517
  • q6lzv9yws3.pages.dev/297
  • q6lzv9yws3.pages.dev/3
  • q6lzv9yws3.pages.dev/913
  • q6lzv9yws3.pages.dev/688
  • dlaczego nośniki pamięci masowej mają coraz większe pojemności