Rynek serwerów, który przez lata był nudnym segmentem przyrastającym o 4% rocznie, dziś puchnie w tempie ponad 100%. Globalne zasoby produkcyjne dosłownie pożarł najmłodszy Wielki Brat: AI. Z Arturem Kamińskim, CTO ApexIT, o „wyparciu” rynkowym, długu technologicznym i świecie, w którym kable i chipy są ważniejsze od kodu, rozmawiają redaktorzy SmartFactory.Review.
SFR: Spotykamy się w marcu 2026 roku. W kuluarach branżowych mówi się, że sytuacja na rynku sprzętu przypomina stan oblężenia. Czy to kolejna „powtórka z rozrywki”, jaką mieliśmy w czasie pandemii?
Artur Kamiński: Absolutnie nie. To nie jest powtórka z lat 2021–2022. Wtedy mieliśmy do czynienia z zerwanymi łańcuchami dostaw; dziś mamy do czynienia z świadomą, strukturalną realokacją globalnych mocy produkcyjnych w stronę sztucznej inteligencji. Świat postanowił postawić wszystko na jedną kartę – AI – i dlatego traktowany dotąd priorytetowo segment „enterprise”, oznaczający między innymi zwykłe firmy potrzebujące serwerów do księgowości czy baz danych, trafił na szary koniec kolejki.
Pięciu największych dostawców chmury planuje wydać w tym roku 700 miliardów dolarów na infrastrukturę. Skala projektu Stargate, czyli pół biliona dolarów w cztery lata, sprawia, że zamówienia pojedynczych korporacji są dla producentów komponentów po prostu nieistotne.
W rozmowach z klientami zdarza się Panu mówić „A nie mówiłem?” Jak często obecną trudną sytuację komplikuje nawis długu technologicznego?
Tak, to jest moment bolesnej weryfikacji. Ci, którzy lekko – nazywając to wówczas niekiedy podejściem zwinnym, elastycznym – podchodzili do zagadnień związanych z niezaciąganiem zbyt dużego długu technologicznego, są dziś w sytuacji, gdy jego spłata kosztuje znacznie więcej. I to zarówno w pieniądzu, jak i w czasie.
Widzę klientów, którzy budżetowali projekty w 2024 roku i dopiero teraz, w 2026, przychodzą z gotówką, mówiąc: „Bierzcie nas całych, ruszajmy”. Moja odpowiedź, pomimo szczerych chęci domknięcia umów, jest równie brutalnie szczera: dozbierajcie pieniędzy i zastanówcie się, czy macie rok na czekanie, bo dzisiaj infrastruktury nie buduje się szybko. Ta sytuacja bardzo dotkliwie stawia nas wszystkich na rynku do pionu.
Okazuje się bowiem, że biznesowa ciągłość to nie tylko ochrona przed pożarem serwerowni, to utrzymanie zdolności do pracy w zmiennym środowisku ekonomicznym.
Czy klienci akceptują te nowe realia? Wspominał Pan o swoistym „wyparciu”.
To jest klasyczne wyparcie. Mamy sytuacje, gdzie klienci widząc ofertę, są strasznie zbulwersowani. Pokazują nam RFI z lutego 2025 roku, gdy ceny były o połowę niższe. Ale rynek się zmienił. Samsung realizuje tylko 70% zamówień na DRAM, a ceny modułów Samsung 32GB skoczyły z 149 do 239 USD w kilka miesięcy. Ważność ofert producentów takich jak HPE czy Cisco skurczyła się do 7–14 dni. Niektórzy klienci, zwłaszcza ci najwięksi, są przekonani, że ich pozycja rynkowa powinna przekładać się na wyjątki – i trudno się temu dziwić, bo przez lata tak to właśnie działało. Tymczasem Western Digital wyprzedał zapasy dysków HDD na cały 2026 rok. Tu nie ma miejsca na negocjacje siłowe.
Jak w takim razie planować zakupy, gdy lead time na dyski HDD nearline wynosi 52 tygodnie?
Rekomendujemy analizę potrzeb na 12–18 miesięcy do przodu i składanie zamówień z wyprzedzeniem co najmniej półrocznym. Jeśli firma potrzebuje serwerów na jesień, musi zamówić je w marcu. Trzeba też być otwartym na kompromisy. Czasami lepiej kupić serwer z połową planowanego RAM-u teraz, a resztę dokupić w 2027 roku, gdy nowe fabryki Micron czy SK Hynix wejdą w pełną fazę produkcyjną.
W ApexIT staramy się też „szukać mocy w szafach”. Typowa serwerownia jest wykorzystywana silosowo – często pod maską drzemie jeszcze sporo wolnej mocy obliczeniowej, którą można odzyskać poprzez audyt i optymalizację.

Mówi się także o „chmurze jako pomoście”. Czy to rzeczywiście „pomostowe” lekarstwo na brak sprzętu on-premise?
Chmura to dziś taktyczny rezerwuar mocy. Gdy na serwer fizyczny czeka się 9 miesięcy, w chmurze uruchomisz go w godziny. Ale uwaga – to nie jest „ziemia obiecana”, gdzie zasoby są nieskończone. Już teraz widzimy rosnące ciśnienie na chmurę, co może przełożyć się na wzrost cen lub ograniczenia dostępności.
Strategia, którą promujemy, to model trójwarstwowy: chmura dla zmiennych obciążeń, on-premise dla przewidywalnych procesów i powrót z chmury na własny sprzęt, gdy koszty chmury przekroczą 60–70% ekwiwalentu sprzętowego.
A co z sektorem publicznym? Tam budżety są sztywne, a procedury przetargowe trwają miesiącami.
Sektor publiczny jest w najgorszej sytuacji. Biuletyn Zamówień Publicznych pokazuje co roku ten sam schemat: gwałtowne wydatkowanie pieniędzy w drugiej połowie roku. Obawiam się, że w tym roku, jeśli klient przyjdzie we wrześniu, to nikt nie podejmie ryzyka dostawy do połowy grudnia. Czasy dostaw to dziś, jak wspominałem, 80–120 dni. Ryzyko biznesowe, że nie dowieziemy sprzętu przed zamknięciem roku budżetowego, jest ogromne. Widzimy już jednak pozytywne zmiany – np. NASK wydłuża w zapytaniach terminy dostaw z 30 do 90 dni, co daje nam, integratorom, realną szansę na realizację.
W Pana podejściu czuć silny nacisk na optymalizację warstwy software’owej, by ratować hardware. Jakie technologie tu dominują?
Przede wszystkim konteneryzacja. Kubernetes pozwala upakować aplikacje tak, by zużywały o 50% mniej zasobów niż tradycyjne maszyny wirtualne. Zamiast 4 GB RAM na VM, kontener może potrzebować kilkuset MB. Inny przykład to VMware VCF 9.0 i technologia Memory Tiering, która pozwala zarządzać pamięcią w sposób warstwowy na istniejącym sprzęcie. W obszarze storage’u wracamy do hierarchizacji: NVMe jest zbyt drogie na wszystko. Stosunek cen SSD do HDD skoczył z 6-krotności do ponad 16-krotności. Dlatego dane „aktywne” trzymamy na NVMe, a resztę na tanich dyskach HDD lub w archiwum.
Czy w obliczu tych problemów bezpieczeństwo nie schodzi na dalszy plan?
To byłby tragiczny błąd. Hakerzy nie biorą wolnego tylko dlatego, że rynek IT ma problem z dostawami. Kiedy rośnie dług technologiczny, rośnie też pole do ataku. Polska jako kraj frontowy jest pod ciągłym ostrzałem.
Nie wolno przesuwać budżetów z bezpieczeństwa na zakup brakujących serwerów.
Proponujemy rozwiązania, które nie wymagają potężnej infrastruktury: model Zero Trust oparty o tożsamość oraz mikrosegmentację sieciową, która wykorzystuje to, co już stoi w szafach, a realnie zwraca się w 12 miesięcy.
AI jest przyczyną kryzysu, ale podobno stało się też Pana głównym narzędziem pracy. Wszystko zaczęło się od tego, że podobno przestał Pan pisać kod. To prawda?
Prawda. Jako programista z wykształcenia, dzięki narzędziom takim jak Claude, zrobiłem na początek, na próbę, na potrzeby prywatne, pełny refactoring starej aplikacji w PHP 5.4 w ciągu trzech tygodni. To był kod pisany przez kolegę, który zmarł 6 lat temu; nikt nie chciał się tego dotknąć. AI wygenerowało wysokiej jakości, udokumentowany kod z pełnymi testami.
To mnie ośmieliło do poszukania zastosowań w pracy menedżerskiej. W ApexIT używamy dziś AI na przykład do analizy 250-stronicowych dokumentów przetargowych; w ciągu 15 minut mogę uzyskać tabelę z ryzykami i niekiedy wręcz ze wskazaniem, pod którego producenta pisane było zapytanie. To nie jest fascynacja gadżetem, to walka o czas.
Nie boi się Pan, że AI zastąpi Pana zespół inżynierów-ekspertów?
AI nie zastępuje zespołu, ono daje mu ramię bioniczne, dzięki któremu możemy przenieść więcej ładunków.
Nasz zespół to ludzie z 20-letnim doświadczeniem w takich firmach jak HP, są naszym skarbem. To prawda natomiast, że rynek się zmienia. I o ile kiedyś bycie programistą w Go, pracującym zdalnie z ciepłych krajów i przebierającym w zamówieniach, było szczytem marzeń, to dziś kod pisze maszyna.
Natomiast koledzy, którzy kładą kable w centrach danych i montują fizyczne serwery, którzy planują, budują, integrują architekturę na złożone potrzeby naszych klientów, to dziś „królowie świata”. Ich praca jest niezastępowalna przez algorytmy. Paradoksalnie, AI zrewidowało nasze myślenie o ludzkim intelekcie. Można zaryzykować na potrzeby tej rozmowy nieco uproszczoną tezę, że generowanie kolejnych słów w zdaniu to proces statystyczny, który maszyna robi po prostu szybciej.
Rozmawiamy o centrach danych. Prześlizgnęliśmy się tylko trochę nad zagadnieniem kosztów energii. Na początek kwestia podstawowa: czy one naprawdę są tak „zielone”, jak sugerują certyfikaty?
Nie dajmy się zwieść. Data center to dziś „brudny biznes” w sensie ekologicznym przez ogromne zużycie energii. Te wszystkie certyfikaty 100% OZE to w dużej mierze efekt handlu certyfikatami ETS, a nie realnej zielonej energii. Centrum danych potrzebuje stabilnej, przewidywalnej mocy, a odnawialne źródła są kapryśne. Przyszłością są lokalne elektrownie jądrowe przy obiektach – w Stanach już rozluźnia się politykę dostępu do technologii SMR. Bez radykalnej zmiany w energetyce, wąskie gardło przesunie się z „braku chipów” na „brak prądu”.
W Państwa rekomendacjach pojawia się postulat, aby „prowadzić projekty niezależnie od dostaw”. W tradycyjnym modelu IT najpierw budowało się fundament, czyli kupowało serwery, a potem instalowało na nich aplikacje. Dlaczego dzisiaj to podejście jest błędem?
Ponieważ trzymanie się starego modelu oznacza po prostu paraliż organizacji.
Jeśli biznes potrzebuje nowej funkcjonalności dzisiaj, nie można czekać rok na dostarczenie macierzy czy procesorów. Musimy zacząć operować na dwóch różnych prędkościach.
Projekt software’owy zazwyczaj wynika bezpośrednio z konkretnej potrzeby biznesowej – klient chce, żeby „coś działało”, i nie interesuje go, na czym to stoi. Hardware jest tylko funkcją tego zapotrzebowania. Dlatego radzimy klientom: rozdzielcie te projekty, nie wiążcie ich ze sobą sztywno w harmonogramie.
Jak zatem technicznie zrealizować wdrożenie oprogramowania, nie mając w szafie docelowych serwerów?
Rozwiązaniem jest rozpoczęcie rozwoju i testów w chmurze, podczas gdy fizyczny sprzęt jest dopiero „w drodze”. Chmura pozwala na natychmiastowe uruchomienie prac deweloperskich. Dzięki takiemu podejściu, gdy serwery w końcu dojadą do centrum danych po tych kilku czy kilkunastu miesiącach, oprogramowanie jest już gotowe, przetestowane i może zostać zmigrowane na docelową infrastrukturę. To wymaga jednak zmiany w planowaniu – należy dodawać od 50% do 100% buforu czasowego do każdego harmonogramu obejmującego zakup sprzętu.
Czy takie rozdzielenie projektów nie rodzi ryzyka, że na koniec dnia software nie „dogada się” z fizycznym hardware?
Ryzyko istnieje zawsze, dlatego kluczowe jest zdefiniowanie punktów decyzyjnych w projekcie. Trzeba mieć ustalony plan: „Jeśli sprzęt nie dotrze do konkretnej daty X, przechodzimy na wariant chmurowy Y”. Rekomendujemy też wdrażanie przyrostowe – instalowanie komponentów systemu w miarę ich dostępności, zamiast czekania na kompletne zamówienie. Dzisiaj wygrywają te firmy, które potrafią być elastyczne i nie boją się kompromisów, np. decydując się na mniejszą liczbę serwerów na start, byle tylko nie blokować startu ważnego dla firmy projektu software’owego.
Czy to oznacza, że w przyszłości projekty IT zawsze będą tak „rozszczepione”?
Myślę, że to stanie się standardem.
Firmy, które nauczą się zarządzać projektami software’owymi niezależnie od kaprysów rynku półprzewodników, wyjdą z tego kryzysu silniejsze.
Chmura przestała być tylko celem migracji, a stała się niezbędnym narzędziem do zachowania ciągłości pracy w świecie, w którym na fizyczny dysk czeka się rok. To po prostu nowa rzeczywistość, której musimy się nauczyć.
Na koniec wątek osobisty – Panie Arturze, czy strzelectwo długodystansowe pomaga w zarządzaniu kryzysowym?
To moja pasja, strzelam z JP LRP-7 w kalibrze .308 Win na długie dystanse. W strzelectwie, tak jak w IT, liczy się precyzja, opanowanie i zrozumienie balistyki – czyli tego, co wydarzy się po naciśnięciu spustu.
Podobnie w biznesie: musimy przewidywać trajektorię rynku. Obecna sytuacja to stan trwałej turbulencji. Rynek serwerów, który przez lata był nudnym segmentem rosnącym o 4% rocznie, dziś rośnie o ponad 100%. To niesamowita szansa dla tych, którzy mają kompetencje w „ciężkiej” infrastrukturze.
Czego zatem życzyć CIO i CTO w tych niepewnych czasach?
Przede wszystkim spokoju i otwartości. Zamiast frustracji i wzajemnych pretensji – wspólne szukanie wyjścia z trudnej sytuacji. Współpracujmy, planujmy z wyprzedzeniem i nie bójmy się kompromisów. Bo technologia nie zatrzyma się tylko dlatego, że brakuje nam kości pamięci. Musimy nauczyć się surfować na wysokich falach – bo za miesiąc, za dwa, rzeczywistość może być jeszcze inna.
Dziękujemy za rozmowę.
Dziękuję. Do zobaczenia w serwerowniach.

Strategia przetrwania kryzysu. 6 kroków do uodpornienia firmy
1. Zamawiaj wcześniej, negocjuj mądrzej
Ważność ofert producentów sprzętu skurczyła się z 30 do 14 dni, a wkrótce może spaść do 7 dni. Ceny pamięci rosną z kwartału na kwartał.
- Analizuj potrzeby sprzętowe na 12–18 miesięcy do przodu i składaj zamówienia z wyprzedzeniem 6–12 miesięcy
- Rozważ serwery z połową planowanej pamięci RAM teraz, z uzupełnieniem w 2027, gdy ceny się ustabilizują
- Dywersyfikuj dostawców – 63% firm w branży już to robi; nie uzależniaj się od jednego źródła
2. Chmura jako most, nie cel sam w sobie
Gdy dostawa serwera trwa 9+ miesięcy, równoważną moc obliczeniową w chmurze uruchomisz w godziny. 70% przedsiębiorstw przyjęło już strategię chmury hybrydowej.
- Traktuj chmurę jako taktyczny pomost – przenieś obciążenia na czas oczekiwania na sprzęt, korzystając z IaC – Infrastructure as Code (np. Terraform)
- Model trójwarstwowy: chmura dla zmiennych obciążeń, on-premise dla przewidywalnych, edge dla krytycznych czasowo
- Wróć na on-premise, gdy koszty chmury przekroczą 60–70% ekwiwalentu sprzętowego
- Wdróż FinOps od pierwszego dnia – dojrzałe praktyki FinOps redukują koszty chmury o 25–30%
3. Wyciśnij więcej z tego, co masz
Konteneryzacja pozwala uruchomić aplikację na kilkuset MB RAM zamiast 1–4 GB wymaganych przez VM. To najszybszy sposób na uwolnienie zasobów.
- Konteneryzuj aplikacje bezstanowe – Kubernetes upakuje je na mniejszej liczbie serwerów, oszczędzając nawet 50% zasobów
- Wykorzystaj VMware VCF 9.0 Memory Tiering do redukcji zużycia pamięci na istniejącej infrastrukturze
- Rozważ migrację z VMware na alternatywy – po przejęciu przez Broadcom oszczędności sięgają 80–94% kosztów licencji
- Przedłuż życie sprzętu: Third-Party Maintenance utrzyma serwery latami po wygaśnięciu oficjalnego wsparcia
4. Zarządzaj danymi warstwowo
Stosunek cen SSD do HDD wzrósł z 6,2x do 16,4x. Typowy projekt all-flash za ok. 4 mln PLN może dziś kosztować nawet 10–14 mln PLN.
- Trójwarstwowy model storage: NVMe dla danych aktywnych, HDD/object storage dla ciepłych, archiwum dla zimnych
- Deduplikacja i kompresja redukują footprint backupów o 50–90%
- Zrewiduj politykę retencji – czy potrzebujesz pełnej kopii danych z 5 lat na najdroższym nośniku?
- Uwaga: koszty odzyskiwania z cold storage mogą stanowić 50–90% TCO – wybieraj rozwiązania bez ukrytych opłat
5. Prowadź projekty niezależnie od dostaw
Gdy lead time sprzętu to 40–52 tygodnie, podejście „najpierw sprzęt, potem wdrożenie” paraliżuje organizację.
- Rozdziel ścieżkę softwarową od sprzętowej – rozpocznij rozwój i testy w chmurze, podczas gdy sprzęt jest w drodze
- Wdrażaj przyrostowo: instaluj komponenty w miarę dostępności, nie czekaj na komplet
- Dodaj 50–100% buforu do każdego harmonogramu obejmującego zakup sprzętu
- Zdefiniuj punkty decyzyjne: „Jeśli sprzęt nie dotrze do daty X, przechodzimy na wariant chmurowy Y”
6. Nie oszczędzaj na bezpieczeństwie
Średni koszt naruszenia danych to 4,88 mln USD (IBM Cost of a Data Breach 2024). Ponad 70% cyberataków wykorzystuje ruch lateralny w sieci.
- Konsoliduj narzędzia – wiele organizacji utrzymuje 40+ nakładających się rozwiązań; mniej = niższe koszty i lepsza widoczność
- Wdróż Zero Trust oparty o tożsamość – SSO, MFA i polityki warunkowego dostępu wymagają minimalnej infrastruktury
- Mikrosegmentacja sieciowa – ROI w 12 miesięcy, wykorzystuje istniejącą infrastrukturę
- Przenieś usługi bezpieczeństwa do chmury (SASE, cloud firewalls) – eliminujesz zależność od sprzętu on-premise
Kryzys podażowy to strukturalna zmiana, nie chwilowe zakłócenie. Organizacje, które potraktują go jako katalizator modernizacji, wyjdą z niego silniejsze.
Źródło: ApexIT


