Przetaczające się ostatnio publiczne dyskusje na temat wtopy dekady w wykonaniu UKE dotykają sedna problemu: nie chodzi wyłącznie o to, że UKE zbudował nowy system pomiarowy. Problem polega na tym, że urząd zastąpił mechanizm masowy, łatwo dostępny i realnie używany modelem logistyczno-urzędowym, którego praktyczna dostępność dla obywatela jest gorsza niż w przypadku starego pomiaru certyfikowanego.
Według danych od certyfikacji SMJI 25 lipca 2025 r. do końca 2025 r. wypożyczono użytkownikom indywidualnym zaledwie 51 zestawów pomiarowych. Pięćdziesiąt jeden. Nie pięćdziesiąt jeden tysięcy. Nie pięć tysięcy. Nawet nie pięćset. Pięćdziesiąt jeden zestawów w kraju liczącym miliony abonentów usług dostępu do internetu. Jednocześnie projekt SMJI, według publicznych informacji UKE, miał wartość ponad 20 mln zł, z czego ponad 17 mln zł stanowiło dofinansowanie ze środków publicznych. To są proporcje, które same proszą się o komentarz. Zapewne po raz kolejny niezgodny z tym, co Urząd sobie wyobraża.
Dlaczego stary model przestał wystarczać?
Pytanie otwierające brzmi więc: co takiego wydarzyło się w jakości polskiego internetu, metodologii pomiarowej albo regulacji rynku, że dotychczasowy mechanizm oparty o PRO Speed Test nagle przestał wystarczać? Zwłaszcza że UKE wcześniej potrafił prezentować dane o jakości usług właśnie na podstawie wyników speedtestowych, a nie na podstawie systemu próbnikowego, którego użycie przez konsumentów okazuje się śladowe.
W kwietniu 2025 r. przez SpeedTest.pl wykonano około 3 mln testów. Po drugiej stronie mamy system próbnikowy, który w pierwszym okresie działania wygenerował 51 wydań próbników dla użytkowników indywidualnych. To nie jest zmiana skali. To jej administracyjne odwrócenie i pokaz tego, co potrafi biurokracja.
Jeżeli domniemanym problemem starego mechanizmu był brak dostępu UKE do danych źródłowych, należało to przedstawić jako problem zarządzania danymi, praw do danych i metodologii ich agregowania. Nie wynika z tego automatycznie, że obywatel potrzebuje fizycznego próbnika wysyłanego kurierem, procedury przez PUE, wniosku, odbioru urządzenia, instalacji, testu, zwrotu i oczekiwania na raport. To już nie jest proste narzędzie konsumenckie. To procedura administracyjna udająca usługę cyfrową.

Procedura zamiast narzędzia
Absurd tej sytuacji polega również na tym, że użytkownik, który ma problem z internetem i potrzebuje go zdiagnozować, musi najpierw przez internet przejść ścieżkę pozyskania zestawu pomiarowego. Czyli obywatel zgłasza problem z usługą cyfrową za pomocą usługi cyfrowej, która zakłada, że ta pierwsza działa na tyle dobrze, aby dało się skutecznie przejść przez PUE, wypełnić wniosek, obsłużyć korespondencję, ustalić logistykę i doprowadzić całą procedurę do końca.
To urzędnicze zapętlenie w najczystszej postaci: żeby udowodnić, że internet nie działa, trzeba najpierw mieć działający internet wystarczający do obsługi procedury zebrania dowodów, że internet nie działa jak należy.
Stara procedura, przy wszystkich swoich wadach, była przynajmniej względnie dostępna. Użytkownik mógł wykonać pomiar relatywnie szybko, w momencie występowania problemu albo blisko tego momentu. Do udanego pomiaru certyfikowanego musiał się trochę postarać, aby uporządkować otoczenie pomiarowe, ale nie była to fizyka atomowa.
Nowa procedura w przypadku realnych, nieregularnych czy okresowych problemów z jakością usługi staje się fikcją. Jeżeli problem występuje wieczorami, w godzinach szczytu, nieregularnie albo zależy od przeciążenia sieci, oczekiwanie na próbnik, jego dostarczenie, instalacja i wykonanie pomiaru po przejściu urzędowej ścieżki mogą mieć znikomą wartość diagnostyczną. System bada wtedy nie tyle problem użytkownika, ile zdolność użytkownika do przetrwania procedury.
Administracja mierzy cień problemu
To trochę tak, jak z pomiarami zawyżonych napięć w sieci OSD wykonywanymi jesienią, gdy największe problemy pojawiają się zwykle w słoneczne miesiące wysokiej generacji z fotowoltaiki. Formalnie pomiar się odbył, protokół powstał, urządzenie coś zarejestrowało, procedura została odhaczona. Zazwyczaj pomiary wychodzą w normie. Tylko że z punktu widzenia realnego problemu jest to klasyczna musztarda po obiedzie.
Tak samo może wyglądać dostarczanie próbników UKE: zanim obywatel przejdzie ścieżkę zdrowia, zanim sprzęt do niego dotrze i zanim pomiar zostanie wykonany, problem może już nie występować albo występować w zupełnie innej skali. Administracja mierzy wtedy cień problemu, a nie realny problem.

Pytania, na które UKE powinien odpowiedzieć
UKE powinien publicznie odpowiedzieć na kilka konkretnych pytań.
Po pierwsze: dlaczego porzucono model speedtestowy?
Jaka była merytoryczna diagnoza uzasadniająca porzucenie modelu speedtestowego? Co było w nim tak wadliwe, że nie dało się tego poprawić umową, audytem, certyfikacją, dostępem do danych albo dodatkową warstwą metodologiczną? Dlaczego wybrano model sprzętowy — trudniejszy, wolniejszy w obsłudze i mniej dostępny dla przeciętnego abonenta?
Po drugie: dlaczego system utrudnia dostęp?
Dlaczego system, który miał poprawić dostępność informacji o jakości internetu, wymaga od konsumenta przejścia przez ścieżkę, która sama w sobie ogranicza zainteresowanie usługą? Przeciętny użytkownik, który ma problem z internetem, chce wykonać pomiar szybko — najlepiej od razu — i otrzymać wynik przydatny w reklamacji. Tymczasem nowy model wymaga zaangażowania, cierpliwości i znajomości procedur. Innymi słowy: obywatel chciałby narzędzia, a dostaje urzędniczą procedurę.
Po trzecie: jak rozliczono środki publiczne?
Jak UKE zamierza rozliczyć efektywność wydatkowania środków publicznych? Nie chodzi o prostackie podzielenie całego budżetu projektu przez 51 testów, bo system obejmuje również komponenty infrastrukturalne, analityczne, bezpieczeństwa i pomiary w szkołach OSE, dokąd wydano 4581 zestawów. A może wydanie tych ponad 4 tys. zestawów do szkół miało na celu podratować projekt?
Jeżeli jednak główną legitymacją społeczną projektu miała być e-usługa dla obywateli, to 51 wypożyczonych zestawów konsumenckich jest wynikiem kompromitująco niskim. Tego nie da się przykryć językiem projektowym, tabelami zgodności i narracją o budowie kompetencji państwa. To trzeba nazwać otwarcie: wtopa dekady po całości.
UKE sam przedstawia SMJI jako system mający zapewnić e-usługę dla konsumentów i operatorów, pozwalającą na mierzenie jakości usług dostępu do internetu, w tym pomiary w sieciach konsumentów końcowych. Tyle że realny model użytkowania przeczy idei powszechnej usługi pomiarowej.
Biurokracja i rozrost procedur
Czyli — podatniku, który oddałeś właśnie rozliczenie roczne z podatku — już wiesz, na co poszły Twoje pieniądze. Nie na narzędzie powszechne, proste i masowo używane. Nie na usługę, która faktycznie pomaga przeciętnemu abonentowi w sporze z operatorem. Poszły na system, który z punktu widzenia obywatela jest trudniej dostępny niż poprzedni pomiar certyfikowany, a z punktu widzenia Urzędu tworzy kolejną warstwę procedur, sprzętu, formularzy, etatów, raportowania i… uzasadnień własnego istnienia.
To właśnie sedno sprawy: biurokracja po raz kolejny potrzebuje pieniędzy i dętych argumentów do swojego rozrostu oraz dalszego trwania. Najpierw trzeba było realnie wykazać, że dotychczasowe rozwiązanie przestało wystarczać i podać twarde dane. Potem ewentualnie budować nowe, mając na względzie, że jedno podejście do budowy już było. Następnie stworzyć procesy obsługi, które są lepsze, bardziej użyteczne i prostsze dla zwykłego użytkownika. Dopiero później raportować, że system istnieje. Nie odwrotnie.
Teraz, po wypłynięciu fakapu, otrzymujemy narrację o osnowie: w fazie rozruchu, wymaga promocji, skalowania i integracji. Nie zdziwię się, jeśli za chwilę dowiemy się, że również potrzebuje kolejnych środków.

Co naprawdę znajduje się w próbnikach?
Po czwarte: pytania o sprzęt i bezpieczeństwo
Co faktycznie znajduje się w środku próbników i jaki jest ich pełny łańcuch dostaw? UKE informował, że w projekcie SMJI wybrano system pomiarowy SamKnows, a certyfikacja obejmowała system jako mechanizm monitorowania jakości internetu. To jednak nie odpowiada na podstawowe pytania sprzętowe.
Kto zaprojektował płytę? Kto ją wyprodukował? Jakie układy są w środku? Jaki jest firmware? Kto go audytował? Jak wygląda proces aktualizacji? Kto ma dostęp administracyjny? Jakie dane urządzenie zbiera, dokąd — i którędy — je wysyła oraz kto ma do nich dostęp? Czy przeprowadzono niezależny audyt bezpieczeństwa całego łańcucha dostaw, a nie tylko formalną certyfikację scenariusza pomiarowego?
Powyższe pytania są koniecznością. Jeżeli państwo buduje system do monitorowania jakości internetu, a przy okazji deklaruje komponenty związane z bezpieczeństwem, nie może zasłaniać się wyłącznie naklejkami z logo UKE. Próbnik nie staje się automatycznie zaufanym urządzeniem tylko dlatego, że oklejono go urzędową identyfikacją. Ważne jest to, co siedzi w środku: hardware, firmware, zależności chmurowe, mechanizmy zdalnej administracji, lokalizacja produkcji, dostawcy komponentów i procedury bezpieczeństwa.
Łańcuch dostaw i transparentność
W kwestii sprzętu: publicznie dostępna dokumentacja FCC dla urządzeń SamKnows Whitebox wskazuje m.in. aplikanta SamKnows Limited, modele z rodziny SK-WB8 / SK-WB8+, a także informacje o urządzeniu jako SamKnows Whitebox 8.0+ with WiFi. W dokumentacji testowej dotyczącej urządzeń tej klasy pojawiają się producenci z Chin, w tym Taicang T & W Electronics Co., Ltd oraz Shenzhen Gongjin Electronics Co., Ltd.
Nie przesądza to samo w sobie o ryzyku ani o niezgodności z prawem. Podobnie jak falownik PV tej czy innej firmy z Chin. Ale w projekcie państwowym dotyczącym monitorowania internetu powinno automatycznie uruchamiać pełną transparentność: kraj produkcji, dostawca SoC, firmware, procedury aktualizacji, wyniki testów bezpieczeństwa i zakres certyfikacji.
Ostrożnie dodam tutaj medialnie maglowany wątek DWR: nie twierdzę bez konkretnych dowodów, że próbniki UKE są urządzeniami dostawcy wysokiego ryzyka. Ale zasadne jest pytanie, czy UKE przeprowadził analizę równoważną tej, której państwo samo oczekuje od przedsiębiorców telekomunikacyjnych przy sprzęcie i oprogramowaniu ICT. A nawet przy falownikach PV czy magazynach energii.
Skoro państwo mówi rynkowi: uważajcie na łańcuch dostaw, cyberbezpieczeństwo i pochodzenie technologii, to tym bardziej powinno wykazać, że własne urządzenia pomiarowe spełniają najwyższy standard przejrzystości.

System projektowany dla urzędu, nie użytkownika
Skąd powyższe enuncjacje? Ano na oko próbnik — poza dużą ilością nalepek z logo UKE — niewiele różni się od urządzeń dostępnych od niektórych dostawców sprzętu sieciowego. I właśnie dlatego urząd powinien precyzyjnie odpowiedzieć na pytania, które niechybnie się pojawią. W projektach państwowych nie wystarczy powiedzieć: to jest certyfikowane.
Najbardziej problematyczne jest jednak to, że cały projekt wygląda jak rozwiązanie stworzone z perspektywy urzędu, nie użytkownika. UKE chciał mieć własne dane, własny system, własną usługę pomiarową i własne urządzenia. Obywatel w zamian dostał de facto tylko procedurę.
Rynek dostał niejasność, czy system będzie kiedyś narzędziem dobrowolnym, czy np. wymuszanym przy projektach publicznych. Znając zapędy Urzędu do raportowania, może jeszcze okaże się, że trzeba będzie składać obowiązkowe raporty z obowiązkowych — pod groźbą kary, a jakże — próbników.
Podatnik za to dostał rachunek na 20 mln zł i wynik konsumencki na poziomie 51 użyć w pierwszym półroczu działania.
KPI zamiast narracji
Kolejne pytanie brzmi: czy SMJI spełnia cel publiczny proporcjonalny do kosztu, czy jest kolejnym przypadkiem regulacyjnego systemu zbudowanego poprawnie formalnie, ale błędnie produktowo? Kulawe do dziś narzędzia sprawozdawcze są tego najlepszym przykładem.
Jeżeli Urząd uważa, że 51 użytkowników indywidualnych w kilka miesięcy to tylko etap rozruchowy, powinien pokazać plan naprawczy. Nie komunikat promocyjny, tylko twarde KPI:
- ilu użytkowników miesięcznie korzysta z systemu,
- jaki jest koszt obsługi jednego pomiaru,
- jaki jest czas od wniosku do raportu,
- ile reklamacji realnie wsparto raportem SMJI,
- ile sporów rozstrzygnięto dzięki systemowi,
- jaka jest awaryjność próbników,
- jaki procent zestawów pozostaje w rotacji,
- jaki jest rzeczywisty koszt jednostkowy działania usługi,
- jaki jest całkowity OPEX systemu, skoro CAPEX już mniej więcej znamy.
Powinien też pokazać rozliczenie technologiczne: jakie dokładnie urządzenia kupiono, po jakiej cenie jednostkowej, kto dokładnie jest ich producentem, gdzie są produkowane, kto utrzymuje firmware, kto ma dostęp do platformy zarządzania, gdzie trafiają dane pomiarowe, jak długo są przechowywane, kto je przetwarza i jak wygląda niezależny audyt bezpieczeństwa.
Sedno problemu
Bez takich danych SMJI wygląda nie jak system monitorowania jakości internetu, ale jak system monitorowania zdolności administracji do wydawania pieniędzy publicznych na własne potrzeby.
A wynik — przynajmniej na razie — jest prosty: ponad 20 mln zł wartości projektu, ponad 17 mln zł dofinansowania i bardzo dużo urzędowej narracji o tym, jak bardzo było to konieczne.
Drogi sponsorze, czyli podatniku i przedsiębiorco telekomunikacyjny: spokojnie, Urząd gwarantuje, że Twoje pieniądze nie zniknęły. Zostały profesjonalnie przetworzone w projekt, procedurę, urządzenie z naklejką, raport, uzasadnienie i kolejne argumenty za tym, że administracja musi dalej rosnąć — oczywiście wyłącznie w trosce o Ciebie.
Czytaj także:


