19. edycja konferencji "Miasta w Internecie"

W Gdańsku odbywa się 19. edycja konferencji “Miasta w Internecie”, która gromadzi przedstawicieli środowisk samorządowych, administracji centralnej, sektora teleinformatycznego, mediów, organizacji pozarządowych i środowiska naukowego poświęcona modernizacji i rozwojowi Polski dzięki skutecznemu wykorzystaniu rozwiązań cyfrowych. – podaje Polska Szerokopasmowa.

– Na konferencji prezentujemy m.in. dobre i sprawdzone praktyki cyfryzacji w samorządach ma poziomie lokalnym i regionalnym – mówi Krzysztof Głomb, dyrektor konferencji. Pierwszy dzień konferencji był zdominowany przez debatę “Samorządy jako motory rozwoju Polski; czas na wymianę silnika?” Prelegenci w dyskusji zgodzili się, że polska samorządność ma wiele wad i potrzeba zmian.
– Naszą rolą na dziś jest jednak dzisiaj bardziej stawienie pytań, niż dawanie gotowych odpowiedzi – mówił prof. Paweł Śpiewak z Uniwersytetu Warszawskiego. Podkreślano jednak w tym rolę Internetu, która staje się nową agora komunikacji samorządów z mieszkańcami.
Tradycyjne podczas pierwszego dnia konferencji przyznawano nagrody w konkursie “Złote @” dla samorządów będących polskimi liderami cyfrowej transformacji. – W tym roku postanowiliśmy trochę zmienić formułę konkursu i także honorować osoby, liderów cyfrowej zmiany, ludzie którzy stoją za sukcesem najlepszych  projektów – mówi Krzysztof Głomb. Dlatego też podczas konferencji konkurs został dopiero ogłoszony.
Nagrody przyznawane będą w trzech kategoriach za projekty i inicjatywy samorządów lokalnych i regionalnych, za wyjątkowe dokonania osób lub zespołów osób oraz za wyjątkowe dokonania instytucji publicznych i prywatnych, organizacji, uczelni wyższych, instytucji badawczych i firm na polu rozwoju cyfrowego. Zgłoszenia do konkursu będzie można składać w terminie od 1 września do 27 listopada 2015 r. poprzez specjalny moduł ankietowy uruchomiony 1 września 2015 r. na stronie www.konkurs.mwi.pl.
Pierwsze edycje konferencji “Miasta w Internecie” (1997–1999) odbywały się w Tarnowie, w latach 2000-2011 konferencja miała miejsce w Zakopanem, natomiast od 2012 r. gości w Gdańsku.
Źródło: Polska Szerokopasmowa
Zdjęcie: mwi.pl

Nowe kanały dostępne w usługach eCDN i eTV od EVIO

0

W ostatnim miesiącu, portfolio oferty kanałowej od EVIO zostało wzbogacone o kolejne pozycje. W chwili obecnej lista programów dostępnych w usłudze eCDN zawiera 326 kanałów, w tym 104 w jakości HD. Nowe kanały są również dostępne w usłudze eTV, adresowanej do operatorów ISP.

W czerwcu oferta kanałów w usłudze eCDN, polegającej na dostarczeniu światłowodem wysokiej jakości sygnału TV ze stacji czołowej EVIO do sieci operatora, została poszerzona o następujące pozycje:
• Canal+ Discovery HD
• Canal+ Sport 2 HD
• FightBox SD
• iPOL
• LOVE TV HD
• Paramount Channel HD
• Redlight HD
• TVN Fabuła HD
• VH1 Classic
Wszystkie wymienione programy, oprócz kanału Redlight zostały również dodane do listy kanałów oferowanych w usłudze eTV przeznaczonej wyłącznie dla operatorów ISP i umożliwiającej im proste uruchomienie oferty telewizji pod własną marką. Dzięki eTV operator zyskuje dostęp do bogatego portfolio zawierającego ponad 240 kanałów, co pozwala mu konkurować z dużymi platformami oraz sieciami, pozostając przy tym całkowicie niezależnym i pracując od pierwszego abonenta na własny zysk.
nowe_kanaly_lipiec_2015
Źródło: EVIO

UKE: raport o stanie rynku telekomunikacyjnego w Polsce w 2014 roku

Prezes Urzędu Komunikacji Elektronicznej przedstawił raport o stanie rynku telekomunikacyjnego w Polsce w 2014 roku. Sporządzony on został na podstawie danych przekazanych w ramach corocznej sprawozdawczości przedsiębiorców telekomunikacyjnych, zgodnie z art. 7 ustawy o Prawie telekomunikacyjnym.

W roku ubiegłym łączna wartość rynku telekomunikacyjnego wyniosła 39,21 mld zł. Odnotowano tym samym tendencję spadkową, jeżeli chodzi o działalność telekomunikacyjną – spadek wyniósł 2,6% w stosunku do roku poprzedniego. Największy – 12,7% – dotyczył telefonii stacjonarnej. Wzrost odnotowano tylko w przypadku usługi dostępu do Internetu.
Sieć Internet
W 2014 roku wartość rynku internetowego wzrosła o ponad 11,5% w porównaniu z rokiem poprzednim. Powiększyło się w tym czasie również grono klientów korzystających z usług internetowych. Zmniejsza się też dysproporcja między liczbą osób korzystających z łącza stacjonarnego (7,2 mln abonentów) a tymi z dostępem mobilnym (ok. 6 mln). Najwięcej użytkowników odnotowano w Orange Polska – udział w liczbie abonentów to 29,1%. Na drugim miejscu znalazł się Polkomtel.
Największą popularnością cieszył się dostęp do Internetu o przepływności od 2 Mb/s do 10 Mb/s – korzysta z niego prawie połowa abonentów. Ponad 80% Polaków posiada ruchomy dostęp do sieci, co daje 5. miejsce w Unii Europejskiej. Średnia europejska wynosi 66,7.
Telefonia ruchoma
W 2014 roku operatorzy mieli w swoich bazach zarejestrowanych łącznie 57,8 mln kart SIM. Telefonia ruchoma była nadal najistotniejszym segmentem polskiego rynku telekomunikacyjnego. W 2014 roku przychody telefonii mobilnej stanowiły prawie 45% wartości całego rynku (81% z tego generowali klienci post-paid). Nastąpił też wzrost liczby użytkowników o 1,4%. W 2014 roku ok. 1,81 mln użytkowników (16,8 więcej niż w roku poprzednim) zdecydowało się na przeniesienie swojej usługi do innego operatora.
Rys. 1: Nominalna liczba użytkowników oraz nasycenie rynku telefonii mobilnej w Polsce
UKE1
Telefonia stacjonarna
W 2014 roku zmalała wartość rynku telefonii stacjonarnej i liczba jej abonentów. Zwiększyła się za to popularność telefonii VoIP. Największym operatorem na rynku nadal pozostał Orange Polska.
Rys. 2: Udziały operatorów pod względem liczby abonentów
UKE2
Usługi wiązane
Usługi wiązane wygenerowały w 2014 roku ponad 2 mld zł przychodów. W Polsce korzystało z nich w sumie ok. 4,2 mln osób. Najpopularniejszym był pakiet Internet stacjonarny i Telewizja (30% użytkowników). Na drugim miejscu znalazł się zestaw Telefonia stacjonarna + Internet stacjonarny + Telewizja (18,8%), a na trzecim zestaw Telefonia ruchoma + Internet mobilny (15%).
Rys. 3: Najpopularniejsze zestawy w 2014 roku
UKE3
Źródło:UKE

LoVo umożliwi terminowe wywiązanie się z wymagań UKE dotyczących PLI CBD i PLI CBD2

Grupa Telekomunikacyjna LoVo uruchomiła otwartą Platformę Lokalizacyjno-Informacyjną z Centralną Bazą Danych PLI CBD oraz dostosowało narzędzie do wymogów PLI CBD2. Obowiązek działania z wykorzystaniem platformy nie oznacza dla Operatorów przymusu jej budowania. Wszyscy Operatorzy, którzy nie chcą tworzyć własnego rozwiązania mogą skorzystać z otwartej platformy dla partnerów współpracujących z LoVo, których jest obecnie ok. 500. Pozostali Operatorzy mogą zlecić LoVo realizowanie wymogu UKE w zakresie PLI CBD jak i PLI CBD2.

Zapisy Prawa Telekomunikacyjnego w Polsce wdrożone na podstawie Dyrektyw Parlamentu Europejskiego oraz Rady Europy nakładają na Operatorów wymóg, „zgodnie z którym, wszyscy abonenci posiadający numery należące do krajowego planu numeracji telefonicznej mogą na swój wniosek zachować dotychczasowy numer przy zmianie operatora oraz aby aktywacja numeru u nowego dostawcy usług następowała w ciągu jednego dnia roboczego”.
Platforma Lokalizacyjno-Informacyjna z Centralną Bazą Danych (PLI CBD), bo o tym projekcie jest mowa w art. 78 ust. 4 Prawa Telekomunikacyjnego jako platformie prowadzonej przez Prezesa Urzędu Komunikacji Elektronicznej, jest rozwiązaniem ujednolicającym komunikację pomiędzy różnymi systemami Operatorów Telekomunikacyjnych.
Radosław Trojakowski, Dyrektor Techniczny Grupy Telekomunikacyjnej LoVo informuje, że LoVo jako Operator Telekomunikacyjny jest gotowy do realizacji rozporządzenia UKE odnośnie wdrożenia projektu PLI CBD oraz PLI CBD2. „Procedura jest obowiązkowa dla wszystkich Operatorów dysponujących numerami telefonicznymi powyżej jednego tysiąca. LoVo jako Operator jest przygotowany do nawiązania relacji biznesowo partnerskich z Operatorami, którzy nie dysponują wystarczającym zapleczem informatycznym oraz administracyjnym do prawidłowego i terminowego zrealizowania wymogu UKE zarówno w zakresie PLI CBD jak i PLI CBD2”.
W LoVo obsługa PLI CBD i PLI CBD2 polega na przyłączeniu partnera do PLI CBD i PLI CBD2, co umożliwia wykonywanie obowiązków określonych w powyższej ustawie, tj.:
1. przekazywania informacji o adresie zainstalowania zakończenia sieci,
2. numerze abonenta,
3. danych identyfikacyjnych abonenta,
4. przenośności numerów,
5. uporządkowywania numeracji,
6. zgłaszanie usterek celem identyfikacji lokalizacji, z której zostało wykonane połączenie do numeru alarmowego. Więcej na www.plicbd2.lovo.pl.
PLI CBD wydaje się dość skomplikowaną platformą realizującą szereg zadań, których wdrożenie wymaga dokładności i terminowości. Instrukcje UKE są bardzo rozbudowane i wymagają doświadczonej ekipy programistycznej do stworzenia odpowiedniego narzędzia.
„Programiści LoVo stworzyli autorskie rozwiązanie, które zautomatyzowało proces realizacji PLI CBD2. LoVo zestawia i utrzymuje szyfrowane połączenie do PLI CBD2 zgodnie z wymogami określonymi w Prawie Telekomunikacyjnym oraz implementuje otrzymane w procesie realizacji usługi certyfikaty” – podsumowuje Radosław Trojakowski.
Na bazie autorskiego rozwiązania LoVo może wesprzeć usługowo operatorów, których ten obowiązek także dotyczy i reprezentować ich przed regulatorem przy prowadzeniu baz danych, połączeniu baz abonenckich z PLI CBD2 oraz podczas realizowania obowiązkowego procesu przenoszenia numeracji pomiędzy operatorami z wykorzystaniem PLI CBD2. Gotowe rozwiązania to oszczędność kosztów, czasu, jakości pracy oraz terminowe wywiązywanie się z nałożonych przez regulatora zobowiązań.
^0ED567A6306524AE896A27ADEB532BBAC023C44C574DFC1D43^pimgpsh_fullsize_distr
Źródło:LoVo

Internet największym medium reklamowym?

Analitycy ZenithOptimedia prognozują, że do 2017 roku internet będzie największym medium reklamowym na 12 kluczowych rynkach, których łączne wydatki reklamowe stanowią 28 proc. globalnych wydatków na reklamę – informuje Gazeta Wyborcza.

Mimo rosnących od kilku lat udziałów internet, w skali globalnej, pozostanie drugim po telewizji medium. Obecnie różnica w wydatkach reklamowych między telewizją i internetem wynosi 11 pkt proc. Za dwa lata wyniesie zaledwie 4 pkt proc. – uważają analitycy ZenithOptimedia. Przy utrzymaniu tego trendu internet wyprzedzi telewizję, stając się największym globalnym medium reklamowym przed końcem tej dekady – najpóźniej do 2020 r.
Globalna sieć już w ubiegłym roku stała się dominującym medium w siedmiu krajach: Austrii, Danii, Holandii, Kanadzie, Norwegii, Szwecji i Wielkiej Brytanii. W tym roku stanie się największym medium w Chinach, Irlandii, Niemczech i Nowej Zelandii, a do 2017 roku także w Finlandii. Jeszcze w tym roku udział internetu w rynku reklamowym przekroczy 50 proc. w Wielkiej Brytanii. W Danii i Szwecji stanie się to w przyszłym roku, a w Chinach – w 2017.
– W Polsce internet pozostanie drugim medium pod względem wydatków reklamowych. Do 2017 roku zmniejszy jednak dzielący go od telewizji dystans i jego udział w wydatkach reklamowych będzie stanowił ponad połowę udziałów telewizji, czyli 28 proc. wszystkich wydatków na reklamę – uważa Marta Zielonka z ZenithOptimedia Group. – Pozycja telewizji w Polsce jest silna m.in. dlatego, że koszty dotarcia w tym medium są jednymi z niższych w Europie.
Według prognoz ZenithOptimedia Group łączna wartość wydatków reklamowych netto w Polsce wzrośnie w tym roku o 2,4 proc. Na koniec roku polski rynek reklamowy osiągnie wartość 6,7 mld zł netto.
W tym roku reklamodawcy przeznaczą na reklamę telewizyjną o 2,6 proc. więcej w porównaniu z ubiegłym rokiem. Z prognoz wynika, że wydatki na reklamę w internecie będą wyższe od ubiegłorocznych o 10,7 proc. O 3,2 proc. wzrosną wydatki na reklamę radiową. Niewielki wzrost – o 1,1 proc. – odnotuje również kino. W porównaniu z ubiegłym rokiem reklamodawcy wydadzą o 15 proc. mniej na reklamę w magazynach i o 19,6 proc. mniej na reklamę w dziennikach. Spadną też nieznacznie wydatki na outdoor – będą niższe o 0,7 proc.
Źródło: Gazeta Wyborcza
Zdjęcie: biznes.gazetaprawna.pl

Rozwój i przyszłość technologii pasywnych sieci optycznych

0

Rozwój gospodarczy oraz cywilizacyjny zależy od szybkości przekazywania informacji w społeczeństwie. XX wiek był w tym obszarze złotą era rozwoju technologii. Od momentu wysłania pierwszego e-maila świat telekomunikacji zmienia się w błyskawicznym tempie – nieporównywalnym do większości innych branż, nawet tych określanych jako „technologiczne”.

W myśl zasad rynkowych – nakazujących rozsądne planowanie wydatków w celu zapewnienia opłacalności inwestycji – opracowywanie kolejnych standardów, o coraz większych przepustowościach, lepszej jakości obsługi transmisji – bazowano na infrastrukturze zaprojektowanej i uprzednio wykorzystywanej do innych celów. Przykładem są technologie oparte o telefoniczne łącza miedziane – wykorzystywane w standardach xDSL. Standardy te są cały czas optymalizowane i rozwijane. Pozwalają na uzyskanie parametrów wystarczających na dzisiejsze potrzeby – takich jak podłączenia klasy 30Mbps lub nawet 100Mbps – jednak z dużymi ograniczeniami związanymi z odległością między urządzeniem operatorskim, a końcówką abonencką.
Utrzymanie wysokiego tempa rozwoju w perspektywie kolejnych 5-10 lat – przygotowanie się na nowe standardy świadczenia usług – wymaga przejścia na strukturę światłowodową opartą o architektury FTTx. Infrastruktura światłowodowa zakopana w ziemi to ogromny koszt, a jej cykl życia wynosi przynajmniej 25 lat. Stanowi ona zatem kluczowy element określający technologię podłączenia.
Jednym z rozwiązań architektury FTTx oraz sieci dostępowych nowej generacji (NGA) – są pasywne sieci optyczne, będące technologią z ugruntowanym kompromisem, uwzględniającym:
• Podłączenie światłowodowe;
• Relatywnie niski koszt per jednostka przepustowości / abonent;
• Wysoką przepustowość;
• Możliwości rozwoju standardów i zwiększania przepustowości / jakości transmisji;
• Prostotę utrzymania;
• Niezawodność wynikającą z założeń projektowych;
Komponenty sieci PON
Pasywne sieci optyczne składają się z paru elementów zilustrowanych na rys. 1:
OLT – Optical Line Terminal.
Urządzenie po stronie operatora, agregujące strumienie z podłączonych do niego (za pomocą spliterów) ONU/ONT. Dzisiejsze urządzenia OLT mogą bez problemu zagregować do 16 384 abonentów. Dostępne są rozwiązania łączące technologie, np. GPON + XGPON, a także pojawiają się prototypowe karty wspierające NGPON2. Takie podejście pozwala na model Pay as You Grow, bądź podłączanie na jednym urządzeniu zarówno klientów indywidualnych, jak również biznesowych. OLT może dystrybuować analogowy sygnał wideo przy pomocy tzw. RF Overlay do abonentów.
ONT – Optical Network Terminal.
Urządzenie po stronie abonenta (lub firmy) kończące połączenie PON rozpoczęte na OLT. Urządzenie ONT może pełnić prostą funkcję konwertera sieci PON na Ethernet lub może mieć dodatkowe funkcjonalności – z zakresu „Residential Gateway” – czyli zestaw abonenckiego routera, przełącznika, punktu WiFi oraz powiązanych funkcjonalności. ONT dodatkowo może terminować analogowe połączenie wideo – do zasilenia sygnału telewizyjnego.
ONU – Optical Network Unit.
Na potrzeby ITU uzgodniono określenie węzła typu ONU jako klasa urządzeń kończących technologię PON i podłączające więcej niż jednego użytkownika. Na rynku istnieją urządzenia ONU potrafiące np. wykorzystać wewnątrz-budynkową miedzianą sieć telefoniczną. Tak zastosowane urządzenie kończy usługę PON, podłączając np. 24 lub 48 abonentów w budynku po VDSL2+ lub w nowoczesnej technologii G.FAST (w architekturze FTTDp ). Innymi przykładami ONU są terminale przygotowane specyficznie pod transmisje z masztów komórkowych, lub jeszcze inne, tworzące sieć WiFi. ONU mogą być przeznaczone pod zastosowanie wewnątrz lub zewnątrz budynkowe.
Splitter – urządzenie optyczne niezasilane prądem pozwalające na podzielenie sygnału ze światłowodu na kolejne światłowody docierające do następnych splitterów lub do ONU/ONT. W zależności od stosowanego wariantu technologii dostępne są podziały od 1:2 do 1:128, najczęściej stosowane są 1:32 i 1:64.
ODN – Optical Distribution Network.
Sieć światłowodów rozciągających się między OLT, Splitterami, a ONU/ONT. Sieć ta powinna mieć zagwarantowany odpowiedni budżet mocy – od którego zależy jej zasięg.
Aby uniknąć zagrożenia związanego z podsłuchaniem komunikacji ruch w kierunku od OLT do ONT jest szyfrowany – zazwyczaj certyfikatem danego ONT/ONU. Ruch w górę sieci nie musi być szyfrowany, gdyż splitter nie przekazuje go w innym kierunku, niż do OLT.
Maksymalna odległość urządzeń OLT – ONU/ONT zależy od budżetu optycznego. Dla sieci GPON popularne są wkładki GPON B+ (+28 db) i GPON C+ (+32 db).
Poniżej przedstawiono przykładowe straty w db pozwalające na przybliżenie zasięgu sieci GPON
Urządzenie Przewidywana strata dla fali 1310 nm
Tłumienie światłowodu 0.4 dB/km
Konektor typu Thermal Fusion 0.05 dB
Konektor mechaniczny 0.3 dB
Połączenie elementów 0.35
Pojdyńczy split ~3 – 3.5 dB
Splitter 1:2, 2:2 3 – 4 dB
Splitter 1:4 6 – 7 dB
Splitter 1:8 10 – 11 dB
Splitter 1:16 13 – 14 dB
Splitter 1:32 17 – 18 dB
Splitter 1:64 21 – 22 dB
Splitter 1:128 24 – 25 dB
Przyjmuje się, że z wykorzystaniem optyki GPON B+ można uzyskać zasięg sieci 20 km przy splicie 1:32. Optyka GPON C+ powinna umożliwiać osiągnięcie zasięgu 30 km przy splicie 1:64.
Na rynku są dostępne urządzenia zwiększające zasięg sieci – np. do 60 km. Niektóre standardy umożliwiają osiągniecie takich odległości (XGPON G.987).
W zależności od przyjętego splitu uzyskuje się średnią przepustowość dla pojedynczego urządzenia ONT/ONU. Należy jednak pamiętać, iż w sieciach dostępowych obowiązuje duży poziom nadsubskrybcji – gdyż rzadko dochodzi do sytuacji, gdy wszyscy użytkownicy wykorzystują pełne pasmo. W technologiach PON mechanizm przyznający niewykorzystaną przepustowość nazywa się DBA – Dynamic Bandwidth Allocation.
Sieci PON uznawane są za proste i niezawodne. Zakładając poprawną implementację programową i sprzętową, wolną od błędów – sieć jest zbudowana z dwóch elementów aktywnych w przypadku podłączania ONT. Jest to znaczne uproszczenie rozwiązania. Dodatkowo urządzenia OLT, z uwagi na liczbę podłączanych końcówek zazwyczaj zapewniają odpowiedni poziom redundancji – nawet do pełnej redundancji każdego komponentu sprzętowego z wykorzystaniem splitterów 2:2 (dwa porty GPON obsługują tę samą grupę ONT/ONU w trybie active/backup).
Standaryzacja PON
Ciałami standaryzującymi pasywne sieci optyczne są FSAN (Full Services Access Network), ITU (International Telecommunication Union) oraz IEEE (Institute of Electrical and Electronics Engineers). ITU ustanowił standardy APON, BPON, GPON, XGPON oraz niebawem zakończy prace nad NGPON2. Trzy ostatnie technologie, jako aktualnie wykorzystywane lub projektowane, zostaną opisane w tym artykule oraz porównane do prac IEEE (EPON oraz 10G-EPON). Rys. 3 ilustruje ścieżkę rozwoju standardów PON.
Najpopularniejsza technologia ITU – GPON (Gigabit PON) oferuje łączną przepustowość 2.5 Gbps dla ruchu do jednostek ONU/ONT oraz 1.25 Gbps łącznej przepustowości w kierunku powrotnym. Maksymalny split dla tej technologii to 1:128 (128 jednostek ONU/ONT na jednym porcie GPON).
Standard XGPON (znany także jako NG-PON1, G.987) dostarcza łączne przepustowości 10Gbps do jednostek ONU/OLT i 2.5 Gbps w kierunku powrotnym, zachowując przy tym możliwość splitu 1:128.
NG-PON2 (ITU G.989) pozwala na większy wybór. Dostępnych jest wiele modeli – np. sieć w trybie z wykorzystaniem 4 fal w obu kierunkach – symetryczna komunikacja 10 Gbps w obu kierunkach lub 40 Gbps do jednostek ONU/OLT oraz 10 Gbps w przeciwnym kierunku. Specyfikacja jest elastyczna – można zwiększyć liczbę fal do 8 w każdym kierunku zwiększając w ten sposób przepustowość do 80/20Gbps, a dla usług biznesowych: 40/40 Gbps lub 80/80 Gbps. Różne fale mogą być także dedykowane do różnych dostawców usług – co otwiera nowe możliwości współdzielenia infrastruktury sieciowej w oparciu o tzw. Wavelength Unbundling. G.989 został opracowany z natywnym wsparciem transmisji ruchu komórkowego (Mobile Backhaul).
Technologie PON ITU są ze sobą wstecznie kompatybilne – oznacza to, iż używają innych długości fal i wszystkie – łącznie z opracowywanym właśnie NGPON2 – mogą współistnieć na tym samym światłowodzie. OLT obsługuje podział technologiczny przez tzw. Coexising Element (element pasywny). Wówczas urządzenie ONU/ONT filtruje zakres fal dla uzyskania pożądanego sygnału.
Rys. 3 przedstawia długości fal dla wybranych standardów ITU.
Oprócz przedstawionych zakresów fal, dodatkowo wykorzystuje się długość 1650 nm na potrzeby próbkowania (badania jakości sieci przez dodanie sygnału testowego).
Podobnie jest w grupie standardów IEEE – te również są ze sobą wstecznie kompatybilne, należy jednak zwrócić uwagę – co ilustruje rysunek 5 – iż długości fal pokrywają się ze standardami ITU – co oznacza, iż operator musi się zdecydować na grupę ITU lub grupę IEEE.
IEEE dba w swoich pracach o osiągnięcie największego możliwego podobieństwa do standardów Ethernet. Ramkowanie jest bazowane na technologii Ethernet – czyli po sieci PON wysyłane są ramki Ethernetowe (przy czym w ITU stosowane są ramki GEM). Ruch zaś transmitowany jest jako Ethernet Broadcast oparty o adresację MAC z pewnymi modyfikacjami uwzględniającymi zastosowanie splitterów. Sieć GPON, dla kontrastu, jest siecią synchroniczną, opartą o GFP (Generic Framing Protocol).
802.3ah – EPON – zapewnia symetryczną przepustowość 1.25 Gbps (1 Gbps przed kodowaniem 8B/10B) oraz maksymalny split 1:32. Standard 802.3av zwiększa przepustowość do poziomu 10 Gbps w obu kierunkach.
W obu grupach standardów występuje długość fali dedykowana dla analogowego sygnału wideo – RF Overlay. Często urządzenia OLT mają możliwość wstrzyknięcia w transmisję sygnału analogowego – wzmacniając go jednocześnie. Na rynku dostępne są także urządzenia zewnętrzne wzmacniające sygnał RF, które można podłączyć do OLT w standardach ITU oraz IEEE.
W dniu pisania tego artykułu standard GPON jest częściej spotykany w sieciach produkcyjnych, niż EPON. Standardy XGPON i 10G-PON są na etapie pierwszych wdrożeń, zaś NGPON2 przewiduje się, że będzie ustandaryzowany w okolicach trzeciego kwartału 2015 roku.
Standardy nowej generacji są głównie rozwijane przez ITU i wydaje się, iż przyszłość należy właśnie do tej grupy.
O dalszych pracach nad sieciami PON
Producenci sprzętu GPON są obecnie na etapie standardu XGPON (G.987). Karty pozwalające uzyskać transmisję 10/2.5Gbps są już oparte o tanie ASICi i produkcyjnie dostępne.
Karty pozwalające na uzyskanie przepustowości w ramach standardu NGPON2 (np. 10/10 Gbps, 40/10 Gbps) są obecnie dostępne na układach typu FPGA – co za tym idzie, nie są jeszcze zoptymalizowane cenowo. Jest to spowodowane tym, iż prace nad standardem G.989 nie zostały jeszcze całkowicie ukończone.
W zakresie produktów ONT/ONU pojawiają się wszechstronne ONT wspierające np. 5GHz WiFi, a także nowe technologie, takie jak MoCA 2.0 – pozwalające wykorzystać kabel koncentryczny do dystrybucji usług sieciowych.
Pojawiają się ONT, które mają możliwość konfiguracji części Residential Gateway w sposób automatyczny nie tyko przez serwer ACS, ale także przez ściągnięcie pliku z serwera TFTP – po uprzednim otrzymaniu informacji o pliku i serwerze w opcjach DCHP. Jest to ciekawe zastosowanie pozwalające na wprowadzeni automatyzacji.
Ciekawym rozwiązaniem są wkładki optyczne GPON ONU – pozwalające na uruchomienie transmisji po sieci PON do dowolnego urządzenia (np. routera) obsługującego taką wkładkę. Wkładka zazwyczaj się przedstawia jako GigabitEthernet SFP.
Ciała standaryzujące zaś – w szczególności ITU – kładą duży nacisk na dostosowanie technologii dostępowych PON do tendencji rynkowych. Oprócz głównego postulatu zwiększania dostępnej przepustowości, planuje się rozszerzenia wachlarza usług symetrycznych. Przewiduje się, iż sieci PON będą wykorzystywane jako tańsza alternatywa do podłączania klientów biznesowych. Symetryczna przepustowość ma również znaczenie w środowisku „chmury” – gdzie sesje z centrum przetwarzania danych mają podobną charakterystykę bez względu na kierunek ruchu.
Kolejnym etapem zwiększenia przepustowości ma być 100 Gbps.
Dokumenty opisujące NG-PON2 (G.989) mówią także o rozszerzeniach – pozwalających np. na planie zwiększenia splitu do 1:256.
Inżynier Konsultant pracujący w Cisco Polska – koncentrującym się na rozwiązaniach i technologiach klasy operatorskiej dla klientów różnych sektorów: operatorów, sektora publicznego, przedsiębiorstw. Główne obszary technologiczne: sieci MPLS/IP, Carrier Ethernet, BNG, GPON, Multicast, IWAN. Posiada wiele certyfikatów branżowych – w tym eksperckie CCIE RS, CCIE SP, CCDE.
Rys. 1 Pasywne sieci optyczne
rys. 1
Rys. 2 Ścieżka rozwoju standardów PON
rys. 2 - Kopia
Rys. 3 Długość fal dla wybranych standardów ITU
rys. 3
Rys. 4 Rozkład fal w standardach PON IEEE: 802.3ah (EPON), 802.3av (10G-EPON)
rys. 4
Autor: Krzysztof Konkowski – Consulting Systems Engineer, Cisco
Źródło: “ICT PROFESSIONAL” (nr 7, lato 2015)

Internet of Things – wyzwania dla operatorów

0

Szacuje się , że wielkość rynku IoT w 2020 roku osiągnie 8,9 biliona dolarów amerykańskich, a podłączonych do sieci będzie około 30,1 miliarda urządzeń (raport IDC z roku 2013). Niewątpliwie ten trend będzie miał wpływ na rynek operatorski na całym świecie, również w Polsce.

Internet rzeczy (ang. Internet of Things – IoT) wydaje się być technologią, którą niedawno mogliśmy oglądać w filmach science-fiction. Jednak ten świat jest już obok nas. Prawie każdy z nas korzysta ze smartfona, niektórzy korzystają z inteligentnych zegarków, a część z inteligentnych opasek i urządzeń monitorujących stan zdrowia. Urządzenia te, dzięki wbudowanym czujnikom dostarczają olbrzymią ilość informacji o naszych zachowaniach, jednocześnie pozwalając na analizę tych danych.
Nie zdajemy sobie sprawy, że terminologia IoT już nie dotyczy tylko urządzeń i gadżetów związanych z rynkiem konsumenckim. Od dłuższego czasu technologia ta na dobre zadomowiła się w systemach do zarządzania m.in. energią (np. smart grid), budynkami, monitoringu środowiskowego oraz miejskiego (smart city), czy też ma zastosowanie w transporcie (np. zarządzanie flotą), stanowiąc nieodłączny element w przemyśle.
Historia
Choć termin Internet of Things wydaje się być bardzo nową i świeżą koncepcją, to już w 1999 roku Bill Joy założyciel firm Berkeley Unix i Sun Microsystems opisał sposób komunikacji urządzeń za pośrednictwem Internetu. Zrobił to w celu wprowadzenia inteligentnych rozwiązań w życiu codziennym. Przedstawiony pomysł pozostał w ukrycia przez wiele lat, dopóki Kevin Askton z MIT nie zaproponował terminu „Internet of Things” do opisania urządzeń cyfrowych mogących się komunikować między sobą bez pośrednictwa człowieka. Askton postulował, że „Gdybyśmy mieli komputery, które wiedziałyby wszystko co jest możliwe o rzeczach, to na podstawie danych zebranych bez naszej ingerencji, bylibyśmy w stanie śledzić i policzyć wszystko, dzięki czemu można by było ograniczyć straty, koszty oraz odpadki”.
Dziś wiemy, że technologie którymi dysponujemy już dzisiaj, umożliwiają stworzenie w niedługim czasie nowszych i lepszych rozwiązań, które są w stanie sprostać idei Kevina Askton’a.
Rozwój
Niewątpliwie do nagłego rozwoju terminu Internet of Things przyczynił się olbrzymi skok związany z miniaturyzacją urządzeń elektronicznych. Dynamiczny rozwój układów typu MEMS (ang. Micro Electro-Mechanical System) stał się podstawą do projektowania i budowy wszelakiego rodzaju czujników dostarczających informacje o otaczającym nas świecie.
Rozwój technologii związanych z projektowaniem i wytwarzaniem układów o wysokiej częstotliwości umożliwił wprowadzenie miniaturowych rozwiązań typu SoC (System on Chip) posiadających wbudowane moduły łączności np. Bluetooth. Dodatkowo zwiększanie się mocy obliczeniowej miniaturowych urządzeń, znacznie ułatwiło tworzenie aplikacji i rozwiązań z nich korzystających.
Ogólne spojrzenie
W celu ułatwienia przybliżenia zagadnień związanych z terminem Internet of Things musimy wprowadzić pewne uproszczenia. W bardzo dużym uproszczeniu architekturę rozwiązań IoT możemy podzielić na trzy warstwy:
1. Aplikacje – warstwa inteligentnych urządzeń wejściowo/wyjściowych.
2. Komunikacja – warstwę komunikacji zawierającą m.in. sieci i sposoby komunikacji urządzeń ze sobą.
3. Inteligentne urządzenia – warstwę rozwiązań/aplikacji dostarczających usługi dla użytkowników końcowych.
W każdej z przedstawionych warstw można wyodrębnić znaczną ilość podobszarów, z których prawie każdy jest tak samo ważny i istotny jak pozostałe. Jednakże, w niniejszym artykule skupimy się przede wszystkim na perspektywie zagadnień związanych z IoT z punktu widzenia operatora telekomunikacyjnego, stąd rozwińmy warstwę komunikacji.
Internet of Things a komunikacja i łączność
Nieprzerwana łączność i dostępność sieci jest niewątpliwie elementem niezbędnym dla istnienia IoT. Termin Internet of Things swoją moc pokazuje właśnie dzięki ciągłej wymianie informacji pomiędzy urządzeniami.
W celu uproszczenia, na potrzeby niniejszego artykułu, warstwa sieci zostanie przedstawiona z kilku perspektyw. Podział pozwoli na łatwiejszą analizę wyzwań jakie stoją przed operatorami.
Zasięg działania sieci
Zasięg działania sieci można w uproszczeniu podzielić na trzy obszary:
• sieci osobiste (ang. Personal Area Network – PAN),
• sieci lokalne (ang. Local Area Network – LAN),
• sieci rozległe (ang. Wide Area Network – WAN).
Do sieci typu PAN możemy zaliczyć między innymi rozwiązania tj. inteligentne ubrania, inteligentne zegarki, urządzenia typu fitness. Wiodącą technologią w tym przypadku jest technologia Bluetooth. Pojawienie się najnowszej wersji tego standardu czyli BT 4.0 zwłaszcza rozszerzenia LE (Low Energy) spowodowało bardzo duży rozkwit urządzeń w tym obszarze – zwłaszcza na rynku konsumenckim.
Do sieci typu LAN w przypadku rozwiązań Internet of Things należą przede wszystkim sieci WiFi (2,4 GHz, 5 GHz) umożliwiające tworzenie sieci dookólnych na obszarze do kilkudziesięciu metrów oraz sieci typu punkt-punkt na odległościach dochodzących do kilometrów. Główną wadą i zaletą sieci typu WiFi jest ich popularność. Łatwość implementacji sieci WiFi powoduje, że prawie w każdym mieście jednym z głównym problemów operatorów jest uruchomienie i utrzymanie stabilnego łącza opartego o technologię WiFi. Stąd, w przemyśle oraz w rozwiązaniach dedykowanych, nadal bardzo często są stosowane sieci typu ISM (ang. Industrial, Scientific, Medical), które operują w znacznej części na innych częstotliwościach niż sieci WiFi. Pomimo że oferują one zazwyczaj mniejsze przepustowości niż sieci WiFi , to jednak ich stabilność jest główną przyczyną dla której nadal są stosowane w przemyśle.
W sieciach typu WAN zazwyczaj stosowane są rozwiązania klasy GSM. Dzisiejsze technologie stosowane w sieciach komórkowych pozwalają na uzyskanie dużych przepustowości, jednakże jest to okupione przede wszystkim koniecznością poniesienia bardzo dużych nakładów na rozwój infrastruktury operatora. Również przeciążone sieci GSM nie gwarantują odpowiedniej dostępności warstwy komunikacji dla wymagających aplikacji. Z punktu widzenia urządzeń, sieci typu GSM mają dość dużą wadę, mianowicie układy do transmisji danych pobierają stosunkowo dużo prądu, czyniąc je bardzo trudnym w zastosowaniach, gdzie zasilanie sieciowe nie jest możliwe.
W przypadku rozwiązań dedykowanych, zazwyczaj stosowanych na skalę przemysłową, spotyka się sieci typu LPWAN (ang. Low-Power Wide Area Network). Są to sieci specjalnie stworzone na potrzeby rozwiązań, gdzie zasilanie jest kwestią kluczową. Pomimo, że sieci typu LPWAN nie oferują dużych przepustowości to jednak, niski pobór prądu stanowi przewagę w niektórych aplikacjach nad rozwiązaniami opartymi o sieci komórkowe.
Klasyfikacja według sposobu komunikacji
W zależności od architektury sieci, jej zasięgu oraz zastosowania, sposób i kierunek przesyłania danych bardzo istotnie rzutuje na działanie aplikacji opartej o technologię IoT. W dużym uproszczeniu możemy wyróżnić dwa typy komunikacji w architekturze IoT:
• komunikacja od urządzenia do aplikacji w chmurze,
• komunikacja pomiędzy urządzeniami – M2M (ang. machine to machine).
W przypadku stosowania sieci typu PAN oraz większości sieci stworzonych w oparciu o standardy przemysłowe, możemy bez większych problemów realizować dwukierunkowy transport danych pomiędzy dowolnymi urządzeniami w sieci. Jednakże, w przypadku konieczności przesyłania informacji do chmury obliczeniowej w celu jej dalszego przetworzenia, wymagane jest pośrednictwo urządzenia często zwanego bramą (ang. gateway), które umożliwia transport danych z sieci IoT do sieci Internet opartej o protokół IP. W rozwiązaniach przemysłowych są to zazwyczaj dedykowane urządzenia realizujące dodatkowo bardzo wiele innych funkcji, jednak najprostszym urządzeniem pełniących rolę gateway’a jest nasz smartfon, który przesyła informacje np. z czujnika oddechu podłączonego za pomocą sieci Bluetooth do aplikacji w chmurze np. do serwisu endomondo.
Dodatkowo bardzo ważną funkcjonalnością urządzenia typu gateway jest umożliwienie komunikacji dwukierunkowej pomiędzy urządzeniami, a aplikacją/usługą zlokalizowaną w chmurze obliczeniowej. Brak bezpośredniej komunikacji pomiędzy urządzeniami końcowymi, a usługami w chmurze stanowi jeden z ważniejszych problemów spotykanych przy projektowaniu aplikacji IoT.
Ominięcie powyższych ograniczeń jest możliwe dzięki zastosowaniu urządzeń IoT, które swoją komunikację opierają o protokół IP. Jest to rozwiązanie coraz częściej spotykane na rynku, zarówno konsumenckim jak i przemysłowym. Coraz większa liczba urządzeń korzysta z sieci WiFi co umożliwia łatwą integrację tych urządzeń z istniejącymi sieciami. W tym przypadku rolę urządzania gateway najczęściej przejmuje router, który dokonuje translacji adresów sieci lokalnej na adresy routowalne w Internecie. Niestety translacja adresów jest nadal konieczna ze względu na ciągle rozpowszechnione wykorzystanie protokołu IPv4.
W tym momencie pojawia się jedno z największych wyzwań dla operatorów, a mianowicie dostosowanie swoich sieci do powszechnego stosowania protokołu IPv6. Rozpowszechnienie protokołu IPv6 wydaje się elementem niezbędnym do dynamicznego rozwoju usług i aplikacji IoT.
Wymagania rozwiązań IoT w kontekście łączności
Wymagania dla rozwiązań IoT w kontekście łączności możemy podzielić na dwie grupy w zależności od rynków docelowych aplikacji korzystających z technologii IoT. Inną charakterystykę mają rozwiązania oferowane na rynek konsumencki (b2c), a inne na rynek profesjonalny/przemysłowy (b2b).
Rozwiązania / aplikacje na rynku b2c
Aktualnie na rynku konsumenckim prym wiodą przede wszystkim rozwiązania oparte o sieci osobiste wraz z transportem danych do aplikacji w chmurze obliczeniowej. Z punktu widzenia operatorów telekomunikacyjnych, nie są to aplikacje szczególnie wymagające, jednak należy pamiętać o efekcie skali.
Gwałtowny wzrost zainteresowania rozwiązaniami IoT spowoduje znaczące zwiększenie ruchu sieciowego do chmur obliczeniowych, w których osadzone są aplikacje przetwarzające dane. Rozwój rozwiązań IoT spowoduje również zmianę profilu ruchu sieciowego użytkowników, z aktualnie najbardziej spotykanego ruchu do użytkownika (download), w kierunku przesyłania danych do usług w chmurze (upload). Również same dane ulegną znaczącej przemianie, z aktualnie obserwowanych danych pomiarowych, do danych klasyfikowanych jako streaming. Rozwój technologii i aplikacji IoT spowoduje również znaczne zwiększenie zapotrzebowania na dwustronną komunikację M2M, co jednoznacznie będzie wskazywać na konieczność wdrożenia protokołu IPv6 na szeroką i masową skalę.
Rozwiązania / aplikacje na rynku b2b
Dotychczas rynek przemysłowy nie stanowił większego udziału w ruchu sieciowy obserwowanym u operatorów. Było to spowodowane przede wszystkim wykorzystaniem przemysłowych protokołów transmisji danych w zaimplementowanych rozwiązaniach oraz lokalnym przetwarzaniem danych w systemach zlokalizowanych u klienta.
Rozwój technologii IoT i jego coraz większe uczestnictwo na rynku przemysłowym powoduje, że operatorzy telekomunikacyjni będą musieli sprostać specyficznym wymaganiom aplikacji i rozwiązań dostępnych na rynku przemysłowym. O ile większość rozwiązań IoT dostępnych dla przemysłu z punktu widzenia operatorów telekomunikacyjnych można sklasyfikować jako profil b2c, to jednak pewna część będzie stanowić istotne wyzwanie.
Dzięki technologii IoT na pewno bardzo rozpowszechnią się wszelkiego typu usługi i produkty związane z sieciami telemetrycznymi. Smart Grid, Smart City, czy też rozwiązania dla rolnictwa są to aplikacje, w których bardzo ważny jest dostęp do sieci, przede wszystkim sieci GSM. Aktualnie obserwuje się znaczny rozwój sieci typu GSM opisywany zazwyczaj parametrem procentowego pokrycia obszarów zaludnionych. Problemy z zasięgiem GSM w terenach niezaludnionych zazwyczaj są pokonywane za pomocą połączeń typu np. LPWAN. Jednak rozwój aplikacji IoT dla rynku przemysłowego i publicznego wymusi rozwój sieci GSM o pokrycie obszarów niezamieszkałych w celu umożliwienia przesyłania danych np. z obszarów leśnych, rolniczych.
Wyzwania
Analizując wyzwania dotyczące komunikacji w rozwiązaniach dla rynku b2c oraz b2b możemy wyróżnić najważniejsze aspekty:
1. Konieczność przyspieszenia wdrożenia protokołu IPv6 u operatorów oraz wsparcie przy wdrażaniu tego protokołu u klientów.
3. Zmniejszenie udziału łącz typu DSL na rzecz łącz symetrycznych dostępnych dla klientów.
4. Zwiększenie zasięgu sieci komórkowych o obszary niezamieszkane.
Do ważnych parametrów jakie niewątpliwie są związane z rozwojem aplikacji IoT jest zmniejszenie opóźnień w transmisji danych zarówno w kierunku od urządzeń do chmury obliczeniowej, jak i w kierunku odwrotnym. Pewnym rozwiązaniem tego zagadnienia może być udział operatorów telekomunikacyjnych w tworzeniu i dostarczaniu rozwiązań IoT dla użytkowników końcowych. Dostarczanie rozwiązań i aplikacji przez operatorów przy wykorzystaniu architektury „fog computing” może ułatwić proces adaptacji infrastruktury operatorów na nowe wyzwania związane z rozwojem IoT.
Wyzwania dla IoT = Wyzwania dla operatorów
Jednym z największym problemów przy masowej popularyzacji urządzeń IoT są problemy ze źródłami zasilania. Na horyzoncie pojawiają się już technologie bezprzewodowego zasilania, baterie o wielokrotnie większej pojemności i krótszym czasie ładowania.
Rozwiązanie problemu zasilania oraz dalsza miniaturyzacja elektroniki niewątpliwie spowoduje eksplozję ilości urządzeń IoT, zarówno w obszarze b2c jak i b2b.
Zwiększająca się ilość urządzeń oraz ich zastosowań, to zwiększenie zapotrzebowania na dostępną, pojemną i wydajną infrastrukturę sieciową. Warto być na to przygotowanym.
Autor: dr inż. Tomasz Zięba, właściciel firmy Astozi
Źródło: “ICT PROFESSIONAL” (numer 7, lato 2015)

Społeczeństwo informacyjne w Lubuskiem

Są już autostrady światłowodów, teraz czas na ostatnią milę, czyli dostarczenie internetu do domów Lubuszan – o tym rozmawiano 17 czerwca podczas konferencji „Cyfrowy start w Lubuskie 2020”. – Budowa społeczeństwa informacyjnego to też budowa kompetencji i przełamywanie barier w korzystaniu z e-usług – mówiła marszałek Elżbieta Anna Polak. Zapowiedziała też start pierwszego konkursu nowej perspektywy na e-projekty.

Data konferencji została wybrana nieprzypadkowo. 17 czerwca ogłoszono pierwszy konkurs w ramach Regionalnego Programu Operacyjnego  – działanie 2.1 Rozwój społeczeństwa informacyjnego. Kwota przeznaczona na ten konkurs wynosi 40 mln zł. Nabór wniosków rozpocznie się 30 czerwca i potrwa do końca lipca.
– W sumie w tej perspektywie na budowanie społeczeństwa informacyjnego przeznaczymy 39 mln euro. Nie będziemy już finansować infrastruktury. Teraz czas na ostatnią milę. Często słyszę, że w najmniejszych miejscowościach naszego regionu nie ma internetu. Teraz będzie. 26 maja inaugurację miał program Cyfrowa Polska, z którego będzie można skorzystać budując ostatnią milę – mówiła marszałek Elżbieta Anna Polak podczas briefingu prasowego poprzedzającego konferencję.
Marszałek podkreślała, że budowa społeczeństwa informacyjnego to przede wszystkim budowa kompetencji i przełamywanie barier mentalnych w korzystaniu z e-usług. – W minionej perspektywie zakończyliśmy dwa duże projekty. To Szerokopasmowe Lubuskie – przypomnę, że jako pierwsi w Polsce zbudowaliśmy sieci szerokopasmowe pokrywające 80 proc. tzw. białych plam w regionie w dostępie do internetu – oraz e-administracja. To jest nasze wsparcie, które sprawi, że Lubuskie stanie się zieloną krainą nowoczesnych technologii – tak jak sobie to zakładaliśmy – mówiła marszałek Polak.
Dominik Kopera z Ministerstwa Administracji i Cyfryzacji podkreślał, że sieci światłowodów powstają w całej Polsce. Są podstawą do budowania sieci dostępowej. – Na ten cel w ramach programu Polska Cyfrowa mamy zapewniony 1 mld euro. Pierwszy konkurs ruszy jeszcze w tym roku, we wrześniu. Mamy już autostrady cyfrowe, a teraz schodzimy coraz niżej – mówił Dominik Kopera.
Podczas konferencji „Cyfrowy start w Lubuskie 2020” marszałek Elżbieta Anna Polak przedstawiła, jak lubuski samorząd buduje społeczeństwo informacyjne – co zostało już zrobione, a co jeszcze przed nimi.
– Społeczeństwo informacyjne to nasz priorytet. Mamy jasny cel, marzenie, by stać się zieloną krainą nowoczesnych technologii. Nie już dziś, ale w 2020 roku – podkreślała marszałek. Zwróciła uwagę, że w nowej perspektywie słowo klucz to innowacje. Najwięcej pieniędzy trafi do przedsiębiorców, którzy będą chcieli skorzystać z dofinansowania w obszarze gospodarka i innowacje. Do roku 2020 do Lubuskiego wpłynie 12 mld zł. To największe pieniądze w historii.  – Chciałabym, żebyśmy razem zbudowali silny, konkurencyjny region – mówiła marszałek.
Źródło: Urząd Marszałkowski województwa lubuskiego
Zdjęcie:

Jednolity rynek cyfrowy: korzyści i szkody

0

Jednym z najważniejszych celów Komisji Europejskiej jest obecnie utworzenie jednolitego rynku cyfrowego. Szykują się zmiany, które na pierwszy rzut oka są bardzo korzystne głównie dla przeciętnego użytkownika. Warto się jednak zastanowić nad tym, czy ceną jaką zapłacimy np. za tańsze zakupy przez internet nie będzie jego cenzura i próba ograniczenia wolności słowa?

28 rynków krajów członkowskich ma zostać przekształconych w jedną spójną całość. Jednolity rynek cyfrowy ma m.in. stworzyć tysiące nowych miejsc pracy, zlikwidować bariery, które pojawiają się podczas robienia zakupów przez internet czy ułatwić dostęp do takich serwisów jak Netflix.
Zakupy on-line zdają się być dla KE jedną ze spraw priorytetowych. Obecnie tylko 15% obywateli robi zakupy przez internet w innym kraju UE niż miejsce zamieszkania. To dyskomfort nie tylko dla kupującego, ale też duży problem dla spółek internetowych oraz małych i średnich przedsiębiorstw. Tylko 7% prowadzi sprzedaż transgraniczną, co uniemożliwia rozwój i zysk. Przewodniczący KE – Jean-Claude Juncker – tak komentuje potrzebę wprowadzenia zmian: „Chcę żyć w czasach, w których każdemu z konsumentów oferuje się jak najlepsze warunki, a każdemu przedsiębiorstwu dostęp do jak największego rynku”. Do końca 2016 roku ma być podjętych 16 działań w ramach 3 filarów, z czego dla przeciętnego użytkownika najistotniejszy wydaje się filar 1. – czyli „zapewnienie konsumentom i przedsiębiorcom łatwiejszego dostępu do towarów i usług cyfrowych w całej Europie”. Wśród korzyści wymienić można:
1. Poszerzenie oferty i praw dla konsumentów – ułatwienie transgranicznego handlu elektronicznego. Przedsiębiorcy będą mieli ułatwione prowadzenie handlu w innych krajach europejskich, co przełoży się na łatwiejsze kupowanie nie tylko towarów fizycznych, ale też elektronicznych (e-booki, aplikacje internetowe).
2. Tańsze przesyłki z e-sklepów.
3. Zakupy bez ograniczeń. Po 2016 roku zakup usług on-line (bilety, wynajem samochodu) nie będzie problemem, a komunikat typu „Ta usługa jest niedostępna dla Twojego kraju” ma pozostać tylko przykrym wspomnieniem. Oznacza to także koniec z sytuacjami, gdy klient zostaje przekierowany przez sklep na inny adres i musi płacić wyższe ceny za towary czy usługi.
4. Prawo autorskie. Jednym z postulatów KE jest ograniczenie różnic między krajowymi systemami prawa autorskiego. Ma to ograniczyć naruszenie praw własności intelektualnej i walczyć z piractwem.
5. Analiza roli platform internetowych. Pod tym pojęciem kryją się wyszukiwarki, media społecznościowe, sklepy z aplikacjami internetowymi itp. Chodzi o to, jak firmy wykorzystują dane klientów i promują swoje usługi na niekorzyść konsumentów.
6. Administracja. Nowy plan dotyczący administracji elektronicznej przewiduje połączenie rejestrów przedsiębiorstw w całej Europie oraz m.in. obowiązek przekazywania jednorazowo swoich danych przez obywateli i przedsiębiorstwa organom administracji publicznej. Według KE dzięki temu administracja będzie miała mniejsze obciążenie i na terenie UE zaoszczędzi do 2017 roku ok. 5 mld euro rocznie.
7. Przedsiębiorcy a VAT. Zgodnie z pomysłem KE sprzedawca będzie rozliczał się wg wysokości VAT swojego kraju, a nie klienta. Ma to być odpowiedź na skargi przedsiębiorców, którzy narzekają na zbyt wysoki podatek
Plany Komisji Europejskiej brzmią bardzo obiecująco i dla przeciętnego użytkownika sieci mogą być spełnieniem marzeń. Pewne problemy zauważa już na wstępie Róża Thun – posłanka Parlamentu Europejskiego, zajmująca się sprawami rynku cyfrowego. Jej zdaniem, propozycje KE nie wejdą w życie w 2016 roku. Do tego czasu będzie można opracować komplet przepisów, ale trzeba pamiętać o części procesu legislacyjnego, co może trwać ze względu na to, że państwa UE nie są skłonne do kompromisów.
Warto też zastanowić się nad tym, czy w zmianach KE, które wydają się brzmieć bardzo obiecująco, nie kryje się drugie – mniej korzystne dla użytkowników – dno.
Kilka lat temu ogromne wzburzenie i falę protestów wzbudziła umowa handlowa przeciwko podróbkom, czyli znane powszechnie ACTA. Przewidywano wtedy, że wolność w sieci będzie tylko teorią, a każdy użytkownik będzie skrupulatnie kontrolowany. Prorokowano m.in. koniec YouTube, kontrolę odwiedzanych stron itp. Afera z ACTA przycichła, ale czy plany KE nie spowodują, że znów odżyje? Warto wziąć na warsztat punkty 4 i 5 – prawo autorskie i sprawdzanie platform internetowych.
Źródło: INNPOLAND

Internet Rzeczy szansą dla operatorów

0

Jaki wzrost zysków może przynieść wprowadzenie technologii M2M operatorom telekomunikacyjnym i kiedy to nastąpi. O tym w rozmowie z redakcją „ICT Professional” opowie Sebastian Cygan, dyrektor sprzedaży i specjalista ds. M2M w firmie IMPAQ.

Obecnie pojęcia M2M i Internet Rzeczy nie są zrozumiałe dla przeciętnego użytkownika. Kiedy konsumenci zaczną rozumieć, a następnie korzystać z Internetu Rzeczy?
Myślę, że „przeciętny” Kowalski nie będzie świadomy tych pojęć i nie musi ich rozumieć (zadajmy sobie pytanie, czy ktoś z nas wie jak zbudowany jest smartfon, bez którego nie możemy się już obyć?). Internet rzeczy przezroczyście wkroczy w jego życie, gdy zacznie dostawać sms-y z warsztatu o konieczności wymiany klocków hamulcowych, przypomnienie od lekarza, że konieczna jest wizyta ze względu na zbyt wysokie ciśnienie. Konsumenci zaczną korzystać z IoT wtedy, gdy będą mieli bardziej powszechną ku temu możliwość. Muszą powstać aplikacje przynoszące im wartość, a to wiąże się z kolei z rozwojem platform sprzyjających powstawaniu takich aplikacji spiętych z infrastrukturą istniejących urządzeń. Trzeba rozumieć również, że w kontekście M2M dotykamy wielu problemów wielowymiarowo: od gromadzenia danych, poprzez ich analizę (BIG DATA), aż do prezentacji w postaci końcowej, jasnej i czytelnej dla użytkownika końcowego.
Internet Rzeczy jest głównie zarezerwowany dla rynku B2B. Kiedy nastąpi rozwój na rynku konsumenckim?
Nastąpi to w momencie, gdy „koszt” wytworzenia aplikacji będzie mały, a dane z infrastruktury różnych urządzeń będą powszechnie dostępne. Oczywiście to wiąże się z wieloma czynnikami i pewnie, aż w tak otwartym stopniu tego tak szybko nie zobaczymy. O ile nie ma wątpliwości, że powstaną, a raczej już są wdrażane komercyjne platformy ułatwiające pisanie aplikacji integrujące urządzenia z rynku B2B, o tyle jeśli chodzi o rynek konsumencki zadajemy sobie pytania:
– Jakie urządzenia będą nierozłącznie związane z konsumentem końcowym (lodówka, pralka, telewizor, a może coś bardziej mobilnego?)
– Kto poniesie koszt ich integracji z ww. platformami?
– Czy powstaną jakieś niekomercyjne rozwiązania, bądź przyjazny model subskrypcyjny otwarty na dostawców aplikacji i konsumentów końcowych?
– Jak rozwiążemy problem danych wrażliwych?
Teraz jako dane wrażliwe możemy traktować imię, nazwisko, adres, ale za chwilę może się okazać, że analizując dane z urządzeń monitorujących nasze lokalizacje w kontekście harmonogramu dnia, stylu życia, stylu jazdy w pojeździe, łącząc te dane z innymi już istniejącymi źródłami możemy nie być już anonimowi. Tutaj świat M2M i BIG DATA zaczynają się przenikać i wspólnie muszą rozwiązać te problemy.
Jeśli chodzi o rozwój na rynku konsumenckim tutaj ponownie widzę np. analogie do smartphonów: powstanie Androida ogólnie dostępnego i łatwego interfejsu do tworzenia aplikacji powiązanego z mnogością istnienia tych urządzeń na rynku zapoczątkowało kreatywną i rozwijającą się twórczość. Zaowocował to mnogością ogólnie dostępnych aplikacji, z których korzystamy codziennie i bez których czasem już nie potrafimy normalnie funkcjonować.
Jeżeli M2M przyczyni się do poprawy życia wielu odbiorców końcowych, to jakie szanse ta technologia daje lokalnym operatorom ISP, czy innym operatorom telekomunikacyjnym?
Jeśli chodzi o operatorów telekomunikacyjnych to na pewno jest tu duża szansa na rozwój biznesu opartego o M2M. Powszechnie wiadomo, ze dobry czas oparty na biznesie z sms-ów i połączeń głosowych już się skończył. Oczywiście M2M to Connectivity, wiele urządzeń będzie korzystało z kanału udostępnionego poprzez infrastrukturę telekomunikacyjną. Niemniej jednak trzeba pamiętać, o tym, że aby rynek B2B mógł się rozwinąć oferta na pojedynczy SIM M2M musi być atrakcyjna, a to również oznacza małe koszty operacyjne po stronie samego operatora związane z jego obsługą. Uważam zatem, że niezbędne po stronie operatora będą platformy dające możliwość klientom Enterprise samodzielnego zamawiania SIM-ów, diagnozowania ich stanu, dostosowania taryf itp. Dodatkowo operatorzy mogą pójść jeszcze krok dalej i wzbogacić swoją ofertę również o platformy ułatwiające pisanie aplikacji, integrujące urządzenia, gromadzące dane pomiarowe, dające możliwość zdefiniowania alarmów czy dostęp do statystyk. Szacuje się, ze dochód z samego Connectivity będzie na poziomie 10% całego spektrum jaki ten biznes może przynieść. Inwestycja w ww. platformę może zwiększyć go dla operatora o dodatkowe 40-60%. Pozostały kawałek biznesu i dochód z nim związany trafi do twórców aplikacji.
Jeśli technologia M2M jest szansą na rozwój także dla operatorów, to czy istnieją ewentualne zagrożenia dla dostawców łącz i na czym mogą polegać?
Rozwój Internetu rzeczy (IoT) przełoży się na większą transmisję danych, a co za tym idzie na większe zapotrzebowanie na pasmo. Będzie to jednak potrzeba pośrednia. W większości przypadków główny ciężar transmisji danych poniosą operatorzy mobilni (czyli transmisja bezprzewodowa).
Internet Maszyn wydaje się nieść nieograniczone możliwości dla rozwoju wielu innowacji prawie każdej dziedziny życia. Jakie trendy są obecnie najbardziej zauważalne na rynku?
W tym roku miałem okazję uczestniczyć w Mobile World Congress i bardzo wyraźnie było widać tam, że rynek powoli zaczyna dojrzewać do M2M. Istnieje wiele firm mających pomysły na same aplikacje, pojawiają się firmy adresujące problem wspomnianych wcześniej platform. Producenci urządzeń prześcigają się w rozwiązaniach stricte szytych na potrzeby M2M, a nowa specyfikacja sieci 5. generacji została zaprojektowana z myślą o dużym prawdopodobieństwie rychłego rozwoju tego biznesu. Trzeba również powiedzieć, że rynek amerykański jest o krok dalej niż rynek europejski.
Które sektory rynku, Pana zdaniem, w niedługim czasie najlepiej wykorzystają tę technologię?
Myślę, że tą technologię może wykorzystać każdy sektor, który ma pomysł, niezaadresowane jeszcze potrzeby biznesowe i chęć rozwoju. Niemniej jednak moim prywatnym zdaniem głosowałbym na: energetykę, która może zarządzać swoją infrastrukturą liczników, zdalnie je odczytywać (Smart metering), dać możliwość konsumentom końcowym on-line monitorowania zużycia energii, płynnego zmieniania taryf; ubezpieczenia – pay as you drive; logistykę oraz prawo.
Sebastian Cygan – z branżą telekomunikacyjną związany od 2005 roku. Zajmował się sprzedażą usług telekomunikacyjnych od różnych sektorów, a od 2008 roku współpracuje z firmami z rynku gazetowego i energetycznego. Od 2014 roku związany z firmą IMPAQ, gdzie specjalizuje się w sprzedaży innowacyjnych produktów w gamie rozwiązań biznesowych, takich jak Cloud Computing i Machine to Machine. Wspólnie z zespołem ekspertów, z wieloletnim doświadczeniem w projektowaniu i rozbudowywaniu aplikacji dla biznesu, bierze aktywny udział w procesie wdrażania strategii IMPAQ rozwoju Internetu Rzeczy (IoT).
Źródło: “ICT Professional” (lato 2015, nr 7)