Artykuł Strategia rozwoju ATM… pochodzi z serwisu CRN.
]]>Współpraca partnerska
dotyczy również rynku telekomunikacyjnego – ATMAN, będąc na terenie Polski
dostawcą usług transmisji danych dla największych światowych operatorów, często
wykorzystuje w nich łącza pozyskiwane od lokalnych operatorów i ISP.
Każda ze stron odnosi wtedy korzyści: operator lokalny zyskuje możliwość
sprzedaży na rynku, na którym sam nie działa, ATM – elastyczność lokalnego
dostawcy i efektywne wykorzystanie własnej sieci krajowej, a klient
końcowy otrzymuje łącze szybko i w dobrej cenie.
Centra danych
i łącza ATMAN są często wykorzystywane przez integratorów
w przetargach publicznych dotyczących systemów IT, platform usługowych,
e-learningu
i wielu innych. ATM takich usług sam nie świadczy, ale systemy te
muszą pracować w profesjonalnym centrum danych, z dobrym dostępem do
Internetu.
• 3
nowoczesne centra danych w Warszawie i Katowicach, o łącznej powierzchni
technicznej ponad 10 600 m2 i zasilaniu 42 MW
• ponad 4500
km łączy międzymiastowych oraz ponad 7400 km łączy międzynarodowych
• ponad 50
węzłów tworzących ogólnopolską sieć transmisji danych
• 100 000 km
włókien optycznych na terenie Warszawy, Krakowa, Gdańska, Katowic, Poznania,
Wrocławia, Lublina i Łodzi
•
bezpośrednie punkty styku o dużej przepustowości z ponad 1000 sieci
telekomunikacyjnych (z czego około 300 w Polsce)
• obecność w
4 największych węzłach międzyoperatorskich w Europie: AMS-IX (Amsterdam), DE-CIX (Frankfurt), LINX (Londyn) i
MSK-IX (Moskwa)
Kalendarium ATM
1992 – pierwsza
firma w Polsce podłączona do Internetu (100 proc. użytkowników akademickich)
1993 –
pierwszy komercyjny ISP w Polsce: patrząc na rozwój Internetu
w USA, ATM zaczyna budować świadomość
rynkową (czym jest
Internet i dlaczego będzie ważny)
oraz bazę klientów (1 adres mailowy za 250 zł miesięcznie)
1997
– pierwszy w Polsce międzyoperatorski punkt wymiany ruchu
internetowego: ATM buduje
środowisko dostawców Internetu (ISP) – techniczną platformę pozwalającą podnieść jakość usług, obniżyć
koszy działalności i częściowo uniezależnić się od sieci Tier 1
i krajowych monopolistów
2001 – budowa
sieci światłowodowej ATMAN w Warszawie: ATM zostaje hurtowym
dostawcą Internetu i usług transmisji danych dla
większości operatorów działających na polskim rynku
2001 –
rozpoczęcie świadczenia usług kolokacji w centrum danych: w oparciu o infrastrukturę ATM zaczynają działać banki
internetowe, portale, media, usługi sieciowe,
usługi IT, usługi kreatywne itd.
2004 – IPO na GPW:
zaufanie wypracowane
u klientów ATM łączy z kapitałem nowych inwestorów,
a jednocześnie wprowadza przejrzystość w działania firmy, związaną
z obecnością na rynku publicznym
2007 –
budowa Centrum Danych ATMAN – stale rozbudowywanego w kolejnych
latach wraz z rozwojem klientów ATM
2010 – budowa CD Thinx Poland
– największego neutralnego centrum danych w Polsce będącego
jednocześnie punktem wymiany ruchu IP: ATM tworzy nie tylko obiekt techniczny,
ale również konkurencyjne środowisko biznesowe,
w którym każdy operator i dostawca usług IT może
świadczyć usługi innym klientom Thinx Poland
2011 – ATM osiąga
pozycję lidera rynku centrów danych w Polsce: świadczy usługi dla
startupów i liderów rynku, wprowadza pośredni kanał sprzedaży
2012 – wydzielenie
działalności integratorskiej oraz IT i utworzenie oddzielnej firmy
(obecnie niepowiązanej kapitałowo). ATM natomiast koncentruje
się na kluczowej działalności, czyli centrach danych i telekomunikacji
2012 –
uzupełnienie oferty kolokacyjnej o dzierżawę serwerów dedykowanych: oferta
dla odbiorców końcowych, integratorów i sprzedaży pośredniej
2014 –
kontynuacja rozbudowy centrów danych; rozszerzenie oferty o usługi ATMAN
Private Cloud i ATMAN anty-DDoS
Artykuł powstał we
współpracy z firmą ATM.
Artykuł Strategia rozwoju ATM… pochodzi z serwisu CRN.
]]>Artykuł Na początku były kluby pochodzi z serwisu CRN.
]]>Równolegle błyskawicznie rozwijała się nowa gałąź mediów: magazyny poświęcone „tajemniczym” maszynom, w których objaśniano podstawy obsługi wieloprzyciskowych urządzeń, jak też przedstawiano język, w jakim należało zwracać się do urządzenia. Najważniejszą przepustką do magicznego świata komputerów był „Bajtek”, którego pierwszy numer pojawił się w kioskach Ruchu w 1985 r. Nie tylko niezwykle barwnie opowiadał o komputerach i ludziach, ale sprawnie odpowiadał na listy (publikując pełne dane osobowe z adresem korespondenta) i uczył złożonej sztuki pisania pierwszych programów w BASIC-u – prostym języku programowania, który rozumiała większość 8-bitowych komputerów. Wraz z „Komputerem”, „Mikroklanem” i dodatkiem do „Żołnierza Wolności” zatytułowanym „IKS” (Informatyka, Komputery, Systemy) „Bajtek” ukształtował nowe pokolenie młodzieży. Tej, która domagała się wiedzy o komputerach nawet wtedy, gdy wiedza ta jeszcze przez kilka lat miała nie wyjść poza teoretyczne rozważania lub miała szanse na wykorzystanie w praktyce głównie we wspomnianych klubach komputerowych.
Wkrótce polska prasa komputerowa wyspecjalizowała się: na początku lat 90. swoje miesięczniki w kioskach mogli kupić gracze („Top Secret”, „Secret Service”), użytkownicy komputerów firmy Commodore („Amiga Magazyn”, „Commodore & Amiga”) oraz Atari („Moje Atari”, „Atari Magazyn”). Czytelników przybywało i z czasem nakłady miesięczników mieściły się w przedziale od 50 do nawet 100 tys. egzemplarzy.
Kluczem do popularności i fascynacji komputerami były gry. To one sprawiły, że młodzi prekursorzy nowego hobby zamienili piłkę nożną na dżojstik, a bieżnię na Decathlona, czyli biegi na ekranie komputera, realizowane poprzez błyskawiczne i mordercze dla kontrolera wyginanie go w różne strony. Wczesne, 8-bitowe maszyny stały się oznaką statusu społecznego i centrum życia społecznego dla tzw. nerdów. Zamiast szczycić się osiągnięciami sportowymi, dzieciaki walczyły o najlepsze wyniki w grach zręcznościowych i strzelaninach. Zjadały kropki w Pac-Manie i ratowały ukochaną hydraulika porwaną przez Donkeya Konga. Przed wszystkimi chętnymi otworzyły się tysiące światów pełnych przygód, często zastępując wirtualną rozrywką książki. Jednak w przypadku wielu gier z lat 80. należało użyć wyobraźni, żeby uzupełnić niedostatki w grafice (320×200 pikseli), kolorach (8 albo 16) czy dźwięku (buczy, piszczy, szumi…). Gry były łatwo dostępne za niewielką opłatą na giełdach komputerowych. Zapisane były na taśmach, nieco później zastąpionych przez elastyczne dyskietki 5,25-calowe, które wyparły ich mniejsze siostry: zamknięte w sztywnej obudowie dyskietki 3,5-calowe. Eldorado trwało do 1994 r., kiedy to aktualizacja ustawy o prawie autorskim zablokowała swobodny przepływ oprogramowania i gier przez giełdy komputerowe.
Niekiedy zafascynowane nową zabawą dzieciaki podejmowały jeszcze jedno wyzwanie: w ich głowach rodził się plan napisania własnej gry. Często te ambitne plany były weryfikowane przez wyboistą rzeczywistość: przeszkodą okazywały się albo umiejętności, albo brak czasu, albo brak możliwości zarobienia na wysiłku włożonym w opracowanie programu. Umiejętności Polakom jednak nie brakowało, co dostrzegł Lucjan Wencel, założyciel PZ Karen – firmy, która postawiła na tworzenie gier na… rynek zachodni. To właśnie w warszawskim Karenie pod szyldem California Dreams powstały do dziś dobrze pamiętane tytuły: Blockout (trójwymiarowa wersja Tetris), wyścigi Tunnels of Armageddon oraz połączenie strategii ekonomicznej z wyścigami – Street Rod.
Historia rozwoju Internetu – kroki milowe w Polsce i na świecie
1968 – Powstają założenia ARPANET-u (prekursora Internetu).
1969 – Pierwsze węzły ARPANET-u.
1973 – 30 instytucji podłączonych do ARPANET-u, powstaje Cyfronet w Krakowie.
1975 – ARPANET ma 61 węzłów, Cyfronet kupuje superkomputer CDC CYBER 72.
1983 – TCP/IP, DNS, ARPANET porzucony na rzecz Internetu, instytucje i uczelnie zaczynają korzystać z sieci.
1984 – William Gibson tworzy pojęcie „cyberprzestrzeń”, w DNS-ie powstają główne nazwy domenowe: .gov, .mil, .edu, .org, .net, .com.
1985 – 2000 hostów podłączonych do Internetu.
1987 – 30 tys. hostów podłączonych do Internetu.
1988 – Powstaje protokół komunikacyjny i system rozmów internetowych IRC.
1989 – 160 tys. hostów podłączonych do Internetu.
1990 – 300 tys. hostów podłączonych do Internetu. Tim Berners-Lee tworzy podstawy HTML i pierwszą stronę WWW – http://info.cern.ch/hypertext/WWW/TheProject.html. Polska staje się członkiem EARN, zostaje przyłączona do BITNET-u. Powstaje domena .pl.
1991 – 600 tys. hostów podłączonych do Internetu (100 państw). Zniesiony zostaje zakaz używania sieci do celów komercyjnych. Powstaje NASK, a z Polski w świat idzie pierwszy e-mail.
1992 – Ponad 1 mln komputerów podłączonych do Internetu. TP SA udostępnia POLPAK: 200 tys. starych zł/miesiąc + 300 zł za minutę + 5 zł za 64 B.
1993 – Powstaje pierwsza graficzna przeglądarka WWW – NCSA Mosaic. Rusza serwis z oprogramowaniem Tucows. Startuje pierwszy serwer IRC w Polsce, a notowania warszawskiej giełdy stają się dostępne w Internecie. Pierwszy serwer WWW w Polsce to www.fuw.edu.pl.
1994 – Powstaje portal Yahoo! oraz BBS Maloka na II poziomie podziemi hotelu Marriott w Warszawie (założony przez Stanisława Tymińskiego), połączony z Internetem za pomocą łącza 9600 kb/s. Zaczynają działać pierwsze polskie grupy na Usenecie, a pierwszym polskim premierem, który ma e-mail, jest Waldemar Pawlak. Na rynek trafia pierwsza komercyjna przeglądarka WWW – Nestcape.
1995 – Urodziny przeglądarki Internet Explorer, serwisu aukcyjnego eBay oraz wyszukiwarki AltaVista. W Polsce powstaje: Publiczny Dostęp do Internetu w Łodzi – cena 385 tys. starych zł miesięcznie, pierwsza strona WWW instytucji kulturalnej – Centrum Sztuki Współczesnej w Warszawie. Powstaje też Polbox (dostawca usług). Wydarzeniem staje się zamieszanie wokół propozycji wysokich opłat za ruch zaproponowanych przez NASK, włamanie na serwer NASK i podmiana strony WWW przez „Gumisia”.
1996 – Internauci mogą już korzystać z komunikatora ICQ oraz przeglądarki Opera. WOŚP przeprowadza transmisję multicastingową, a TP SA umożliwia anonimowy dostęp do sieci przez modemy. Powstaje free.polbox.pl – serwis darmowych kont e-mail.
1997 – Powstaje pierwsza gra MMO: Ultima Online. W Polsce pojawiają się darmowe strony WWW we free.polbox.pl. Środowisko IT żyje pozwem przeciwko NASK za praktyki monopolistyczne wniesionym przez ATM, Internet Technologies i SM-Media. Dochodzi do włamania do SunSITE z próbą podmiany poleceń SSH i mirror.
1998 – Powstaje Google. Serwis Internet Archive zaczyna gromadzić archiwalne wersje stron WWW. W Polsce odbywa się… strajk internautów z wnioskiem o zmianę cen TP SA. Głośne staje się włamanie przez SSH na www.tpsa.pl i zmiana zawartości strony.
2000 – Indeks Google’a ma ponad 1 mld elementów.
2004 – Powstaje Firefox, komunikator Skype oraz Facebook. Indeks Google’a ma ponad 6 mld elementów.
2005 – Rusza serwis YouTube.
Na początku lat 90. Polacy rozpoczynali kolejną przygodę z tworzeniem gier, odkrywając zupełnie nowe możliwości, jakie oferowały 16- i 32-bitowe modele Amig, Atari oraz szybko rozwijających się klonów komputerów PC. W opowieść o komputerach i programach powoli zaczął wkradać się Internet. W 1993 r. powstał pierwszy polski serwer WWW, pod adresem www.fuw.edu.pl. Dwa lata później Polbox zaoferował dostęp do Internetu wszystkim zainteresowanym, co zbiegło się z powstaniem Internet Explorera, serwisu aukcyjnego ebay.com i wyszukiwarki AltaVista.
Dostępu do wirtualnej sieci wciąż jednak broniły ceny: łódzkie PDI (Publiczny dostęp do Internetu) żądało w 1995 r. 385 tys. starych złotych miesięcznie. Jednak infostrada otwierała się coraz szybciej przed żądnymi wiedzy i usług internautami. Już w 1995 r. „Magazyn Internet” radził, jak łączyć się z globalną siecią, i podpowiadał, jakie serwisy WWW warto odwiedzać. Rok później Polbox zaproponował klientom dostęp do skrzynek pocztowych – za darmo! To wywołało wręcz lawinę bezpłatnych usług online. Już w 1997 – rok przed pojawieniem się Google’a – mogliśmy bez dodatkowych opłat stać się posiadaczami własnej strony WWW. W tym samym, burzliwym dla polskiego Internetu roku (strajk internautów związany z cenami usług w TP SA oraz włamanie na serwer www.tpsa.pl) uznano, że czas już zacząć archiwizować błyskawicznie zmieniające się strony WWW. W efekcie powstało sieciowe archiwum www.archive.org. Niedługo później, bo na przełomie wieków, indeks stron WWW Google’a składał się już z jednego miliarda elementów. Cztery lata później urósł do sześciu miliardów elementów. Rok 2004 dał nowe oblicze sieci: pojawił się Facebook, Firefox i Skype. Dwanaście miesięcy później mogliśmy już oglądać filmy na YouTubie.
Już w 1987 r. mieliśmy na rynku świetny produkt antywirusowy – mks_vir Marka Sella. W kolejnym roku powstała pierwsza wersja odtwarzacza filmów, który już na starcie zyskał popularność dzięki wbudowanej opcji „Inteligentne napisy”, wydłużającej czas wyświetlania napisów do filmów. To ALLPlayer, dzieło Artura Majtczaka, cieszące się popularnością do dziś (7 mln unikalnych użytkowników, 90 proc. w Polsce). Kilkanaście lat poświęconych na rozwój odtwarzacza sprawiło, że dziś możemy sterować tym narzędziem za pomocą aplikacji uruchomionej na smartfonie z Androidem.
Pierwszymi testerami ALLPlayera byli znajomi Artura Majtczaka. Okazało się, że na coś takiego czekali, co zachęciło autora do szerszej publikacji odtwarzacza w Internecie i czasopismach komputerowych. Momentalnie liczba użytkowników wzrosła z kilkuset do kilkuset tysięcy. Innowacje były kluczowe dla rozwoju narzędzia, które z czasem dawało możliwość użycia lektora czytającego napisy, a następnie pobierania dopasowanych napisów w dowolnym języku. Głosu wspomnianemu lektorowi użyczyła Ivona, rozwijany w Gdańsku syntezator mowy. Okazał się tak dobrym rozwiązaniem, że w styczniu 2013 r. Ivonę kupił… Amazon.com. Teraz czekamy na czytniki Kindle mówiące po polsku.
Przełom lat 80. i 90., kiedy zachwyciliśmy się pierwszymi komputerami, grami, a później Internetem, był czasem pojedynków dystrybutorów gier. Firmy Mirage Tomasza Mazura, LK Avalon Tomasza Pazdana i Mirosława Liminowicza, MarkSoft Marka Niesiołowskiego oraz IPS ComputerGroup Grzegorza Onichimowskiego otworzyły świat legalnej dystrybucji gier, programów użytkowych i edukacyjnych. Boom na polskie tytuły nadchodził: twórcy gier na małe Atari, Commodore 64 i Amigę sami oferowali swoje dzieła wydawcom. A ci ostatni płacili za produkty, pakowali je w schludne kartonowe bądź plastikowe opakowania i wbrew fali piractwa komputerowego sprzedawali na trudnym rynku. Dziś „Dead Island” Techlandu i „Wiedźmin” CD Projektu to gry, w które bawi się cały świat. Niewielki zespół 11 Bit Studios zdobywa serca graczy serią Anomaly. A przecież to tylko trzy studia, spośród ponad 200 zespołów tworzących obecnie gry w Polsce.
Artykuł Na początku były kluby pochodzi z serwisu CRN.
]]>Artykuł Profesjonalne wsparcie jest w naszym DNA pochodzi z serwisu CRN.
]]>Adam
Zwierzyński Tak, na początku – jeszcze pod marką Initel-Serwis
– zajmowaliśmy się profesjonalnym serwisowaniem zaawansowanego sprzętu IT,
przede wszystkim serwerów czy pamięci masowych. Mieliśmy wielu prestiżowych
klientów, w tym kilka placówek dyplomatycznych. Pracowałem wówczas
w Niemczech u dystrybutora Fujitsu i dostarczałem do Alstor
m.in. twarde dyski SCSI. Polski rynek bardzo chłonął takie rozwiązania, marże
wciąż były wysokie, co skłoniło mnie do zainwestowania w Alstor
i zostania udziałowcem tej firmy. Dzięki moim staraniom
w 1992 r. została podpisana pierwsza umowa dystrybucyjna
z Fujitsu dotycząca drukarek, dysków twardych, napędów magnetooptycznych
i skanerów. Później każdy rok przynosił nowe kontrakty dystrybucyjne.
Istotne jest jednak to, że nie zarzuciliśmy działalności serwisowej. Wciąż jest
to bardzo ważny dział w naszej firmie – realizujemy naprawy
gwarancyjne i pogwarancyjne, nadal mamy prestiżowych klientów
i często napraw dokonujemy w ich siedzibie.
CRN Czy, oprócz przekształcenia firmy w dystrybutora,
można było zauważyć jakieś przełomowe momenty?
Adam
Zwierzyński Około 2000 r.
zauważyliśmy, że polskim rynkiem rozwiązań dla przedsiębiorstw zainteresowali
się najwięksi, globalni producenci IT. Wszystkie ważne marki świata zaczęły
otwierać tu swoje biura i zatrudniać własne siły sprzedażowe, wsparcie
techniczne, serwis itd. Nagle okazało się, że rola dystrybutora została przez
nich spłaszczona (tylko do logistyki), bowiem śmietankę z całej transakcji
spijał producent. Taki model działania był niezgodny z naszą filozofią
i wtedy zrezygnowaliśmy z paru kontraktów dystrybucyjnych. Do dzisiaj
specjalizujemy się w dystrybucji rozwiązań firm, które nie mają polskiego
oddziału, i to my pełnimy jego rolę – zapewniamy wsparcie, serwis,
marketing, szkolenia dla resellerów itd. Stanowimy typowy przykład dystrybutora
z wartością dodaną i całkowite przeciwieństwo broadlinerów.
CRN
Wygląda na to, że coraz bardziej specjalizujecie się w określonych dziedzinach?
Adam Zwierzyński Naszą ideą jest tworzenie wewnątrz firmy tzw. centrów kompetencji
w danej dziedzinie – tak stało się na przykład w przypadku
rozwiązań dla medycyny. Zaczęliśmy od sprzedaży monitorów medycznych EIZO
RadiForce, z roku na rok rozszerzaliśmy portfolio o kolejne produkty,
które stanowiły uzupełnienie oferty, wzbogacaliśmy swoją wiedzę
i doświadczenie, aż wreszcie doprowadziliśmy do powstania dedykowanego
działu medycznego. Obecnie sprzedajemy serwery i stacje medyczne HP, czego
nie mieliśmy w planach, a co stało się faktem dzięki rozwojowi oferty
medycznej. Podobnie było w przypadku linii produktów do serwerowni
– rozpoczęliśmy od rozwiązań do zdalnego zarządzania serwerownią firmy
Avocent, a obecnie mamy ofercie szereg powiązanych rozwiązań: począwszy od
zasilania czy chłodzenia, a skończywszy na oprogramowaniu do
inwentaryzacji.
CRN Globalny
i polski rynek IT bardzo szybko się zmienia. Obecnie w domu mamy
urządzenia, o których 10 lat temu można było tylko pomarzyć. Jak ta
sytuacja wpływa na prowadzenie biznesu związanego z dystrybucją rozwiązań
IT?
Adam Zwierzyński Rzeczywiście, jeszcze w XIX w. ludzie doświadczali jednej, może
dwóch dużych zmian w całym swoim życiu. Przez ostatnie dziesięciolecia
duże zmiany następowały co dekadę, ale analitycy twierdzą, że jeszcze przed
2100 r. takie zmiany będą następowały co rok i trzeba się po prostu
do tego przyzwyczaić. Sukces odniesie nie tylko ten, kto będzie miał otwarte
oczy i zauważy potrzebę rynkową wcześniej niż inni, ale przede wszystkim
ten, kto zdecyduje się na podjęcie ryzyka. Takie ryzyko podjęliśmy
w 2003 r., zajmując się drugorzędną z punktu widzenia naszego
ówczesnego profilu i zupełnie nieznaną na polskim rynku marką EIZO. Dzięki
naszym staraniom jest to obecnie marka numer jeden na rynku profesjonalnej
fotografii, grafiki i poligrafii w Polsce. Wszyscy nasi pracownicy
uważnie obserwują zachodnie rynki i staramy się jak najszybciej sprowadzać
do nas to, co tam staje się popularne. W ten sposób powstał dział
akcesoriów do telefonów komórkowych, który na pierwszy rzut oka nie pasował do
naszego portfolio, ale obecnie jest najszybciej rosnącym zespołem.
Artykuł powstał we
współpracy z firmą Alstor.
Artykuł Profesjonalne wsparcie jest w naszym DNA pochodzi z serwisu CRN.
]]>Artykuł Od Jaguara do Xboksa pochodzi z serwisu CRN.
]]>Tomasz
Mazur Rzeczywiście w pierwszych latach naszej działalności, pod
koniec lat 80. byliśmy mocno związani z Atari. Zresztą pierwsza nazwa
firmy to Studio Komputerowe AS (Atari Studio). Potem, kiedy zaczęliśmy wydawać
gry, zmieniliśmy nazwę na naszym zdaniem bardziej medialny Mirage. Związki
z Atari i chęć wprowadzania na rynek nowości zaowocowały
zainteresowaniem nowym dzieckiem tej firmy, Jaguarem. Myślę, że jak na tamte
czasy to był spektakularny ruch – niewielkie polskie przedsiębiorstwo
stało się partnerem wielkiego amerykańskiego koncernu. Nie mówiąc o tym,
że konsola pojawiła się oficjalnie w Polsce właściwie równo
z europejską premierą, co nawet dzisiaj niektórym potentatom się nie
udaje.
CRN Czy nie był to jednak
falstart pod względem zapotrzebowania na tego typu produkty?
Tomasz
Mazur Zanim odpowiemy sobie na to pytanie, trzeba spojrzeć na
Jaguara bardziej globalnie. To oczywiście temat rzeka, ale krótko rzecz
ujmując… chyba Atari nie było gotowe na Jaguara. W efekcie genialna
technicznie, jak na ówczesne czasy, konsola nie odniosła sukcesu. Myślę, że złożyło
się na to wiele rzeczy, ale najważniejszą był brak wystarczającego wsparcia
firm zewnętrznych produkujących gry oraz kilka innych błędów popełnionych przez
Atari.
CRN Może polskich graczy
nie było po prostu stać na taki luksus?
Tomasz
Mazur Myślę, że nasz rynek był gotowy na konsolę, przecież były
obecne inne – mniej doskonałe. Natomiast brak sukcesu w Polsce to
oczywiście konsekwencja braku tego sukcesu globalnie, ale także braku
jakiegokolwiek zorganizowanego systemu sprzedaży detalicznej czy kulejących możliwości
promocyjnych (nie było np. Internetu). Ze względu na cykl wydawniczy prasy
drukowanej informacje mogły dotrzeć do odbiorców najwcześniej po dwóch
miesiącach od ich przekazania. O promocji w sieciach handlowych,
których nie było, w ogóle nie ma co mówić.
CRN To prawda, cały rynek
gier był wtedy w innym miejscu…
Tomasz
Mazur To nie była rozrywka masowa, za to bardzo pożądana. Przy czym,
o ile łatwo było znaleźć chętnych na wszystko co niedrogie – patrz
sukces osławionego Pegasusa, 8-bitowej konsoli do gier (taniego, chińskiego
klona konsoli Nintendo) – o tyle klienci niechętnie wydawali większe
pieniądze na coś, co nie było postrzegane tak jak dzisiaj, ale raczej jako
zabawka dla dzieci. Niemniej Jaguar w Polsce nie był porażką, choć trudno
też mówić o wielkim sukcesie. Był oczywiście urządzeniem niezwykle
podziwianym i pożądanym. Na pewno bardziej niż dzisiejsze PS4 czy Xbox
One.
CRN Obecnie zataczamy
koło, jeśli chodzi o metody tworzenia gier. Zaczęli się liczyć niezależni
twórcy gier, którzy w Polsce już odcisnęli swoje piętno na przełomie lat
80. oraz 90., zresztą przy niemałym udziale Mirage’a. Jakie były pierwsze
wydane przez Mirage polskie gry?
Tomasz Mazur Wspomniana
wcześniej historia nazwy Mirage wiąże się właśnie z pierwszymi wydanymi
grami – Battleships i Ortografia. Twórcą wspomnianych gier był Arek
Łukszo, wielki miłośnik modelarstwa, lotnictwa i między innymi projektu
samolotu Mirage. To za jego sprawą podczas burzy mózgów pojawiła się właśnie
taka nazwa dla naszej firmy. Pierwsze gry może nie były bardzo odkrywcze, ale
za to spełniały marzenia dotyczące tego, do czego mogłyby być przydatne
komputery – nowy hit świata techniki. To było przeniesienie znanej
rozrywki na ekran monitora i oczywiście rozwinięcie hasła: „komputer bawi
i uczy”. Gry były naprawdę dobrze zrobione, więc znalazły uznanie
odbiorców.
CRN Teraz wiele gier to
produkcje na miarę hollywoodzkich hitów. Jak było kiedyś?
Tomasz
Mazur W latach 80. oraz 90. gry były tworzone przez małe
zespoły. Nie było żadnego uzasadnienia ich rozbudowywania. I chociaż nie
były to tak wielkie inwestycje jak dzisiaj, zastanawialiśmy się nad wydaniem
każdej gry – czy w ogóle, a jeśli tak, to w jakiej postaci
ją wydać. Tym bardziej że trafiały do nas zwykle projekty w fazie
przedprodukcyjnej lub produkcyjnej. Często to były tylko pomysły
z pierwszymi szkicami. Bywało też tak, że tworzyliśmy zespoły na potrzeby
projektu, kontaktując i koordynując prace programisty, grafików, muzyka
itp. Były też oczywiście projekty, z których rezygnowaliśmy, bo na przykład
nie wnosiły nic nowego, a już mieliśmy kilka podobnych gier. Natomiast nie
pamiętam sytuacji, żebyśmy zrezygnowali z wydania gotowej gry, która do
nas trafiła. Przy czym takich było niewiele.
CRN Teraz kilka polskich
gier to światowe hity. Czy mieliście kiedyś w ofercie takie potencjalne
przeboje?
Tomasz
Mazur Nie pamiętam wszystkich gier, ale na pewno zostały mi
w pamięci dwie, które wyróżniały się na tle tego, co wtedy było wydawane.
Pierwsza z nich to „Mózgprocesor” – genialna tekstowa gra przygodowa,
która na pewno mogłaby konkurować z najlepszymi ówczesnymi produkcjami,
ale niestety nie dostała takiej szansy, bo była tylko po polsku. Natomiast
wydana później „Operation Blood” doczekała się premiery poza Polską
i zbierała bardzo dobre recenzje. Została wielokrotnie uznana za jedną
z najlepszych technicznie gier na Atari. Zresztą jednym z jej autorów
był Paweł Kalinowski, który potem przez wiele lat wspólnie ze mną
i z innymi budował wartość Mirage. Do dzisiaj jest rozpoznawalny
w środowisku Atari.
Artykuł Od Jaguara do Xboksa pochodzi z serwisu CRN.
]]>Artykuł Z odpowiednią usługą w odpowiednim czasie i miejscu pochodzi z serwisu CRN.
]]>Dariusz
Wichniewicz Tak, od prawie 15 lat oferujemy usługi oparte na
centrach danych. Stale rozbudowujemy posiadaną infrastrukturę telekomunikacyjną
oraz powierzchnię kolokacyjną, wraz ze wzrostem zapotrzebowania na takie usługi
wśród naszych klientów. Widzimy, w jaki sposób, korzystając z naszych
rozwiązań, rozwijają się portale informacyjne, banki internetowe i inne
serwisy działające w Internecie.
CRN Na rynku serwerowych
centrów danych odnieśliście już niejeden sukces. Twierdzi pan, że oprócz
profesjonalnego zarządzania firmą i nadawania kierunku jej rozwojowi
w oparciu o realne przesłanki ważne jest także wpisanie się
w trendy rynkowe…
Dariusz
Wichniewicz W momencie kiedy zbudowaliśmy pierwszą większą
serwerownię, przetestowaliśmy realny cykl inwestycyjny i nauczyliśmy się
oddawać klientom usługi oparte na centrum danych w odpowiednim tempie oraz
dostosowywać dalsze inwestycje do przewidywanego wzrostu sprzedaży. W tym
czasie okazało się również, że istnieje duże, wręcz nieoczekiwane
zainteresowanie usługami centrów danych ze strony firm z sektora
finansowego. To pozwoliło nam na szybszy, niż zakładaliśmy, wzrost sprzedaży.
W ciągu półtora roku podpisaliśmy umowy z około dwudziestoma tego
typu firmami, co jest ewenementem zarówno ze względu na liczbę klientów, jak
i na szybkość podejmowania przez nich decyzji.
CRN Jakie czynniki sprawiają, że rynek centrów danych
dobrze się rozwija?
Dariusz
Wichniewicz Cloud computing to jeden z głównych czynników,
który będzie motorem napędowym rozwoju centrów danych. Ulokowanie chmury
w odpowiednio przygotowanym obiekcie kolokacyjnym to podstawa sukcesu.
Sprawdzony w tym zakresie partner gwarantuje klientom końcowym stabilność
działania i umożliwia skupienie się na biznesie. Resellerowi ułatwia pracę
– może on administrować wszystkimi usługami ulokowanymi w jednym,
przygotowanym do tego miejscu, co jest zresztą zgodne z trendem
przenoszenia infrastruktury IT do operatorów zewnętrznych. Wzrasta bowiem
świadomość użytkowników dotycząca zagrożeń, jakie niesie za sobą lokowanie serwerów
w siedzibie firmy (zwykle w nieprzystosowanych do tego
pomieszczeniach biurowych), a także chęć właściwego wykorzystania rozwoju
IT, w tym niezawodności dostępu do Internetu.
CRN Są usługi, które
zdają się cieszyć rosnącą popularnością, a ATM decyduje się wprowadzić je
dopiero teraz…
Dariusz
Wichniewicz Wielką wagę przykładamy do tego, aby być
w odpowiednim czasie, w odpowiednim miejscu i nie popełnić
falstartu. Na przykład w usługach cloud computingu – stale
monitorujemy zapytania, jakie przychodzą do firmy. Liczba pytań o różne
nowe rozwiązania i potencjał sprzedażowy w chmurze prywatnej okazały
się na tyle duże, że zdecydowaliśmy się wprowadzić do oferty tę usługę.
Podobnie sytuacja wyglądała dwa lata temu w przypadku serwerów dedykowanych.
Warto dodać, że wśród klientów ATM jest wiele firm, które oferują własne usługi
chmurowe zbudowane w oparciu o infrastrukturę naszych centrów danych,
co z dumą wspieramy.
CRN Wspomniał pan o chmurze prywatnej, którą od
niedawna oferujecie. Jakim cieszy się zainteresowaniem?
Dariusz
Wichniewicz Biorąc pod uwagę informacje zebrane od obecnych
klientów, to typ chmury, który znajduje się w ich kręgu zainteresowania.
Systemy informatyczne poszczególnych użytkowników są bardzo zróżnicowane.
Trudno dziś wskazać takie, które można by nazwać „standardowymi”. Zaufanie,
które zyskaliśmy przy świadczeniu usług centrum danych, procentuje obecnie przy
planowaniu rozbudowy lub modernizacji serwerów. Duże zainteresowanie chmurą
prywatną to również efekt naszej elastyczności w procesie tworzenia
dedykowanych rozwiązań oraz profesjonalnego doradztwa.
CRN Dużo powiedzieliśmy
o centrach danych. Ale istotną częścią waszej oferty są też światłowody…
Dariusz
Wichniewicz O ile kiedyś światłowody były kluczowe
w świadczeniu usług dostępowych do Internetu przez dużych i bardzo
dużych operatorów, o tyle obecnie są bardzo ważne jako łącza między
głównym centrum danych, np. w banku, a centrum zapasowym.
CRN Czy mogę w takim razie wykupić w ATM
dostęp do Internetu?
Dariusz Wichniewicz Jako operator telekomunikacyjny świadczymy firmom usługi dostępu do
Internetu, ale jesteśmy także operatorem budynkowym, oferującym kompleksowy
outsourcing usług telekomunikacyjnych (telefonia VoIP, obsługa centrali
telefonicznej itp.). Innym istotnym aspektem jest dostarczanie łączy lokalnym
ISP, na bazie których prowadzą swój biznes.
CRN Wracając do tematu
centrów danych, czy możemy powiedzieć kilka słów o waszym Centrum Danych
Thinx Poland? Na czym polega jego neutralność?
Dariusz
Wichniewicz Operatorzy telekomunikacyjni mogą bezpłatnie wprowadzić
swoje łącza na teren centrum danych. Mają również automatyczną zgodę na
świadczenie usług skierowanych do kolokowanych na terenie obiektu klientów.
Jeśli ktoś doprowadzi kable do Centrum Danych Thinx Poland, to ma prawo zestawiania
łączników pomiędzy swoimi szafami a szafami innych klientów obecnych
w Thinx Poland, co umożliwia świadczenie dowolnych usług w tym
obiekcie, takich jak dostęp do Internetu, łącza do sieci krajowej czy
uruchamianie swoich własnych chmur. Wiele firm korzystających z naszego
centrum tak robi, np. umieszcza własne serwery i na ich bazie oferuje
różnego rodzaju usługi PaaS czy SaaS. Na terenie CD Thinx Poland obowiązuje
wspólny dla wszystkich cennik lokalnych zasobów (przede wszystkim łączników,
energii elektrycznej itd.), dzięki czemu zapewniamy w 100 proc.
konkurencyjne środowisko biznesowe i techniczne.
CRN Z jakim problemem musieliście sobie poradzić,
skupiając się na działalności z zakresu centrów danych?
Dariusz
Wichniewicz Bardzo ważnym aspektem jest edukacja. Jako lider rynku
staramy się na różne sposoby przekonywać, że właściwym miejscem do lokowania
zasobów IT są miejsca projektowane i wykonane w tym właśnie celu.
Widzimy również duży potencjał wśród naszych resellerów, którzy docierając do
swoich klientów, mogą przekonywać ich do stosowania dobrych praktyk
w zakresie przechowywania i przetwarzania danych.
Artykuł powstał we
współpracy z firmą ATM.
Artykuł Z odpowiednią usługą w odpowiednim czasie i miejscu pochodzi z serwisu CRN.
]]>Artykuł Dyskretny zapach lutownicy pochodzi z serwisu CRN.
]]>Gdy 25 lat temu ktoś
mówił „znam się na komputerach”, prawdopodobnie był pasjonatem, który dokładnie
wiedział, co dzieje się w środku takiej maszyny, znał podstawy
programowania i potrafił posługiwać się lutownicą. Było takich ludzi
stosunkowo niewielu, podobnie jak niewiele było komputerów. To w tamtych
czasach swoje korzenie ma archetyp informatyka-hakera. Osobnika aspołecznego,
nie do końca cywilizowanego, mającego równie wiele wspólnego z wyższą
matematyką co z ruchami anarchistycznymi. Takiego współczesnego
„szalonego naukowca”, buntownika i geniusza zarazem. Żeby zobaczyć, jak
jest dziś, wystarczy rozejrzeć się dookoła. Gdziekolwiek w tej chwili
jesteś, szanowny czytelniku, istnieje duża szansa, że masz wokół siebie kilka,
kilkanaście, a może nawet kilkadziesiąt komputerów. W domu swój
komputer ma często każdy członek rodziny, a dodatkowe maszyny służą na
przykład za centrum multimediów. O tym, ile takich urządzeń otacza nas
w pracy, nawet nie ma co wspominać. Co więcej, wracając do domu, zmieniamy
po prostu miejsce, w którym siedzimy przed ekranem.
A teraz podchwytliwe
pytanie: ilu jest w okolicy ludzi „znających się na komputerach”?
Odpowiedzieć można słowami hobbita Bilbo Bagginsa: „całe mnóstwo, jak na
lekarstwo”. W dzisiejszych czasach, żeby uchodzić za kogoś takiego,
wystarczy wiedzieć, skąd ściągnąć przeglądarkę internetową i jak ustawić
opcje prywatności na Facebooku. Oczywiście takich specjalistów jest całe
mnóstwo. Jeśli do tego potrafimy uruchomić Windows w trybie
awaryjnym, sprawdzić, która aplikacja powoduje problemy przy starcie,
i odinstalować ją albo wymienić cztery cechy różniące dyski SSD od HDD,
zyskujemy etykietkę „komputerowego magika”. Przy okazji zostajemy obarczeni
obowiązkiem pomagania za darmo wszystkim krewnym, znajomym oraz znajomym
krewnych, kiedy „coś im nie działa”.
W porównaniu
z komputerowymi specami sprzed ćwierćwiecza współczesnych „magików” jest
istna armia. Jednak ich umiejętności i wiedza stanowią zaledwie ułamek
tego, co potrafili tamci. Natomiast jak na lekarstwo jest ludzi, dla których
komputery to pasja definiująca całe życie. Takich, którzy potrafią
sami złożyć komputer, czytać schematy płytek drukowanych, samodzielnie
napisać brakujący sterownik. Takich, dla których noc spędzona na stawianiu
systemu operacyjnego na nietypowej konfiguracji komputera
z niestandardowym oprogramowaniem i dodatkowymi modułami, jest
przyjemnością. Nawet jeśli okupioną zmęczeniem. Komputerów jest więc coraz
więcej, ale ludzi prawdziwie się na nich znających – coraz mniej. Jesteśmy
coraz bardziej wygodni, a komputery (podobnie jak samochody) w miarę
dojrzewania technologii stają się coraz bardziej zamkniętą całością,
w której da się wymieniać – co najwyżej – określone moduły. To
dobrze. Dzięki temu sprzętu komputerowego może dziś używać naprawdę każdy. Choć
trochę żal tych dawnych „informatyków”.
Autor jest
redaktorem naczelnym miesięcznika CHIP.
Artykuł Dyskretny zapach lutownicy pochodzi z serwisu CRN.
]]>Artykuł Na początku był pecet pochodzi z serwisu CRN.
]]>Jedno z ciekawszych zastosowań pecetów miało miejsce w sektorze bankowym. Polegało na rejestracji danych, a następnie ich transmisji do ośrodków przetwarzania na serwerach mainframe. Pod koniec lat 80. NBP wykorzystywał do tego celu około 100 pecetów. Było to wielkie usprawnienie, ponieważ dziennie wczytywano tam jakieś… 10 MB danych, co odpowiadało 25 km taśmy dziurkowanej. Dzisiaj rola stacjonarnych PC została praktycznie zredukowana do trochę inteligentniejszych terminali, z którymi to one same rozpoczęły wojnę na początku lat 80. Światowa sprzedaż pecetów od dekady utrzymuje się na stałym poziomie około 150 mln sztuk. W Polsce od 2008 r. liczba ta systematycznie spada na korzyść komputerów przenośnych.
Przełomem w informatyzacji firm było pojawienie się zintegrowanych systemów zarządzania przedsiębiorstwem, a więc ERP-ów (Enterprise Resource Planning). Zalety tych systemów, stosowanych w Europie Zachodniej oraz USA, dostrzeżono również w Polsce. Wiele lokalnych firm informatycznych uznało, że to może być ich szansa na sukces, i zaczęło przygotowywać produkty o funkcjonalności zbliżonej do możliwości systemów międzynarodowych producentów. Jednym z pierwszych dostawców, który oferował tego typu oprogramowanie w Polsce, było Computer Studio Kajkowski. CSK już na początku lat 90. dysponowało całkowicie zlokalizowanym systemem Comet firmy Siemens-Nixdorf. Pakiet ten składał się z kilkunastu modułów funkcjonalnych, obejmujących najważniejsze obszary działania przedsiębiorstwa. W 1994 r., choć wartość sprzedaży tych systemów nie przekraczała 20 mln dol., aż 18 producentów (w tym trzech polskich) sprzedawało różne rozwiązania klasy ERP na naszym rynku. Zintegrowany System Zarządzania firmy Prokom był już wtedy wdrożony w kilku stoczniach, 20 kopalniach oraz zakładach przemysłu zbrojeniowego i spożywczego. Ułatwiał im zarządzanie działem finansowo-księgowym, gospodarką materiałową, sprzedażą oraz sprawami dotyczącymi kadr i płac.
Pomimo sporej liczby produktów firm międzynarodowych oraz lokalnych i intensywnej promocji rozwiązań ERP popyt na nie rozwijał się niezbyt dynamicznie. W 1997 r. wartość sprzedanych w Polsce licencji wynosiła zaledwie ok. 33 mln dol., co stanowiło jakieś 1,8 proc. wartości ówczesnego rynku IT. Głównym powodem tej sytuacji był stosunkowo niski poziom zarządzania przedsiębiorstwami, które dopiero uczyły się optymalizacji procesów biznesowych. Znacznie łatwiej było uporządkować mętne zasady funkcjonowania firm za pomocą różnych wynalazków, czyli rozwiązań odpowiadających aktualnym potrzebom. Zazwyczaj jednak nie poprawiały one trwale jakości zarządzania, za to ułatwiały życie i na jakiś czas rozwiązywały określony problem.
Nie bez znaczenia było również to, że koszty pracy programistów były stosunkowo niskie (przeciętne wynagrodzenie w firmach zatrudniających powyżej 20 osób w 1995 r. wynosiło 908 zł miesięcznie, a w całej gospodarce 720 zł). Z badania IDC przeprowadzonego w 1999 r. w segmencie średnich i dużych przedsiębiorstw wynikało, że tylko 11 proc. badanych firm posiadało wielomodułowe systemy ERP. Z kolei aż 30 proc. wykorzystywało różnego typu aplikacje własnej produkcji. Taka sytuacja nie ułatwiała zadania polskim wytwórcom, więc musieli poszukiwać innych źródeł przychodu, zajmując się integracją lub handlem sprzętem. W kolejnych latach odbiło się to niekorzystnie na ich zdolności do konkurowania z międzynarodowymi dostawcami. Pewnie dlatego niewiele polskich firm, które oferowały systemy zarządzania przedsiębiorstwem na początku lat 90., przetrwało w dobrej kondycji do dziś. Należą do nich na przykład BPSC i Comarch.
Według dzisiejszych kryteriów mobilność to możliwość pracy i rozrywki z dowolnego miejsca. Technologie czynią z nas mobilnych pracowników. To skutkuje znacznym wzrostem wydajności pracy, zwiększa popyt oraz obniża koszty dystrybucji wielu towarów i usług. Szybki postęp w tej dziedzinie jest możliwy dzięki miniaturyzacji urządzeń mobilnych, upowszechnianiu się zdalnego dostępu do Internetu, poprawie przepustowości sieci oraz aplikacjom. Pierwsza sieć mobilnych usług transmisji głosu zaczęła funkcjonować w Polsce w 1992 r. Była to sieć komórkowa Centertel, w której koszt rozmowy telefonicznej wynosił 1,02 zł za minutę, a oferowany wówczas model telefonu ważył 0,8 kg. Posiadanie telefonu komórkowego było wówczas symbolem zamożności, wysokiego statusu społecznego i finansowego sukcesu. W maju 1995 r. liczba abonentów przekroczyła 50 tys. Były to złote czasy dla operatorów komórkowych, gdy roczne przyrosty liczby abonentów wynosiły ponad 100 proc. Tak wielkie zainteresowanie konsumentów utrzymywało się w następnych latach i prowadziło do dużych inwestycji w rozwój infrastruktury telekomunikacyjnej. W 2004 r. operatorzy komórkowi wydali na inwestycje ponad 2 mld zł. Liczba abonentów w sieciach wynosiła wówczas 23 mln i rosła w tempie dwucyfrowym.
Większego tempa rozwoju technologie mobilne nabrały wraz z pojawieniem się transmisji danych za pomocą urządzeń mobilnych. W 2002 r. ich liczba na świecie była porównywalna z liczbą PC i wynosiła około 500 mln. W ciągu dekady wzrosła dziesięciokrotnie, a coraz więcej tych urządzeń zapewniało połączenie z Internetem. W 2013 r. ponad 1,2 mld ludzi na świecie miało dostęp do Internetu za pomocą urządzeń mobilnych, które generują obecnie 15 proc. całego ruchu w Internecie.
Posiadanie urządzenia mobilnego zmienia zachowania i zwyczaje konsumenckie, co stanowi duże wyzwanie i jednocześnie szansę dla działów marketingu. Najbardziej na modyfikację tych zachowań wpływają smartfony, które łączą w sobie niektóre funkcje PC oraz telefonu komórkowego. W zeszłym roku sprzedano prawie miliard wspomnianych urządzeń, a zbyt komputerów przenośnych PC i tabletów łącznie w tym czasie wynosił około 530 milionów. Badanie nowych zachowań konsumenckich stało się podstawą marketingu mobilnego. Powszechne wykorzystywanie sprzętu przenośnego oznacza również, że te same urządzenia są używane jednocześnie do celów służbowych i prywatnych. Zjawisko określane jako BYOD (Bring Your Own Device) jest koszmarem administratorów sieci korporacyjnych i twardym orzechem do zgryzienia dla badaczy produktywności.
W świecie mobilnym dokonuje się nieustanny postęp i człowiek powoli traci ważną rolę wyłącznego operatora urządzenia. Możliwość podłączenia różnych urządzeń mobilnych do sieci sprawia, że da się je wykorzystywać również do komunikacji pomiędzy nimi samymi, bez udziału człowieka. To stwarza nieznane dotąd możliwości rozwoju nowych usług i modeli biznesowych. Według najnowszego raportu IDC światowy rynek Internet of Things (IoT) jest szacowany na około 5 bln dol. Wielu analityków nie ma wątpliwości, że to właśnie w ramach IoT pojawią się przełomowe technologie oferowane przez start-upy, które szybko urosną, osiągając rozmiary dzisiejszych gigantów technologicznych. W Polsce, gdzie rynek IoT również powoli zaczyna się rozwijać, ukazał się już pionierski raport IDC na ten temat, w którym roczna wartość przychodów szacowana jest na razie na ponad 200 mln dol.
Czy wiesz, że…
– Kiedyś koszty pracy programistów były stosunkowo niskie: przeciętne wynagrodzenie w przedsiębiorstwach zatrudniających powyżej 20 osób w 1995 r. wynosiło 908 zł miesięcznie, a w całej gospodarce 720 zł.
– W 1990 r. sprzedano w Polsce ok. 50 tys. komputerów PC za kwotę ponad 70 mln dol., głównie klonów IBM PC, zwanych też żółtymi klonami, importowanych przez lokalne firmy z Singapuru i Tajwanu.
– Pierwsza sieć mobilnych usług transmisji głosu ruszyła w Polsce w 1992 r. Była to sieć komórkowa Centertel, w której koszt rozmowy telefonicznej wynosił 1,02 zł za minutę, oferowany wówczas model telefonu ważył 0,8 kg.
– Obecnie w branży IT, według najnowszego raportu GUS „Społeczeństwo informacyjne w Polsce”, zatrudnionych jest ok. 140 tys. pracowników w 1460 przedsiębiorstwach (zatrudniających pow. 10 osób).
– Według danych IDC w 2013 r. globalne przychody na rynku centrów usług wynosiły około 168 mld dol. Na Polskę przypadło ok. 0,6 proc. tej kwoty, czyli mniej niż udział polskiego PKB w światowym dochodzie oraz mniej niż udział polskiego rynku IT w globalnym.
– Pod względem nakładów IT na głowę mieszkańca Polska zajmuje piątą pozycję (270 dol.) wśród krajów Europy Środkowo-Wschodniej. Do średniej UE brakuje nam prawie drugie tyle.
Pisząc o ważnych zjawiskach w historii polskiego rynku IT, nie sposób pominąć „delokalizacji usług” (offshore outsourcing). Choć różne marki europejskie (British Airways) i amerykańskie (General Electric) lokowały centra usługowe poza swoimi krajami już w latach 80., taki model biznesowy narodził się pod koniec lat 90. Wtedy to pracownicy londyńskiego oddziału Goldman Sachs założyli w Indiach spółkę Office Tiger, zatrudnili tamtejszych specjalistów i zaoferowali ich usługi zachodnim bankom. Ze względu na olbrzymie różnice w kosztach pracy biznes szybko się rozwijał i generował wysokie zyski. Wkrótce w ich ślady poszły setki firm, eksportując etaty do Azji, Europy Wschodniej czy Afryki Północnej.
Polska znalazła się na liście atrakcyjnych lokalizacji centrów usługowych jako jeden z pierwszych krajów naszego regionu. Według danych udostępnianych przez Związek Liderów Sektora Usług Biznesowych (ABSL) pod koniec 2004 r. działało w Polsce 96 centrów BPO/SSC. Z kolei pod koniec 2012 r. 400 centrów usługowych w naszym kraju zatrudniało już ponad 110 tys. osób. Dwucyfrowe tempo przyrostu zatrudnienia w takich ośrodkach utrzymuje się już od kilku lat. Choć Polska niewątpliwie odniosła sukces, pozyskując ważnych inwestorów, którzy tworzą u nas centra usług BPO, na światowej mapie wciąż nie jesteśmy mocarstwem. Według danych IDC w 2013 r. globalne przychody na rynku BPO wynosiły ok. 168 mld dol. Na Polskę przypadło ok. 0,6 proc. tej kwoty, czyli mniej niż udział polskiego PKB w światowym dochodzie oraz mniej niż udział polskiego rynku IT w globalnym.
Dla przykładu w Indiach w sektorze BPO, który walczy o zmianę wizerunku ze względu na globalną konkurencję i prezentuje swoją ofertę jako Business Proces Management, pracuje 1,1 mln osób. Sektor BPO generuje tam 21 mld dol. przychodów, a według prognoz (NASSCOM) do 2020 r. może osiągnąć nawet 50 mld dol. przy zatrudnieniu 1,8 mln pracowników.
W miarę rozwoju usług BPO pojawia się w Polsce coraz więcej głosów krytycznych. Zwraca się uwagę, że centra oferują niskiej jakości pracę i łatwo je zlikwidować, jeśli pojawią się lepsze lokalizacje, w których koszty zatrudnienia są niższe. Prawda wydaje się jednak bardziej złożona. W ramach BPO są oczywiście świadczone proste usługi, które nie wymagają wysokich kwalifikacji, takie jak prosta obsługa księgowa, HR, podstawowe wsparcie klienta. Ale na liście usług BPO pojawia się coraz więcej tych bardziej złożonych, wymagających zaawansowanego wsparcia technologii informatycznych. Dobrym przykładem jest analityka biznesowa, która dzisiaj staje się podstawowym obszarem konkurowania dla dostawców usług BPO. Nowe wyzwania dla właścicieli tego typu centrów to nie tylko analityka. Firmy, które korzystają z usług BPO, oczekują optymalizacji i szybszego przebiegu procesów, zarządzania ryzykiem, współdzielenia ryzyka biznesowego i nowych modeli opłat. Żądają podawania wskaźników biznesowych w czasie rzeczywistym oraz odpowiednich kompetencji sektorowych. Lista tych oczekiwań jest na tyle długa, że zapewni firmom z sektora BPO, które sprostają wymienionym wyzwaniom, długie i dostanie życie, a ich pracownikom możliwość wykonywania ambitnych zadań.
Obserwując rozwój polskiego rynku IT w ciągu ostatnich 25 lat, widzimy jasno, że rozwijał się tak jak cała polska gospodarka. Oczywiście powiązanie ze wzrostem PKB nie jest dla nikogo zaskoczeniem. Natomiast ważne wydaje się pytanie: czy polskie przedsiębiorstwa wykorzystały należycie szanse, jakie niesie efektywne stosowanie IT celem poprawy innowacyjności, konkurencyjności, a w efekcie pozycji rynkowej? Tu obraz jest niejednoznaczny. Badania GUS prowadzone od 2005 r. w ramach projektu „Społeczeństwo informacyjne” wskazują, że systematycznie poprawia się dostęp do infrastruktury IT w przedsiębiorstwach zatrudniających powyżej dziewięciu pracowników. Dotyczy to posiadania komputerów, dostępu do Internetu czy wykorzystywania stron WWW. Przy czym pod tym względem duże przedsiębiorstwa prezentują się znacznie lepiej niż małe i średnie, gdzie proporcje wydatków nie zmieniają się od lat pomimo wielu programów adresowanych do sektora MSP. Dlatego też Polska nie jest liderem rankingów, jeśli chodzi o wydatki na IT per capita czy nakłady na IT w stosunku do PKB. Gdy mowa o nakładach IT per capita, to zajmujemy piątą pozycję (270 dol.) wśród krajów regionu CEE, a do średniej UE brakuje nam prawie drugie tyle. Wskaźnik IT/PKB wynosi 2,1 proc. i plasuje Polskę w środku stawki Unii Europejskiej.
Według zgodnych ocen wielu ekspertów Polska powoli wyczerpuje proste rezerwy wzrostu oparte głównie na taniej sile roboczej. Obecnie branża IT, jak nigdy dotąd, daje możliwości szerokiego dostępu do najnowocześniejszych technologii. A przecież są one niezbędne do tworzenia innowacyjnych produktów, które skutecznie mogą konkurować na globalnych rynkach. Rewolucyjne zmiany w dostępie do zasobów IT polegają na tym, że coraz częściej zaczynają być dostarczane pod postacią różnorodnych usług. Duże moce obliczeniowe mogą być pozyskiwane w ciągu kilku godzin, a nie jako efekt projektów ciągnących się całymi miesiącami. Najistotniejsze jest to, że taki model umożliwia precyzyjną alokację kosztów tej infrastruktury z uwzględnieniem poszczególnych źródeł przychodów. Istnieje wiele przykładów na to, że taki sposób wykorzystywania infrastruktury przyczynia się do wzrostu innowacyjności przedsiębiorstw. Doprowadziło to do tak przełomowych odkryć jak chociażby rozszyfrowanie ludzkiego genomu.
Zmiany nie ominą również polskiej branży IT. Słuszna strategia wielu polskich przedsiębiorstw IT w ostatnim ćwierćwieczu, która polegała na konsolidacji zasobów po to, aby obsłużyć duże kontrakty w sektorze publicznym, nie wystarczy, aby przetrwać następne 25 lat. Firmy muszą bardziej aktywnie poszukiwać klientów poza granicami Polski, a jednocześnie specjalizować się w nowoczesnych usługach oraz dokonywać większych inwestycji w rozwój nowych produktów. Tylko w ten sposób będą mogły skutecznie konkurować na światowych rynkach.
Obecnie w branży IT, według najnowszego raportu GUS „Społeczeństwo informacyjne w Polsce”, zatrudnionych jest ok. 140 tys. pracowników w 1460 przedsiębiorstwach (zatrudniających powyżej 10 osób). Bardzo ciekawa jest statystyka dotycząca dynamiki zmiany struktury przychodów netto sektora. Sprzedaż usług IT na przestrzeni ostatnich lat (2009–2012) wzrosła ok. 40 proc., ale udział usług w przychodach sektora spadł z 36 proc. do 33 proc. Udział eksportu w przychodach z usług IT wynosi zaledwie 12 proc. W tym samym okresie przychody ze sprzedaży hurtowej sektora wzrosły o 140 proc., a udział sprzedaży hurtowej w sprzedaży całego sektora zwiększył się dwukrotnie: z 13 do 26 proc. Znaczna część tego wzrostu przypada na eksport towarów do byłych republik radzieckich. Oczywiście każdy wzrost cieszy, również w handlu, który był podstawą rozwoju wielu szacownych firm w historii, w tym Kompani Wschodnioindyjskiej. Co jednak cieszyło jeszcze 200 lat temu, dziś już nie robi takiego wrażenia. Dużo bardziej znaczący byłby dynamiczny wzrost udziału usług oraz innowacyjnej produkcji w sektorze IT.
Autor jest dyrektorem zarządzającym polskim oddziałem IDC.
Artykuł Na początku był pecet pochodzi z serwisu CRN.
]]>Artykuł Dell najbardziej lokalna międzynarodowa marka pochodzi z serwisu CRN.
]]>
W
pierwszych latach działania na polskim rynku producent koncentrował się na
bezpośredniej obsłudze klientów. Było to zgodne ze sposobem, w jaki Dell
funkcjonował na swoim macierzystym rynku. Z czasem polski oddział zaczął
jednak przygotowywać się do kooperacji z resellerami i integratorami.
W 2008 r. Dell zaoferował im pierwszy kompleksowy program partnerski.
Dzięki temu udało się przekonać do współpracy kilkuset partnerów. Co ciekawe,
pomimo przyjęcia takiej właśnie strategii, do dzisiaj można spotkać się
z opiniami, że producent jest nastawiony przede wszystkim na sprzedaż
bezpośrednią.
Wojciech Głownia
Latem ubiegłego roku powiedziałem Michaelowi Dellowi, że
nasza marka w Polsce kojarzy się ze świetnymi notebookami, desktopami,
serwerami, monitorami i… właściwie z niczym więcej. Dlatego moim celem
jest doprowadzenie do sytuacji, w której polski użytkownik – jeśli
będzie miał potrzeby związane z bezpieczeństwem IT, rozwiązaniami
sieciowymi czy pamięciami masowymi – zapyta o możliwe rozwiązania nie
tylko naszych rynkowych konkurentów, ale również firmę Dell. To zajmie jakiś
czas, ale mocno wierzę, że nam się uda.
O tym, że jest to fałszywy
obraz – nie tylko działalności na polskim rynku, ale także globalnie
– świadczą niedawne decyzje Michaela Della. Podczas Dell World 2013
zapowiedział on, że w najbliższych latach udział partnerów vendora
w sprzedaży ogółem zwiększy się co najmniej dwukrotnie. Zapowiedź jest
o tyle znamienna, że przed zaledwie pięcioma laty producent nie miał
żadnego programu partnerskiego. Teraz światowi resellerzy oraz integratorzy
generują 25 proc. jego obrotów, co daje rocznie kilkanaście miliardów
dolarów. W Polsce sytuacja jest znacznie bardziej korzystna dla partnerów
współpracujących z dostawcą, a ma być jeszcze lepiej. Nad Wisłą
udział partnerów w przychodach koncernu już teraz stanowi około
75 proc. Szefowie polskiego oddziału zapowiadają, że w najbliższych
latach odsetek ten będzie się zwiększał na korzyść resellerów.
Przełom nastąpi najpewniej
w 2014 r. ze względu na wprowadzenie nowego programu partnerskiego.
„Po raz pierwszy w historii Dell zaprasza do współpracy wszystkich
polskich resellerów” – tak komentował to wydarzenie Jarosław Trzaskoma,
Channel Director w niedawnej rozmowie z CRN Polska (nr 3/2014,
„Rok przełomu”). Nowe wymagania na poziomie podstawowym umożliwiają nawet
niewielkiej firmie IT dostęp do programu partnerskiego Dell PartnerDirect.
Liberalne podejście wytwórcy zbiegło się z najszybszym w historii
firmy rozrostem portfolio produktów. Dlatego wizerunek firmy Dell, jako
dostawcy solidnych desktopów, notebooków i monitorów, jest niepełny.
Dzięki szeregowi przejęć, dostawca stworzył kompletną ofertę: począwszy od
komputerów, poprzez serwery, drukarki, elementy sieciowe oraz zaawansowany
storage, aż po systemy bezpieczeństwa i oprogramowanie. Jak mówi Jarosław
Trzaskoma: „jesteśmy jednym z nielicznych producentów posiadających
kompletną ofertę end-to-end”.
Dzięki tak szerokiej ofercie dostawca nie powinien mieć
problemów z planowanym podwojeniem liczby partnerów Premier oraz Preffered
i zdobyciem przynajmniej tysiąca partnerów z podstawowego poziomu.
Zwłaszcza że ma im do zaoferowania pakiet szkoleń i narzędzi wspierających
sprzedaż w kilku szybko rosnących segmentach rynku IT (m.in. storage,
security, systems management, cloud services and solutions).
Co ważne, oferta dostawcy
będzie rozwijać się coraz dynamiczniej i to nie tylko poprzez akwizycje.
Koncern zapowiedział znaczące zwiększenie nakładów na dział R&D. Jedną
z niedawnych inicjatyw jest powołany w końcówce 2013 r.
Strategic Innovation Venture Fund z budżetem o wartości 300 mln
dol. Pieniądze są przeznaczone na rozwój nowych technologii w takich
obszarach, jak cloud, security czy Big Data. Producent zamierza też wydać
60 mln dol. na przyspieszenie tempa prac nad nowymi rozwiązaniami pamięci
masowych.
Inwestycje w nowe
technologie nie omijają również polskiego rynku, jednego z najważniejszych
dla producenta w całej Europie. Niedawno media z ogromnym zaskoczeniem
informowały, że to właśnie w Polsce amerykański koncern kupił kilka
tysięcy drukarek 3D. To kolejny dowód na to, że Dell jest zdecydowanie
najbardziej lokalną międzynarodową marką IT na naszym rynku.
Dell a sprawa polska
2007 r. – Z taśmy produkcyjnej zjeżdża pierwszy komputer
Dell wyprodukowany w Polsce.
2008 r. – Producent wprowadza program partnerski Dell
PartnerDirect dla lokalnych resellerów, a kilka miesięcy później rozpoczyna
sprzedaż bezpośrednią klientom indywidualnym.
2013 r. – Modernizowane jest Centrum Spotkań z Klientami,
dostępne za darmo dla partnerów i klientów firmy Dell.
2013 r. – Zapadła decyzja o współpracy koncernu przy
tworzeniu łódzkiego Centrum Gier.
2014 r. – Podejmowana jest decyzja o bezprecedensowym
zakupie kilku tysięcy drukarek 3D od polskiej marki Zortrax.
2014 r. – Dell po raz pierwszy w historii liberalizuje
polski program partnerski i zaprasza do kooperacji wszystkich resellerów.
Artykuł powstał we współpracy z
firmą Dell Polska.
Artykuł Dell najbardziej lokalna międzynarodowa marka pochodzi z serwisu CRN.
]]>Artykuł Usługi w chmurze – rewolucja dla partnerów firm sektora MSP pochodzi z serwisu CRN.
]]>Przez te lata zmieniał się
również Microsoft, dawniej postrzegany jako producent programów
w pudełkach, a obecnie wiodący dostawca nie tylko oprogramowania, ale
też urządzeń i usług. Dziś to właśnie urządzenia i usługi czy też
szeroko pojęty cloud computing wyznaczają nowe trendy w branży.
Jak teraz wygląda cloud
computing, na czym polega jego fenomen? Dla małych i średnich
przedsiębiorstw usługi w chmurze są nie tylko obietnicą większej
efektywności i elastyczności działania, większego bezpieczeństwa
i komfortu pracy, ale przede wszystkim umożliwiają korzystanie
z zaawansowanych technologicznie rozwiązań bez konieczności dokonywania
inwestycji. Otwiera to zupełnie nowe możliwości, dzięki którym każdy pracownik
zyska dostęp do niezbędnych zasobów firmy z każdego miejsca
i urządzenia, co w warunkach, kiedy praca coraz częściej wykonywana
jest spoza siedziby firmy, ma kolosalne znaczenie.
MSP wyraźnie dostrzegają ten trend i domagają się
rozwiązań, które pomogą im realizować ich zadania z każdego miejsca. Cloud
computing zapewnia mobilność oraz w pełni zdalną pracę.
W przeprowadzonym przez Ipsos Mori w 2013 r. badaniu SMB Cloud
Survey 2013 aż 81 proc. firm korzystających z usług w chmurze
wskazało mobilność i pracę zdalną jako kluczowe czynniki, mające ogromny
wpływ na wzrost efektywności pracowników. Dostęp do poczty, kalendarzy
służbowych, praca w podróży przy wykorzystaniu różnych urządzeń to tylko
część procesów, których przeniesienie do chmury pozwala pracownikom oszczędzać
czas i pracować bardziej efektywnie. Dzięki zwiększeniu mobilności
pracodawcy mogą zaoferować zatrudnionym bardziej elastyczne warunki pracy,
przyspieszyć i usprawnić wiele procesów, ułatwić wykonywanie zadań
pracownikom zdalnym i jednocześnie obniżyć koszty. Doceniają to również
użytkownicy rozwiązań chmurowych – aż 67 proc. z nich uważa, że
mobilność i elastyczność nowoczesnych rozwiązań IT ma pozytywny wpływ na
równowagę między życiem prywatnym a zawodowym.
Cloud computing gwarantuje ciągłość biznesową – czy to
w przypadku niespodziewanych zdarzeń, których efektem jest zniszczenie
infrastruktury IT, czy też wymiany urządzeń. Błyskawiczna synchronizacja danych
i brak skomplikowanych instalacji to główne atuty, stające się standardem
dla wielu małych i średnich przedsiębiorstw, zwłaszcza z branży
usługowej, wymagającej sprawnej oraz szybkiej komunikacji i przepływu
informacji. To też niewątpliwy atut w rękach partnerów oferujących
rozwiązania w tym modelu.
Mity i uprzedzenia firm do cloud computingu odchodzą
w niepamięć. Rewolucja, która zaczęła się jakiś czas temu, dokonuje się na
naszych oczach. Chmura i mobilność rewolucjonizują sposób prowadzenia
biznesu, również partnerskiego. Już przeszło tysiąc polskich firm partnerskich
dostrzegło kierunek zmian i aktywnie sprzedaje Office 365. Wspieramy ich
w tym procesie oraz ich rozwoju. Teraz i w przyszłości.
Autor komentarza jest dyrektorem odpowiedzialnym za sektor
SMB w polskim oddziale Microsoft.
Artykuł Usługi w chmurze – rewolucja dla partnerów firm sektora MSP pochodzi z serwisu CRN.
]]>Artykuł Alstor – eksperci od dystrybucji z wartością dodaną pochodzi z serwisu CRN.
]]>
Profesjonalne podejście do obsługi klientów zaowocowało
otwarciem kolejnych działów w strukturach Alstor i możliwością
dostarczania specjalistycznych rozwiązań w kilku wybranych obszarach
technologicznych. Już na samym początku w ofercie dystrybutora dostępne
były skanery dokumentowe, które później uzupełniono o oprogramowanie do
zarządzania obiegiem dokumentów. Rozpoczęcie dystrybucji profesjonalnych
monitorów EIZO umożliwiło stworzenie oferty zarówno dla profesjonalnych
grafików i fotografów, jak też… placówek ochrony zdrowia, co później
poskutkowało wyodrębnieniem całego działu obejmującego rozwiązania wspierające
diagnostykę medyczną oraz systemy obrazowania radiologicznego.
W asortymencie Alstor znajdziemy też rozwiązania do zarządzania
infrastrukturą informatyczną oraz produkty konsumenckie IT, związane głównie
z technologiami mobilnymi.
Oprócz rozbudowanej
oferty handlowej Alstor zapewnia partnerom szczegółowe konsultacje
w zakresie projektowania inwestycji dla ich klientów końcowych, jak
również kompleksową obsługę projektów, obejmującą instalacje, wdrożenia oraz
testowanie implementowanych rozwiązań. Partnerzy mają też dostęp do szerokiej
oferty szkoleniowej – treningów dotyczących konkretnych rozwiązań
i pełnego wykorzystania ich funkcjonalności.
Pracownicy dystrybutora posiadają szereg certyfikatów
potwierdzających ich wysokie kwalifikacje. Alstor, jako jeden
z nielicznych europejskich dystrybutorów, ma w zespole inżyniera
z tytułami Trellis Administrator, Trellis Data Center Planner oraz Trellis
Monitoring Specialist w zakresie platformy Trellis. Inżynierowie ukończyli
też kursy firm Hitachi Data Systems, CommVault, Overland Storage, Tandberg Data
czy Infortrend.
Każdy rok wnosi do oferty Alstor nowe kontrakty
dystrybucyjne, jak też innowacyjne, niespotykane dotychczas na polskim rynku
produkty. Przez ostatnie lata bardzo szybko rozwijała się grupa produktów iCorner,
na które składają się innowacyjne akcesoria i peryferia przeznaczone dla
rodziny iPhone/iPad/iPod, smartfonów oraz tabletów.
Przykładem takich
unikalnych nowości mogą być urządzenia do deduplikacji danych HYDRAstor firmy
NEC, które trafiły do oferty dystrybutora w kwietniu 2014 r. Ich wyjątkowa
architektura zapewnia nieograniczoną, liniową skalowalność zarówno pojemności,
jak i wydajności, przy czym – w odróżnieniu od rozwiązań
konkurencji – dane nadal są deduplikowane globalnie. HYDRAstor do ochrony
danych nie używa tradycyjnego systemu RAID, zamiast niego stosowane jest
kodowanie DRD (Distributed Resilient Data), odporne na awarię od 3 do
6 dysków lub węzłów skalowalnego rozwiązania. Technologia ta zapewnia
także szybszą odbudowę danych w porównaniu z tradycyjnymi systemami
RAID, przy mniejszym wykorzystaniu pojemności i obciążeniu procesora.
Artykuł powstał we
współpracy z firmą Alstor.
Artykuł Alstor – eksperci od dystrybucji z wartością dodaną pochodzi z serwisu CRN.
]]>