Artykuł Nowy superkomputer na potrzeby polskich naukowców pochodzi z serwisu CRN.
]]>– Zmienia się nasza rzeczywistość, dlatego i nauka musi się zmieniać. Nasz ośrodek badawczy realizuje projekty przede wszystkim w oparciu o zdobycze nauki z wykorzystaniem najnowszych technologii sztucznej inteligencji, zarówno na zlecenia biznesu, jak i instytucji państwowych oraz naukowych – komentuje profesor Marek Niezgódka, dyrektor Centrum Cyfrowej Nauki i Technologii UKSW.
Za produkcję sprzętu odpowiada IBM, zaś dostawę i wdrożenie koncern zrealizował w partnerstwie z Infonet-Projekt.
– To kolejny przełomowy moment dla polskiej nauki, gdyż dzięki skoncentrowaniu tak dużej mocy obliczeniowej w nowoczesnym CNT UKSW, naukowcy w istotny sposób będą mogli wpływać na rozwój najnowszych zagadnień badawczych, jak deep learning i sztuczna inteligencja – mówi Jarosław Szymczuk, Dyrektor Generalny IBM Polska i Kraje Bałtyckie.
Rozwiązania oparte o sztuczną inteligencję i sieci neuronowe pozwalają na rozwiązywanie problemów, które do tej pory wymagały wielu godzin pracy specjalistów o wieloletnim doświadczeniu. Dzięki uczeniu maszynowemu i sztucznej inteligencji komputery są w stanie wykonać te same zadania znacznie szybciej, a często skuteczniej.
Inspirowane biologicznymi strukturami występującymi w mózgu, sztuczne sieci neuronowe znajdują zastosowanie praktycznie w każdej dziedzinie. Z powodzeniem stosowane są w zagadnieniach optymalizacji czy prognozowania, ale też m.in. w medycynie i finansach. Klaster obliczeniowy przyspieszy prace polskich naukowców i otworzy nowe możliwości wykorzystania wysokiej mocy obliczeniowej w praktyce – od modelowania matematycznego przez diagnostykę obrazową po szukanie innowacji dla przemysłu.
– Na etapie innowacji szczególnie istotne stają się zagadnienia tzw. głębokiego uczenia, które stanowią dynamicznie rozwijającą się dziedzinę nauk komputerowych – podkreśla Michał Iwański, IT Infrastructure Manager w Centrum Cyfrowej Nauki i Technologii, UKSW. – Budując nasze rozwiązanie w oparciu o najnowsze architektury sprzętowe oraz stosując ekosystem rozwiązań programowych zanurzonych w nurcie otwartego oprogramowania, chcemy pełnić rolę katalizatora rozwoju innowacyjności.
Artykuł Nowy superkomputer na potrzeby polskich naukowców pochodzi z serwisu CRN.
]]>Artykuł Lenovo największym dostawcą superkomputerów na świecie pochodzi z serwisu CRN.
]]>Komentując informacje Top500, Kirk Skaugen, prezes grupy data center w Lenovo, stwierdził, że jego firmie udało się zdobyć pozycję największego dostawcy superkomputerów dwa lata przed czasem, bo cel ten miał być osiągnięty do roku 2020.
Lenovo twierdzi, że obecnie 17 z 25 najważniejszych na świecie ośrodków uniwersyteckich i instytucji badawczych wykorzystuje rozwiązania HPC i AI tego producenta.
Najnowszy ranking Top500 przynosi powrót na pierwsze miejsce superkomputera z USA, po pięciu latach dominacji systemów z Chin. Stworzony przez IBM system dla amerykańskiego Departamentu Energii przesunął dotychczasowych chińskich rekordzistów na drugie i czwarte miejsce. Co ciekawe, poprzednio zajmujący czwarte miejsce superkomputer Gyoukou z Japonii w ogóle nie znalazł się w zestawieniu. Jego twórcy zostali aresztowani za nadużycia, a zamawiająca system agencja zrezygnowała z jego rozwoju i przywróciła go do wcześniejszego stanu.
Artykuł Lenovo największym dostawcą superkomputerów na świecie pochodzi z serwisu CRN.
]]>Artykuł Superkomputer Huawei wspiera analitykę Big Data na Uniwersytecie Warszawskim pochodzi z serwisu CRN.
]]>– W ICM jest zatrudnionych około 160 specjalistów. Wśród nich mamy zespół naukowców, który za pomocą superkomputerów potrafi rozwiązywać rozmaite problemy badawcze. Wykorzystując posiadaną wiedzę, biorą udział w projektach, w których razem z partnerami naukowymi albo klientami dzięki wiedzy matematycznej, informatycznej i wielkiej mocy przetwarzania realizują skomplikowane zadania obliczeniowe – podkreśla Maciej Remiszewski, zastępca dyrektora ICM ds. rozwoju i współpracy.
Drugim ważnym zadaniem ICM jest od wielu lat tworzenie i utrzymywanie obszernych repozytoriów danych, w szczególności naukowych, m.in. w formie Wirtualnej Biblioteki Nauki. Przechowywane informacje są na bieżąco udostępniane środowisku naukowemu. W tym obszarze działalności ICM wiele się dzieje. Przykładowo od niedawna centrum jest polskim partnerem projektu OpenAIRE (Open Access Infrastructure for Research in Europe), którego cel polega na tworzeniu i promowaniu infrastruktury otwartego dostępu do wiedzy w skali europejskiej.
Jeśli z jednej strony weźmie się pod uwagę doświadczenie ICM w obliczeniach HPC, zaś z drugiej kompetencje w zakresie wielkich zbiorów danych, to pojawienie się w tej instytucji analityki Big Data trzeba uznać za naturalną kolej rzeczy.
– To bardzo popularny temat, poruszany na wielu konferencjach branżowych. Problem w tym, że niewiele osób wie, jak praktycznie wykorzystywać wielkie zbiory danych. My mamy ludzi, którzy się na tym znają – stwierdza z satysfakcją Maciej Remiszewski.
Oczywiście do wykorzystywania i rozwijania wiedzy na temat Big Data oprócz ludzi potrzeba odpowiedniej infrastruktury. Dlatego powstało działające w ramach ICM Otwarte Centrum Danych i ich Analiz OCEAN z nowo wybudowanym budynkiem serwerowni na warszawskiej Białołęce. To obecnie najnowocześniejszy w Polsce ośrodek obliczeniowy stworzony z myślą o przetwarzaniu wielkich zbiorów danych.
Chcąc realizować swoje cele, Centrum OCEAN potrzebowało odpowiedniego sprzętu do przetwarzania wielkich zbiorów danych w modelu Apache Spark (platforma open source, która umożliwia bardzo szybkie analizowanie informacji, i to na dużą skalę).
W tym celu ICM ogłosiło przetarg, w wyniku którego wpłynęło kilka ofert od dostawców superkomputerów. Spośród nich Huawei, spełniając formalne warunki ICM, zaproponował najkorzystniejszą ofertę.
– Dobrze skalkulowana oferta to jeden z czynników, które zdecydowały o wyborze. Dzięki temu w ramach posiadanych funduszy mogliśmy sobie pozwolić na zakup większego systemu niż w przypadku innych ofert. Ostatecznie więc zakupiliśmy od Huawei 360-węzłowy klaster do stworzenia środowiska Apache Spark – wyjaśnia Maciej Remiszewski.
– Klaster składa się pięciu modułów analitycznych, połączonych razem w superkomputer, który może oferować do obliczeń moc 8 tysięcy rdzeni CPU i wewnętrzną przestrzeń dyskową rzędu 8 PB. Komunikację z klastrem zapewniają 22 przełączniki Huawei CloudEngine, przeznaczone do obsługi ruchu w Centrum Przetwarzania Danych – dodaje Artur Pająk, Senior Product Manager w Huawei Enterprise.
Maciej Remiszewski
Wcześniej do projektów Big Data używaliśmy małych klastrów złożonych z kilkunastu serwerów. Dlatego uznaliśmy za niezbędne kupno wyspecjalizowanej, dedykowanej maszyny do Big Data. Postanowiliśmy zainwestować w superkomputer, który umożliwi nam robienie tego typu obliczeń na naprawdę dużą skalę.
– Apache Hadoop, a później Apache Spark były już od kilku lat wykorzystywane w wielu dziedzinach i projektach przez ICM – mówił z okazji podpisania umowy z Huawei profesor Marek Niezgódka, dyrektor ICM. – Zdecydowaliśmy się nabyć klaster HPC przeznaczony specjalnie do przetwarzania Big Data, aby sprostać rosnącemu popytowi na coraz bardziej złożone obliczenia.
Według naukowca inwestycja ma również stymulować rozwój zespołów analitycznych oraz wpłynąć na wzrost ich kompetencji związanych z różnymi zagadnieniami dotyczącymi analizy danych.
– Myślę, że sprzęt Huawei spełni nasze wymagania w rozwijaniu nowych algorytmów i metod analizy danych, opartych na wielordzeniowej, wieloprocesorowej i heterogenicznej architekturze komputerowej – dodaje prof. Niezgódka.
W stworzeniu środowiska do Big Data ważną rolę odegrał partner Huawei, firma Comtegra. Integrator zebrał pochlebne recenzje (ze strony kadry zarządzającej ICM) za szybkie i sprawne wdrożenie.
– Budowa środowiska analitycznego w takiej skali to złożone zadanie. Wyzwanie zwiększały wysokie wymagania ICM względem wielowymiarowości rozwiązania. Wdrożony przez nas meta-klaster jest dziś najbardziej uniwersalną i elastyczną platformą do analizy złożonych danych. Pozwala na uruchamianie zarówno iteratywnych zapytań przetwarzanych w pamięci, jak i zapytań w wielkiej skali. A to wszystko bez pracochłonnych rekonfiguracji i zmian w środowisku – wyjaśnia Dariusz Skonieczny, dyrektor ds. rozwoju w Comtegrze.
Ważnym aspektem związanym z wdrożeniem klastra Huawei jest rozwijanie umiejętności specjalistów centrum, jak również jego klientów. ICM pomaga firmom poznać metody programowania m.in. w środowisku Apache Spark.
– Prowadzimy szkolenia, tworzymy projekty typu proof of concept, organizujemy warsztaty, na których sprawdzamy z klientami, jakie wnioski i nową wiedzę można uzyskać z posiadanych danych. Klaster Huawei pomoże nam w tym, bo tworzone przy jego użyciu środowisko będzie świetnym poligonem do testów, zarówno dla naszych pracowników, jak i partnerów ICM – tłumaczy Maciej Remiszewski.
Już teraz do ICM zgłaszają się zainteresowane takimi działaniami podmioty specjalizujące się w telekomunikacji i usługach internetowych. Z pomocy Centrum OCEAN w zdobywaniu doświadczenia w zakresie Big Data chcą skorzystać także firmy z branży medialnej, finansowej, transportowej i ogólnie rozumianego retailu.
Klaster Huawei w Centrum OCEAN to w obszarze zastosowań Big Data największe wdrożenie w Europie Wschodniej, w którym wykorzystano sprzęt tej marki (we Francji producent może się pochwalić podobnym projektem w Criteo).Poza tym stanowi jedną z największych europejskich instalacji bazujących na oprogramowaniu Apache Spark. Dla ICM wybór tego, a nie innego producenta okazał się bardzo korzystny. Dostawa superkomputera Huawei dla Centrum OCEAN to zaledwie początek współpracy z tym producentem w bardzo przyszłościowym obszarze, jakim jest analityka wielkich zbiorów danych.
– Wdrożenie nie jest tego rodzaju przypadkiem, gdy po dostarczeniu sprzętu wzajemne relacje się kończą. Już teraz trwają rozmowy dotyczące dalszej współpracy i następuje stały przepływ wiedzy między naszymi specjalistami oraz ekspertami producenta – tłumaczy Maciej Remiszewski.
Współpraca obejmująca klaster dla Apache Spark jest już drugim wspólnym projektem ICM i Huawei. W pierwszym kwartale 2015 r. firma dostarczyła do centrum 250 węzłów klastra HPC. Realizacja obu projektów udowadnia, że Huawei spełnia wszystkie wymogi stawiane producentom infrastruktury IT przez uczelnie, które – jeśli chodzi o jakość rozwiązań i ich wydajność – należą do najbardziej wymagających klientów.
Artykuł Superkomputer Huawei wspiera analitykę Big Data na Uniwersytecie Warszawskim pochodzi z serwisu CRN.
]]>