Artykuł Sztuczna inteligencja musi być pod kontrolą pochodzi z serwisu CRN.
]]>– Na przestrzeni dziejów wojna rozgrywała się w różnych przestrzeniach. Najpierw tylko na lądzie, potem także na morzu, a następnie w powietrzu, kosmosie. A obecnie zaczęła się także w cyberprzestrzeni. Do tych pięciu frontów działań wojennych na pewno dołączą kolejne, chociaż jeszcze nie wiemy jakie. Zresztą trzeba zauważyć, że na razie jesteśmy dopiero na początku kształtowania się reguł cyberwojny. Nie ma jeszcze oficjalnych, międzynarodowych konwencji, natomiast nieustannie jesteśmy świadkami ataków, które przekraczają kolejne granice – mówi Mikko Hypponen, Chief Research Officer w F-Secure.
Mikko Hypponen podkreśla też, że wkrótce będziemy świadkami przenikania się różnych stylów działań wojennych. Już teraz do ataków wykorzystywane są drony i roboty, ale zarządzają nimi, jak również podejmują kluczowe decyzje o uderzeniu nadal zdalnie ludzie. Komunikacja odbywa się drogą radiową, co niesie dwa rodzaje zagrożeń: sygnał może być zakłócony, co uniemożliwi kontakt, albo zafałszowany, gdy uda się złamać zabezpieczenia kryptograficzne, co z kolei umożliwi wykorzystanie narzędzi do ataku przeciwko jego inicjatorom. Dlatego istnieje duże ryzyko, że broń nowej generacji zostanie wyposażona w mechanizmy bazujące na sztucznej inteligencji, które same będą podejmowały decyzję o celu ataku i czasie jego przeprowadzenia. Oczywistym jest, jakie mogą być tego daleko idące skutki.
Nastroje ekspertów ds. bezpieczeństwa IT nie są dobre. Twierdzą oni, że gdy pozwolimy maszynom stać się bardziej inteligentnymi od nas, nie będzie już od tego odwrotu. Tymczasem bardzo wiele firm, włączając w to wszystkie najważniejsze marki w świecie IT, chce być pierwszymi, które wdrożą pełną sztuczną inteligencję w swoich produktach.
– Dziś jest to trudne i mało kto zastanawia się, jaki to będzie miało długofalowy sens. Ale za 5–10 lat każdy idiota będzie potrafił korzystać ze sztucznej inteligencji – podkreśla Mikko Hypponen, dodając, że parę dekad temu wyzwaniem było wysłanie e-maila, a dziś potrafi to zrobić każdy.
Branża zabezpieczeń coraz bardziej bije na alarm także w kontekście trendu polegającego na podłączaniu wszystkiego do internetu. I nie chodzi tu o stosowane głównie w przemyśle rozwiązania IoT, ale wszelkiej maści urządzenia AGD, w przypadku których trudno sobie wyobrazić, po co im łączność z siecią (np. toster wypalający na grzankach prognozę pogody na dany dzień).
– Te urządzenia nie będą podłączone do internetu po to, aby zapewniać korzyści użytkownikom. One będą zapewniać korzyści producentom, w postaci wysyłanych do nich danych. Co gorsza, użycie tychże będzie szybko rosło, bo koszt ich zakupu będzie niewielki. Producenci odzyskają zainwestowane pieniądze, wykorzystując do własnych celów zdobyte informacje – mówi Jeff Moss, pomysłodawca konferencji Black Hat, a jednocześnie haker z wieloletnim doświadczeniem i popularyzator bezpieczeństwa IT.
W jego opinii potrzebne są odpowiednie regulacje, o które sama branża IT zabiega bardzo niemrawo. Obecnie największe zaangażowanie wykazują raczej rządy i parlamenty różnych państw i organizacji, np. Unii Europejskiej. Mają przy tym od pewnego czasu ułatwione zadanie, bo konsolidacja i monopolizacja usług chmurowych spowodowała, że wystarczy ustawowymi regulacjami objąć kilkanaście globalnych przedsiębiorstw (Facebook, Google, Apple, Microsoft itd.), z których usług korzysta ponad 90 proc. ludzi na świecie.
Artykuł Sztuczna inteligencja musi być pod kontrolą pochodzi z serwisu CRN.
]]>Artykuł Przestępcy zachowają przewagę pochodzi z serwisu CRN.
]]>Jeff Moss Zmieniło się praktycznie wszystko. Przede wszystkim wówczas stawką nie były pieniądze. Korzystając z komputera, trudno było cokolwiek ukraść. Owszem, hakerzy włamywali się do systemów operatorów telekomunikacyjnych, aby zapewnić sobie darmowe rozmowy, ale to była ich jedyna korzyść, która w globalnej skali nie generowała wielkich strat. Tymczasem obecnie, gdy wszystko jest połączone, kwestie związane z bezpieczeństwem rozciągnęły się na wiele obszarów, a więc w grę zaczęły wchodzić duże pieniądze, poufne informacje, polityka… Kolejną ważną zmianą jest to, że ćwierć wieku temu było bardzo trudno o dostęp do profesjonalnej wiedzy na temat bezpieczeństwa. Większość osób była samoukami. Tymczasem dziś ta wiedza jest na wyciągnięcie ręki, można wręcz powiedzieć, że jest jej za dużo i czasem nie wiadomo z czego wybierać, które źródła są wartościowe. Nie trzeba nawet chodzić na studia, jest mnóstwo poradników, filmów czy przygotowanych przez firmy warsztatów online. Są przeznaczone dla klientów, ale oczywiście korzystają z nich także cyberprzestępcy.
Na początku do zdalnego włamywania się służyły linie telefoniczne i sieć X.25. Potem pojawił się internet. Czy można już wskazać jakąś nową technologię, która w podobny sposób wpłynie na zmianę reguł gry i ułatwi życie przestępcom?
W tej kwestii dużo mówi się o Internecie rzeczy. Natomiast podłączone do tej infrastruktury urządzenia będą po prostu kolejnymi „komputerami”, niestety, dość słabo zabezpieczonymi. Będą z nich wykradane dane lub ich zasoby będą wykorzystywane, np. do kopania kryptowalut albo innych działań wymagających dużej mocy obliczeniowej, jak łamanie haseł. Natomiast mam duże obawy związane z wykorzystywaniem przez przestępców uczenia maszynowego i sztucznej inteligencji. Obcnie często zastosowaniem tych mechanizmów chwalą się firmy dostarczające rozwiązania zabezpieczające, ale tak naprawdę obecnie szala wagi przechyla się na stronę przestępców.
Czy dysponują oni wystarczającą wiedzą, aby zbudować skuteczny mechanizm atakujący, wykorzystujący sztuczną inteligencję?
Z pewnością, po tej „ciemnej stronie mocy” są naprawdę inteligentne osoby, a stawką w grze są miliardy dolarów. Największym problemem jest to, że proces ataku jest łatwo zautomatyzować, a obrony nie. Możliwe jest stworzenie algorytmu uczącego się, który będzie łatwo rozpoznawać, jakie rodzaje prowadzonych ataków są skuteczne, a więc powinno się zintensyfikować ich zakres w celu maksymalizacji zysku. Wdrożenie podobnego mechanizmu po stronie broniącej się okazuje się niemożliwe, bo wobec obrony nie można zdefiniować pojęcia sukcesu. Nie wiadomo, czy atak został w całości odparty, a więc nie da się odpowiednio wyskalować systemu sztucznej inteligencji.
Czy zatem zawsze cyberprzestępcy będą mieli tę przewagę?
Uważam, że przynajmniej przez najbliższych 5–10 lat. Potem sytuacja trochę się ustabilizuje i stanie bardziej przewidywalna. Wówczas będzie szansa, że gdy atakujący osiągną maksimum swoich możliwości, pojawią się narzędzia do obrony przed nimi. Oczywiście sztuczna inteligencja będzie skutecznie wykorzystywana także przez dostawców rozwiązań zabezpieczających. Już teraz służy do korelowania informacji o różnych zdarzeniach występujących w sieci i automatycznej klasyfikacji złośliwego kodu. Ale z drugiej strony cyberprzestępcy wykorzystują ją też do tworzenia mutacji malware’u.
Kiedy można spodziewać się poważnego ataku bazującego na uczeniu maszynowym? Takiego, który pojawi się na pierwszym miejscu w wiadomościach telewizyjnych?
Nie będzie takiej sytuacji. Tak jak wspomniałem, sztuczna inteligencja już jest wykorzystywana przez cyberprzestępców, ale zwiększanie stopnia jej stosowania będzie procesem dość powolnym i raczej niezauważalnym. Szczególnie dla osób, które nie są ekspertami w tej dziedzinie. Natomiast dużym i medialnym wydarzeniem będzie atak z ewidentnym wykorzystaniem uczenia maszynowego, przeprowadzony na zlecenie jakiegoś rządu przeciwko innemu krajowi lub instytucji. W takiej sytuacji jednak najważniejszy będzie kontekst polityczny, a informacja o sztucznej inteligencji pojawi się w charakterze ciekawostki, aby podkreślić technologiczne zdolności danego kraju.
Artykuł Przestępcy zachowają przewagę pochodzi z serwisu CRN.
]]>