Algorytmy sztucznej inteligencji znane są od kilkudziesięciu lat. Jednak przez większość tego czasu zajmowali się nimi głównie naukowcy. Naturalnym ograniczeniem ich popularyzacji było duże zapotrzebowanie na moc obliczeniową, pamięć oraz dane. Rozwój komputerów sprawił jednak, że zasoby obliczeniowe stały się łatwo dostępne, a rozwój IoT (tzw. internet rzeczy) oraz sieci komputerowych zapewnił stały dopływ ogromnych ilości danych.
Na początku minionej dekady AI zaczęło coraz wyraźniej przenikać do świadomości społecznej i mediów. Najpierw w postaci asystentów AI (np. Ciri), a później w postaci publicznie dostępnych modeli LLM. Rozpoczęła się moda na AI. Sprawiła ona, że na rozwój tej dziedziny zaczęto przeznaczać ogromne środki. Jednak AI to nie tylko asystenci w telefonie i duże modele językowe. To także uczenie maszynowe, analiza obrazów (w tym używane od dziesięcioleci rozpoznawanie pisma) i dźwięków, systemy ekspertowe, klasyfikatory, algorytmy genetyczne i wiele innych.
Sztuczna inteligencja radzi sobie dobrze z bardzo złożonymi zależnościami, wykrywaniem trendów i zależności w danych, analizą niekompletnych i „zaszumionych danych”, znajdowaniem bardzo dobrych (choć nie optymalnych) rozwiązań wyjątkowo złożonych problemów (np. „problem komiwojażera”). Nic więc dziwnego, że znalazła szybko zastosowanie w obszarach tak istotnych dla gospodarki morskiej jak problemy transportowe, modele meteorologiczne i oceanograficzne czy monitoring i eksploatacja systemów technicznych. W tego typu zastosowaniach liczba czynników wpływających na wynik jest ogromna, a zależności między nimi bardzo skomplikowane, więc tradycyjne metody obliczeniowe słabo sobie z nimi radzą.
AI w sektorze morskim
Ok. 2018 r. pojawiło się wiele inicjatyw mających na celu wykorzystanie AI w branży morskiej. Firma Mærsk we współpracy z Boston Consulting Group opracowała narzędzie do optymalizacji tras i prędkości statków w celu redukcji zużycia paliwa i emisji spalin. Stena Line we współpracy z Hitachi stworzyła system Stena Fuel Pilot wykorzystujący AI do optymalizacji tras statków by redukować zużycie paliwa przez promy o 3%–5% na jednostkę i obniżyć emisję CO₂ o ok. 15 tys. t rocznie. OOCL podjęła współpracę z Microsoft Research Asia, której celem było zastosowanie sztucznej inteligencji, aby zaoszczędzić do 10 mln USD rocznie dzięki lepszemu planowaniu tras i zwiększyć punktualność dostaw. Norweska firma StormGeo wykorzystuje natomiast AI do budowy zaawansowanych prognoz pogody, wspomagając w ten sposób optymalizację tras morskich. Podobną funkcjonalność ma system firmy The Weather Company, stworzony przez IBM. Również francuska firma Sinay wykorzystuje AI w swojej platformie do prognozowania warunków meteorologicznych i oceanograficznych, wykorzystywanej do optymalizacji tras statków.
Także porty coraz częściej sięgają po rozwiązania wykorzystujące AI. Europejskim liderem jest tu port w Rotterdamie, wykorzystujący AI do przewidywania najlepszego czasu na cumowanie, rozładunek i przeładunki statków. Pozwoliło to na skrócenie czasu oczekiwania statków o 20%, a w konsekwencji znacząco zwiększyło przepustowość portu bez inwestowania w jego infrastrukturę. Także VTS (ang. future vessel tracking system), monitorujący zarówno statki, jak i drony wykorzystywane przez port i firmy działające na jego obszarze, używa AI do wykrywania niebezpiecznych sytuacji w oparciu nie tylko o położenie i zachowanie monitorowanych obiektów, ale także np. dane meteorologiczne. AI stosowana jest również do planowania operacji pogłębiania kanałów portowych, zarządzania cyklem życia aktywów technicznych i infrastruktury. Także obsługa dokumentacji w tym porcie została zoptymalizowana z wykorzystaniem AI, co pozwoliło zaoszczędzić 810 osobodni rocznie (redukcja o 71%) i znacznie zmniejszyło liczbę błędów w dokumentacji. Port ten wykorzystuje również autonomiczne pojazdy do transportu kontenerów, zsynchronizowane z automatycznymi dźwigami.
Za światowego lidera wykorzystania AI do optymalizacji funkcjonowania portu należy uznać port w Busan w Korei Południowej. Stworzono tam „cyfrowego bliźniaka” – cyfrową kopię portu, w której AI symuluje i optymalizuje ruch statków, pracę dźwigów i zarządzanie przestrzenią magazynową. Jest ona zasilana danymi z ogromnej sieci przemysłowych czujników IoT, danymi o położeniu i działaniu maszyn i urządzeń w porcie, a nawet danymi o położeniu każdego pracownika portu. Dodatkowy roczny zysk portu dzięki zastosowaniu takiego rozwiązania, wynikający z obsługi większej liczby kontenerów, oszacowano na 7,3 mln USD.
Nie zawsze bezpiecznie
Ogromna popularność medialna AI pociągnęła za sobą znaczne oczekiwania wobec tej technologii. Jednak i tu, w przypadku innych produktów i technologii, możemy zaobserwować typową krzywą życia produktu: po początkowym zachwycie i skokowym wzroście oczekiwań następuje faza rozczarowania i ich urealnienia, po czym następuje etap stabilnego rozwoju i upowszechnienia danego rozwiązania. W przypadku AI wchodzimy prawdopodobnie w tę drugą fazę – coraz częściej menedżerowie dostrzegają nie tylko jej zalety i możliwości, ale także ograniczenia i zagrożenia z nią związane.
Pierwsza z nich, którą warto wziąć pod uwagę, to nieefektywność. Nierzadko widuje się próby rozwiązywania przy pomocy AI problemów, które można łatwo rozwiązać tradycyjnymi metodami. Tymczasem wytrenowanie modelu AI wymaga bardzo dużych zasobów mocy obliczeniowej i pamięci oraz pochłania znaczną ilość energii. Warto więc na wstępie zadać sobie pytanie, czy z problemem, który planuje się rozwiązać przy pomocy AI, nie można zmierzyć się łatwiej i taniej bardziej tradycyjnymi metodami.
Wyzwaniem może też być zapewnienie danych odpowiedniej jakości i w odpowiedniej ilości. Jeśli model AI zostanie wytrenowany danymi zawierającymi systematyczne błędy, obejmującymi niepełny zakres zmienności lub zmanipulowanymi, będzie zwracał niepoprawne wyniki. Jeśli np. trenujemy model danymi opisującymi działanie systemu w normalnych warunkach, a potem podczas jego używania warunki przestaną być normalne (na przykład ekstremalna pogoda, zawirowania gospodarcze), uzyskane wyniki mogą być dalekie od rzeczywistości.
Innym zagrożeniem związanym z AI jest bezkrytyczne akceptowanie wyników jego działania. Modele AI praktycznie zawsze zwrócą jakiś wynik, nawet jeśli nie będzie on poprawny. Co więcej, często taki wynik może wyglądać bardzo prawdopodobnie. Z pewnością nie raz przekonali się o tym użytkownicy dużych modeli językowych (LLM), gdy model zaczynał halucynować i na przykład wymyślał tytuły książek, które nie istnieją, co trudno było zauważyć na pierwszy rzut oka. Modele LLM określają bowiem w sposób statystyczny najbardziej prawdopodobny ciąg znaków z uwzględnieniem danych wejściowych i wcześniejszego ciągu znaków. Nie dokonują jednak analizy merytorycznej pytania i nie przeprowadzają żadnego wnioskowania logicznego. Można powiedzieć, że taki model to „idealny kłamca” – potrafi tak wymieszać fakty ze swoimi halucynacjami, że bardzo trudno to dostrzec. Tak działają nie tylko LLMy, ale praktycznie wszystkie modele wykorzystujące sztuczne sieci neuronowe.
Również awaria czujnika dostarczającego dane do modelu prowadząca do zasilenia go nieprawdziwymi informacjami może doprowadzić do tragicznych skutków. W 2 katastrofach Boeinga 737 MAX w 2018 i 2019 r. zginęło 346 osób. Przyczyną były niepoprawne dane z czujnika kąta natarcia, które wyzwalały automatyczne opuszczanie nosa samolotu. Próby przeciwdziałania temu podejmowane przez pilotów były przez systemy samolotu ignorowane. Ten przykład pokazuje, jak ważne jest traktowanie systemów AI jako wspierających człowieka, lecz nie zastępujących go.
Kwestią, która nie doczekała się dobrego rozstrzygnięcia i stanowi hamulec rozwoju AI w wielu obszarach jest kwestia odpowiedzialności. Kto powinien ponieść odpowiedzialność, jeśli na przykład autonomiczny statek uderzy w inną jednostkę i ktoś zginie w takim wypadku? Konieczne wydaje się tu znalezienie konsensusu między etykami i prawnikami, który będzie akceptowalny dla społeczeństwa.
W tradycyjnych rozwiązaniach można przeanalizować algorytm i na tej podstawie stwierdzić, czy system jest poprawnie zbudowany i wiarygodny. Takie systemy są dość przewidywalne. W systemach opartych na AI wygląda to inaczej. Ich istotnym składnikiem zazwyczaj są głębokie sieci neuronowe (DNN). Projektowanie ich architektury opiera się w dużej mierze na doświadczeniu inżyniera i metodzie prób i błędów. Taki system po wytrenowaniu modelu weryfikujemy, porównując dane wejściowe i wyjściowe, jednak nie rozumiemy mechanizmu jego działania, więc nie rozumiemy, jak system doszedł do danego wniosku, w jakich sytuacjach zwróci nam niepoprawny wynik. Możemy prześledzić poprawność obliczeń w sensie czysto matematycznym, ale na ogół nie potrafimy zrozumieć ich sensu.
Osobną grupą zagrożeń związanych z AI są ataki adwersarialne, czyli takie, w których poprzez wprowadzanie drobnych i trudno wykrywalnych zakłóceń w danych wejściowych atakujący powoduje, że system podejmuje nieprawidłową decyzję. W jednym z badań naukowcy byli w stanie, zmieniając 3 piksele w 1024-pikselowym zdjęciu psa, doprowadzić do tego, że systemy rozpoznawania obrazu traktowały je jako zdjęcie samolotu albo zdjęcie statku. Czasami umieszczenie specjalnie spreparowanej nalepki na rozpoznawanym obiekcie lub obok niego zupełnie zmieniało klasyfikację obrazu. Ale ataki tego typu mogą polegać także na wpływaniu na dane używane do trenowania modelu.
Poważnym wyzwaniem staje się też zjawisko określane jako „Shadow AI”. Polega ono na nieautoryzowanym wykorzystywaniu narzędzi AI przez pracowników firmy. Przybrało ono mocno na sile wraz z popularyzacją narzędzi LLM. Wykorzystanie takich narzędzi wiąże się z wieloma zagrożeniami, na przykład często dochodzi w ten sposób do przekazania poza firmę wrażliwych danych. Co prawda dostawcy takich rozwiązań zapewniają, że nie przechowują danych wprowadzanych przez użytkowników, ale niedawny wyciek danych (w tym treści konwersacji z użytkownikami) z ostatnio dość popularnego LLMa DeepSeek dowiódł, że nie można ufać takim zapewnieniom. Czasami użytkownik może nawet nie mieć świadomości, że ujawnia dane wrażliwe, używając narzędzia do przygotowania prezentacji, streszczania wiadomości poczty elektronicznej czy elektronicznego tłumacza.
W przypadku aplikacji AI analizujących język naturalny, na przykład do analizy poczty elektronicznej lub napływających dokumentów, powstaje ryzyko przemycenia w analizowanej treści poleceń, które zostaną wykonane przez komputer, na którym taka aplikacja jest uruchomiona i na przykład ściągnięcia i uruchomienia szkodliwego oprogramowania lub wysłania do atakującego danych wrażliwych.
Zabranianie pracownikom używania narzędzi AI może się okazać mało skuteczne. Rozsądniejsze wydaje się dostarczenie im w miarę możliwości takich narzędzi w kontrolowany sposób, edukacja w zakresie zagrożeń związanych z narzędziami AI, określenie i egzekwowanie zasad ich używania, a także monitorowanie ich używania. Warto też opracować politykę używania sztucznej inteligencji w organizacji oraz uwzględnić tę kwestię w schemacie klasyfikacji informacji.
Sztuczna inteligencja to wspaniałe narzędzie. Pozwala pokonać wiele ograniczeń tradycyjnego IT, wykryć i wykorzystać nieznane zależności, przejąć od człowieka wiele żmudnych zadań. Ma też znaczny potencjał usprawniania wielu procesów, co przekłada się na konkretne zyski. Jednak aby właściwie stosować takie narzędzia, trzeba zrozumieć ich specyfikę i sposób działania oraz wynikające z nich zagrożenia. Należy też pamiętać, że ta dziedzina bardzo szybko ewoluuje – pojawiają się nowe narzędzia i algorytmy, nowe zastosowania, ale także nowe zagrożenia. Wdrażanie i używanie narzędzi AI powinno się odbywać w sposób przemyślany i kontrolowany. Trzeba też zrozumieć, jak wygląda kwestia odpowiedzialności za działania AI.
Zygmunt Gorszyński
ekspert ds. cyberbezpieczeństwa
Dostęp do dalszej treści jest ograniczony tylko dla prenumeratorów. Zaloguj się lub zarejstruj przy użyciu kodu zaproszenia, który otrzymałeś/otrzymasz wraz z prenumeratą.