Skip to main content
Home » Cyberbezpieczeństwo » Lokalne AI czy eksterytorialna chmura
Cyberbezpieczeństwo

Lokalne AI czy eksterytorialna chmura

Między suwerennością a outsourcingiem – kluczowy dylemat świadomych organizacji i ich liderów.

Marcin Kacprzak

Chief Technology Officer, Trafford

„AI” odmieniana przez wszystkie przypadki to codzienność już nie tylko artykułów szeroko rozumianej branży IT. Z jednej strony kuszeni jesteśmy rosnącymi możliwościami wykorzystania AI w biznesie i życiu codziennym, z drugiej pojawiają się obawy o jej wpływ na rynek pracy, rzetelność informacji czy bezpieczeństwo danych i systemów. Niezależnie od skali działalności organizacje stają przed wyborami, które zdeterminują, czy potencjał AI zostanie wykorzystany, czy zmarnowany. Jednym z nich jest określenie, na ile organizacja powinna podążać za hasłem suwerenności również w tym obszarze.

W dyskusjach na temat wdrażania AI w firmach przeważają mimo wszystko kwestie użytkowe – który model wybrać, jak go wykorzystać, ile zarobić lub oszczędzić. Skąd więc taki nacisk na suwerenność w kontekście AI?

Często zbyt szybko przechodzimy do wizualizacji efektów naszych inicjatyw, pomijając fundamenty. Podobnie dzieje się z obecną adopcją – lub jej próbą – w firmach wdrażających AI. Obserwujemy w zasadzie dwa – teoretycznie sprzeczne ze sobą – podejścia: oparcie „rewolucji” AI na komercyjnych, globalnych modelach lub próby budowy własnych, wewnętrznych modeli i narzędzi promujących hasło suwerenności.

Co wiąże się z jednym i drugim podejściem?

Podążanie globalnymi ścieżkami daje szybko odczuwalny efekt skali i skrócony „time to value”. Globalni dostawcy, dysponując znacznie większymi zasobami, oferują przewagę technologiczną, ale jednocześnie ograniczają kontrolę nad tworzonymi narzędziami, co zmniejsza realną suwerenność operacyjną. Samodzielne projekty AI wydają się w tym względzie atrakcyjniejsze, natomiast sama suwerenność bez wysokich kompetencji i odpowiedniej skali to ryzykowna iluzja. Budowa „własnego AI” bez kompetencji ML/AI, solidnych centrów danych, zapewnionego długoterminowego finansowania oraz zdolności utrzymaniowych może skończyć się wyłącznie kosztowną infrastrukturą pozbawioną rzeczywistej przewagi konkurencyjnej.

Brzmi to trochę tak, jakby nie istniało „dobre” rozwiązanie…

Nie byłbym aż takim pesymistą – chodzi bardziej o właściwy dobór fundamentów architektury. W Polsce wyzwaniem są koszty i kompetencje, ale suwerenność staje się wymogiem regulacyjnym wynikającym z NIS2 czy AI Act, czego bagatelizować nie można. Z naszego wieloletniego doświadczenia we wdrażaniu rozwiązań cyberbezpieczeństwa wiemy, że również tutaj istnieją rozsądne kompromisy między pełną niezależnością a efektywnością i skutecznością. Podobnie jak przy migracji serwerów i aplikacji do chmury, gdzie najrozsądniejszym wyborem jest model hybrydowy – z przemyślaną migracją elementów, dla których ma ona sens.

W przypadku AI taką „hybrydą” może być warstwowa suwerenność poprzez outsourcing lokalnych modeli, gdzie dane pozostają pod kontrolą i są przetwarzane w Polsce. Jeśli spojrzymy na cyberbezpieczeństwo i połączymy to podejście z koncepcją platformizacji, która pozwala integrować takie modele z istniejącymi systemami, jak SIEM czy XDR, bez budowania wszystkiego od podstaw, uzyskujemy realne korzyści bez utraty kontroli.

Brzmi rozsądnie, ale czy outsourcing lokalnych modeli wystarczy do zgodności z NIS2 i AI Act, np. w kontekście danych przetwarzanych w SOC?

Outsourcing lokalnych modeli może być pierwszym krokiem. Przez kilkanaście lat i setki wdrożeń rozmaitych systemów bezpieczeństwa przekonaliśmy się, że kluczowa jest integracja z istniejącą infrastrukturą, a nie całkowita izolacja. To zapewnia zgodność i efektywność. Z biegiem czasu podejście to można rozwinąć w kierunku stopniowego wdrażania modeli lokalnych we własnej infrastrukturze.

Czy możemy przełożyć to na konkretny use case?

Dużo mówi się o ryzyku zastąpienia ludzi przez AI, z drugiej strony ciągle narzekamy na niedobór specjalistów ds. cyberbezpieczeństwa. Weźmy automatyczny triage incydentów – lokalny model analizuje logi i flaguje anomalie znacznie szybciej niż człowiek, skracając czas reakcji. Suwerenność modelu oraz znajomość kontekstu organizacji pozwalają robić to precyzyjniej. W kolejnym etapie można zintegrować systemy XDR i SIEM z własnym modelem do korelacji alertów i analizy Threat Intel. AI nie zastępuje analityków, tylko ich uzupełnia.

A co z osobami, które nie chcą oddać kontroli „czarnym skrzynkom”? Zwłaszcza w postaci agentów AI.

Agentowa AI sprawdza się w ściśle określonych zadaniach, ale łatwo pada ofiarą manipulacji. Korzyści płynące z zastosowania modeli AI w przetwarzaniu danych są nie do przecenienia, lecz modele te nie wykazują ludzkiej kreatywności. Zawsze rekomendujemy działanie pod ścisłym nadzorem człowieka. AI powinna być traktowana jako element infrastruktury, ale też jako element krajobrazu zagrożeń – z własnym katalogiem ryzyk. Niezależnie od wybranej ścieżki zabezpieczamy narzędzia AI równie rygorystycznie jak pozostałą infrastrukturę. Shadow AI stanowi ogromne ryzyko, które organizacje dopiero zaczynają identyfikować.

Agentowa AI pod nadzorem brzmi rozsądnie – ale jak geopolityka wpłynie na decyzje liderów organizacji?

Geopolityczne napięcia wzmacniają potrzebę krajowej suwerenności, choć istnieje ryzyko fragmentacji rynku. Polska ma realny potencjał w rozwijanych projektach suwerennej AI, które tworzą solidny grunt pod przyszłość. Regulacje takie jak NIS2 wymuszą inwestycje, a skala Shadow AI będzie rosła – firmy, które teraz wdrożą przemyślane rozwiązania, zyskają trwałą przewagę konkurencyjną w swoich segmentach rynku.

Podsumowując, jakie są kluczowe wnioski dla CISO/CIO, by nie zostać w tyle z AI?

Bez względu na to, jakie narzędzia AI wdrożysz, muszą być chronione jak infrastruktura krytyczna. Inwestycje teraz, oparte na platformizacji i integracji, pozwolą technologii mądrze uzupełnić ludzkie kompetencje, zanim braki kadrowe staną się nie do nadrobienia. CISO i CIO są pod presją zarządów skupionych na nagłówkach o wszechmocnej AI – lepiej mieć konkretną propozycję wdrożenia niż polegać na samozwańczych „guru AI”. Warto powierzyć to zaufanym partnerom.

W erze AI suwerenność nie oznacza izolacji, a globalność nie oznacza utraty kontroli – kluczowe jest to, kto definiuje architekturę odpowiedzialności i ma zdolność jej egzekwowania.

Next article