AI nie zastąpi człowieka, zwłaszcza w domenie cyberbezpieczeństwa.

Czy faktycznie sztuczna inteligencja jest tak potężna, że za chwilę będzie sama w stanie zrobić niemal wszystko? Czy człowiek stanie się „elementem” zbędnym? W wielu wypadkach tak, jednak nadal nie do końca. Jest sporo obszarów, w których to ludzie są nadal nie do zastąpienia i jednym z nich jest cyberbezpieczeństwo. 

Po fali entuzjazmu dla zastosowań automatycznych narzędzi w wielu sektorach gospodarki pojawiły się także wątpliwości co do ich bezpieczeństwa, jak i rzetelności. Coraz częściej padają również pytania czy sprawniejsze z dnia na dzień algorytmy nie zastąpią po prostu pracy człowieka. Eksperci firmy HackerU Poland, zajmującej się szkoleniami z cyberbezpieczeństwa rozprawiają się z tymi mitami. Ich zdaniem sztuczna inteligencja pozwoli usprawnić wiele zadań, choć do jej zastosowań należy podchodzić także z rozwagą i merytorycznym wsparciem. Zwłaszcza jeśli chodzi o bezpieczeństwo w sieci.

źródło: pl.freepik.com

Rozwój modeli opartych o sztuczną inteligencję postępuje niemal geometrycznie. Jak zauważa w ubiegłorocznym raporcie firma konsultingowa McKinsey* już w maju 2023 r. generatywna sztuczna inteligencja firmy Anthropic, Claude, była w stanie przetworzyć około 75 tys. słów na minutę, zatem mówimy o odpowiedniku przeciętnej powieści. W takim tempie rozwoju, przy wykorzystaniu nowych procesorów oraz sprzętu umożliwiającego wykorzystanie tych rozwiązań, przełom staje się nieunikniony. Człowiek nie da rady pracować z taką wydajnością i z taką prędkością. Zatem mimo wielu płynących korzyści pociągnie to za sobą również szereg zagrożeń i obaw. Jednak są głosy, które uspokajają.

W żadnym wypadku sztuczna inteligencja nie odbierze pracy, a ją usprawni – mówi wprost Marcin Bednarczyk, Cybersecurity Specialist HackerU Polska. – Istnieje wiele obszarów, w których maszyna nie przejmie obowiązków człowieka. Szczególnie mocno widać to po kwestiach związanych z cyberbezpieczeństwem, gdzie praca ludzi jest wręcz niemożliwa do zastąpienia. – dodaje Bednarczyk.

Zacznijmy od cyberbezpieczeństwa. Ekspert z HackerU Poland obala nieomylność sztucznej inteligencji na przykładzie takich rozwiązań jak PentestGPT, czy WhiteRabbitNeo, który może działać w pełni lokalnie (czyli bez komunikacji z internetem). Działanie wyżej wymienionych modeli można opisać jako „wirtualnych cyberspecialistów”. Pomocników, których zadaniem jest podpowiadać odpowiednie komendy, które będą miały zastosowanie w konkretnej sytuacji podczas pracy specjalisty. Algorytmy te mogą być wielką pomocą, generować komendy w zależności od potrzeby, jednak w dalszym ciągu to człowiek musi je wywołać, a przede wszystkim zweryfikować, że w ogóle może uruchomić pożądaną akcję.

Rozwój sztucznej inteligencji postępuje, jednak nie oznacza to, że w obszarze zatrudnienia w cyberbezpieczeństwie człowiek ma się czego obawiać w najbliższej przyszłości. Przykładowo – w przyszłości na pewno pojawią się modele SI pomocne dla operatorów w SOC (Security Operations Center). Tam nie brakuje mozolnej pracy i zadań dla algorytmów. Nadal jednak to analityk musi i będzie musiał zająć się ostateczną weryfikacją wszystkiego. Nie ma zatem co obawiać się, iż firmy na tyle zaufają algorytmom, że oddadzą im całe swoje bezpieczeństwo. W efekcie będą wdrażane rozwiązania wspomagane SI, ale weryfikację poprawności jej działania nadal zajmą się pracownicy. Wyzwaniem dla rynku pracy jest bardziej znalezienie specjalistów, którzy będą za to odpowiedzialni. Wdrożenie nawet gotowego modelu SI bywa trudne, jest mnóstwo niuansów i zwykły pracownik IT raczej sobie z tym nie poradzi.

Nie mam obaw, że stracę pracę, bo czy jakakolwiek firma zaufałaby SI oddając jej całe swoje bezpieczeństwo? Nie pojawiłyby się obawy? – przekonuje Marcin Bednarczyk, Cybersecurity Specialist HackerU Polska. – Bardziej prawdopodobnym scenariuszem jest wdrożenie rozwiązań wspomaganych przez SI, przy stałej weryfikacji poprawności ich działania przez człowieka. Zatem dla specjalistów pracy będzie już teraz moim zdaniem tylko więcej. – podsumowuje Bednarczyk

W innych obszarach nie jest inaczej, jednak trudno w to uwierzyć, gdy informacje, które otrzymujemy nie są dla nas optymistyczne. Media kładą nacisk na zagrożenia, zwłaszcza dla pracowników wypieranych przez algorytmy, z drugiej nie brakuje hiperoptymistycznych przekazów, że w zasadzie sztuczna inteligencja wszystko za nas zrobi, a my będziemy tylko odpoczywać.

Czy faktycznie sztuczna inteligencja jest taka potężna, że za chwilę będzie sama w stanie zrobić niemal wszystko?

Z generowaniem grafik idzie jej świetnie, choć niedawna wpadka Uniwersytetu Gdańskiego ze studentem, który miał trzy ręce na stworzonej grafice pokazuje, że nie do końca. I Innym przykładem może być stworzenie logo marki. SI nie radzi sobie z takim zadaniem, dostajemy coś koniec końców i tak grafik edytuje w programie do grafiki. Eksperci zauważają, że na tym właśnie polega problem. Zazwyczaj otrzymamy „mniej więcej to, o co nam chodziło”. SI wygeneruje obraz według wskazanego wzoru, ale algorytm może to widzieć zupełnie inaczej niż człowiek. A już, zwłaszcza jeśli chodzi o specjalistę w danej dziedzinie.

Z treściami wideo algorytmy także miewają problemy, choć przyznać trzeba, że profesjonalistom udaje się wygenerować do złudzenia przypominające prawdziwe nagrania. Zresztą widać to było już choćby w kampaniach wyborczych na całym świecie. Jednak algorytm nie zrobi całego filmu, a raczej coś co nadaje się jako dodatek do „czegoś większego.

Z pisaniem tekstów także tylko pozornie jest idealnie. Sam tekst napisany jest poprawnie, jednak i tak musi go zweryfikować człowiek, ponieważ algorytmy często podają nieprawdziwe informacje.

Kolejnym przykładem jest prosty eksperyment wykonany przez pracowników HackerU Polska: jak algorytm poradzi sobie ze stworzeniem nowej wersji gry Wąż (snake), znanej każdemu posiadaczowi pierwszych generacji niezniszczalnych komórek firmy Nokia. Co stanie się, gdy te niewyobrażalnie szybko analizujące wszelkie możliwe treści systemy dostaną takie proste polecenie? Efekty eksperymentu nie były perfekcyjne. Ostatecznie faktycznie udawało się uzyskiwać kod gry, którą można było uruchomić bez poprawek. Działała, wszystko było ok, był tylko jeden problem – to był szkic, a nie gotowa gra. Nie istnieje chyba jeszcze model, który byłby w stanie stworzyć grę w pełni kompletną. Do tego właśnie trzeba programistów.

Widać zatem, że na razie specjaliści nie mają się raczej czego obawiać. Sztuczna inteligencja stwarza możliwości do ułatwienia wielu zadań zawodowych. Niemniej, póki co raczej ich nie zastąpi.

* https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#introduction