DeepSeek na cenzurowanym. Europa reaguje, Polska czeka. Ekspert: Użytkownicy powinni zachować ostrożność

Chińska aplikacja AI DeepSeek znalazła się pod lupą europejskich regulatorów z powodu obaw o prywatność i bezpieczeństwo danych. W kilku krajach wprowadzono już konkretne ograniczenia. Polska na razie przygląda się sprawie i nie podejmuje formalnych kroków. Tymczasem z danych ESET i DAGMA Bezpieczeństwo IT wynika, że aż 66% pracowników w Polsce korzysta ze służbowych urządzeń do celów prywatnych – co może zwiększać ryzyko niekontrolowanego obiegu informacji.

Jak donoszą media, Czechy zakazały korzystania z produktów i usług chińskiej firmy DeepSeek na urządzeniach administracji publicznej. Decyzja ta jest następstwem ostrzeżenia wysokiego ryzyka, jakie wydała czeska agencja ds. cyberbezpieczeństwa NÚKIB. Zastrzeżenia dotyczą m.in. przekazywania danych, możliwości identyfikacji użytkowników oraz potencjalnego dostępu do informacji przez państwo chińskie. Ostrzeżenie, mające charakter prawnie wiążący w sektorze infrastruktury krytycznej, zostało oparte na analizie zagrożeń dla bezpieczeństwa narodowego.

Do podobnych działań przystępują inne kraje europejskie. Niemiecki inspektor ochrony danych wezwał Apple i Google do usunięcia DeepSeek ze sklepów, wskazując na naruszenia unijnych regulacji o ochronie danych osobowych. Włochy zablokowały dostępność aplikacji DeepSeek w swoich sklepach z aplikacjami. Holandia wprowadziła zakaz używania jej na urządzeniach administracji publicznej. Belgia zaleciła urzędnikom, by nie korzystali z tego narzędzia, Hiszpania prowadzi postępowanie wyjaśniające, a Wielka Brytania ograniczyła się do monitorowania sytuacji.

W Polsce Urząd Ochrony Danych Osobowych już w lutym br. wydał ostrzeżenie, wskazując na potencjalne zagrożenia związane z gromadzeniem danych przez DeepSeek oraz brak gwarancji ich odpowiedniej ochrony. Równolegle wicepremier i minister cyfryzacji Krzysztof Gawkowski oświadczył, że rząd nie planuje blokowania tego typu usług, choć nie wykluczył reakcji w przypadku potwierdzenia zagrożeń. Od tego czasu nie pojawiły się jednak żadne nowe rekomendacje ani decyzje.

Sytuację komentuje Kamil Sadkowski, ekspert ds. cyberbezpieczeństwa, ESET:

Zgodnie z polityką prywatności DeepSeek, dane użytkowników są przechowywane na serwerach w Chinach. Może to obejmować historię rozmów, pliki audio, prompty oraz wszelkie załączniki – np. obrazy czy dokumenty PDF. Osoby decydujące się na korzystanie z aplikacji powinny unikać przesyłania prywatnych lub wrażliwych informacji, zarówno osobistych, jak i zawodowych. Warto pamiętać, że nawet pozornie błahe pytania dotyczące zdrowia, polityki czy codziennych problemów mogą zostać ujawnione. Choć wydaje się to powtarzalną przestrogą, ostrożność przy udostępnianiu danych osobowych obowiązuje na każdej platformie – dotyczy to również ChatGPT. Jednak fakt, że DeepSeek przechowuje dane w Chinach, budzi dodatkowe pytania o to, w jaki sposób mogą być one wykorzystywane lub monitorowane bez zgody użytkowników.

Połączenie wysokiej dostępności z zaawansowaną funkcjonalnością wiąże się także z nowymi zagrożeniami. W przeciwieństwie do zamkniętych modeli, model rozumowania DeepSeek, R1, oferuje większą dostępność, ale jednocześnie jest bardziej podatny na manipulacje. Cyberprzestępcy i grupy sponsorowane przez państwa mogą wykorzystywać jego zdolności do optymalizacji złośliwego kodu, tworzenia niebezpiecznych narzędzi czy generowania niekontrolowanych treści deepfake. W ostatecznym rozrachunku tego typu technologie mogą posłużyć do manipulacji opinią publiczną i wpływania na postawy polityczne w sposób trudny do wykrycia – podobnie jak media społecznościowe, w nieodpowiednich rękach mogą stać się narzędziem rażenia na masową skalę.

Warto zauważyć, że w Polsce – mimo ostrzeżenia wydanego przez UODO na początku roku – nie wprowadzono dotąd żadnych formalnych ograniczeń dotyczących korzystania z DeepSeek. Brak regulacji nie oznacza jednak braku zagrożeń. Użytkownicy, zwłaszcza pracownicy administracji publicznej i sektora prywatnego, powinni mieć świadomość, że korzystając z narzędzi AI, mogą nieświadomie narazić na ryzyko nie tylko swoje dane, ale również informacje dotyczące organizacji, w których pracują. Kluczowa staje się zatem edukacja cyfrowa i budowanie kultury ostrożności – zwłaszcza przy korzystaniu z takich narzędzi na służbowych komputerach lub z użyciem danych związanych z pracą. Warto w tym kontekście przypomnieć, że aż 66% pracowników w Polsce – według badania ESET i DAGMA bezpieczeństwo IT – przyznało, że wykorzystuje służbowy sprzęt do celów prywatnych. To zjawisko zwiększa ryzyko niekontrolowanego przepływu danych i powinno skłaniać firmy oraz instytucje do aktywnego informowania swoich zespołów o zasadach bezpiecznego korzystania z nowych technologii.