Użycie AI do tworzenia haseł to zaproszenie dla hakerów
Stosowanie AI do generowania haseł to poważne zagrożenie dla danych gromadzonych przez instytucje publiczne i firmy. Takie hasła na pierwszy rzut oka wyglądają na mocne, jednak są przewidywalne. Przestępcy mogą je łatwo złamać i wykraść poufne informacje. Dla administratorów danych oraz podmiotów z sektora IT, używanie haseł z AI to ryzyko naruszenia wymogów należytej staranności oraz groźba dotkliwych sankcji przewidzianych w RODO.

Bezpieczne hasło dostępowe do systemów i kont musi być całkowicie nieprzewidywalne. Tymczasem modele językowe (LLM) – np. GPT-5, Claude czy Gemini – nie są generatorami liczb losowych. To silniki statystyczne, które przewidują najbardziej prawdopodobny następny znak. AI tworzy hasła, które tylko wyglądają na skomplikowane, bo mają duże litery, cyfry i znaki specjalne. Jednak ich struktura jest przewidywalna.
Sztuczna inteligencja jest bardzo dobra w udawaniu, także udawaniu, że potrafi tworzyć silne hasła. Wystarczy, że AI raz się nauczy, jak powinno dobre hasło wyglądać i będzie je - w niezmienionej formie - rekomendować wielu użytkownikom. Dzieje się tak dlatego, że komputer jedynie powtarza to, czego się nauczył. Gdyby naprawdę myślał, zrozumiałby, że warto tworzyć osobne hasła dla każdego użytkownika - komentuje Adam Haertle, ekspert do spraw bezpieczeństwa prowadzący serwis ZaufanaTrzeciaStrona.pl.
Jednak czy rzeczywiście hasła z AI są tak słabe i dają zaledwie iluzję bezpieczeństwa? Spójrzmy na badania z lutego 2026 roku wykonane przez Irregular, (Irregular.com).
Badania: statystyka na korzyść przestępców
Specjaliści z laboratorium Irregular, firmy zajmującej się bezpieczeństwem sztucznej inteligencji przeprowadzili w lutym 2026 r. badanie, w którym potwierdzili powtarzalność haseł. Np.
- w Claude Opus 4.6 w teście 50 prób, to samo hasło (G7$kL9#mQ2&xP4!w) powtórzyło się aż 18 razy. Haker ma 36 proc. szans, że trafi na nie w pierwszej próbie. Ponad 50 proc. haseł generowanych zaczynało się od tej samej sekwencji "G7".
- W GPT-5.2 niemal wszystkie hasła zaczynały się od małej litery "v", a połowa od ciągu "vQ7!".
- Gemini 3 Flash chętnie zaczynał hasła od litery "K" lub "k".
Miarą losowości i odporności na złamanie metodą brute-force (próby wszystkich możliwych kombinacji) jest tzw. entropia hasła. Prawdziwie losowy ciąg 16 znaków ma ok. 98 bitów entropii i jest odporny na ataki superkomputerów przez miliardy lat. Tymczasem entropia hasła z AI – mimo swojej pozornej złożoności – wynosi zaledwie 27 bitów. Zwykły komputer potrzebuje kilku sekund na sforsowanie takiego zabezpieczenia.
Mimo to hasła generowane przez LLM-y pojawiają się w realnym świecie. Korzystają z nich prawdziwi użytkownicy, a agenci kodujący (systemy oparte na AI, które samodzielnie piszą kod, np. Claude Code, Codex czy Gemini-CLI) wybierają je w sposób niewidoczny w ramach zadań związanych z tworzeniem kodu, zamiast polegać na tradycyjnych, bezpiecznych metodach generowania haseł” – czytamy w raporcie laboratorium Irregular.
Agenci AI używani przy pisaniu kodu potrafią generować i wstawiać hasła do plików konfiguracyjnych. Programiści czasem akceptują takie sugestie bez sprawdzenia. W ten sposób przewidywalne i podatne na ataki hasła przenikają do systemów. Trafiają też do publicznych repozytoriów na GitHub, skąd są nieświadomie powielane przez innych twórców kopiujących dany kod. Luka wygenerowana przez AI może błyskawicznie zainfekować inne aplikacje. Badacze z Irregular znaleźli setki takich haseł na GitHubie (np. z użyciem wzorców K7#mP9 czy k9#vL).
Wreszcie hasła z AI chętnie stosują “zwykli” użytkownicy, którzy proszą np. ChatGPT o “wygenerowanie silnego hasła”.
Pułapka audytowa: tradycyjne narzędzia zawodzą
Standardowe audytory passwordów oceniają hasła z AI jako „doskonałe” lub „niemożliwe do złamania przez stulecia”. Dlaczego? Narzędzia tego typu sprawdzają tylko długość i zestaw znaków, a ignorują fakt, że zostało ono stworzone przez przewidywalny algorytm. W rzeczywistości przestępca znający specyfikę modelu AI potrafi złamać takie hasło korzystając z tzw. „model-specific wordlists”. To bazy tworzone pod konkretne modele AI. Hakerzy wiedzą, że GPT-5 czy Claude mają ulubione sekwencje znaków. W praktyce przedsiębiorstwo może być przekonane, że jego systemy informatyczne są bezpieczne, bo przeszły audyt techniczny. Jednak takie badanie mogło nie uwzględnić pochodzenia hasła. W efekcie rośnie ryzyko nieautoryzowanego dostępu do danych i wycieku wrażliwych informacji.
Co się stanie, jeżeli software house dostarczy klientowi system z „zaszytym” hasłem z AI, a dojdzie do wycieku danych? To może być podstawą do roszczeń odszkodowawczych za rażące niedbalstwo w procesie tworzenia oprogramowania.
Poważne ryzyko prawne dla administratorów danych
Eksperci wskazują, że firmy IT lub administratorzy danych powinni wykazać się należytą starannością w zakresie prowadzonej działalności. Ta obejmuje również śledzenie aktualnych zagrożeń. Przedsiębiorca, który realizując zlecenie dla klienta użyje niebezpiecznego narzędzia – np. do tworzenia przewidywalnych haseł z AI – ryzykuje naruszenie artykułów 355 par. 1 i 355 par. 2 Kodeksu cywilnego.
Stosowanie haseł wygenerowanych przez AI w konkretnych sytuacjach może być uznawane za naruszenie należytej staranności – przyznaje mecenas Wojciech Dudek.
Ponadto, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (RODO) nakłada na firmy obowiązek wdrażania zabezpieczeń, które są adekwatne do stanu wiedzy technicznej (art. 32 ust. 1). Używania przewidywalnych haseł generowanych przez sztuczną inteligencję narusza ten obowiązek.
Mecenas Dudek wskazuje na decyzję Prezesa Urzędu Ochrony Danych Osobowych z dnia 20 maja 2024 r. (decyzja DKN.5112.35.2021). Sprawa dotyczyła przełamania zabezpieczeń kont użytkowników poprzez złamanie haseł przez hakerów. Zdaniem Prezesa UODO kontrolowana spółka akcyjna z branży medycznej nie uwzględniła w analizie ryzyka w należytym stopniu ryzyka wiążącego się z przetwarzaniem danych osobowych, w szczególności wynikającego z przypadkowego lub niezgodnego z prawem zniszczenia, utraty, modyfikacji, nieuprawnionego ujawnienia lub nieuprawnionego dostępu do danych osobowych przesyłanych, przechowywanych lub w inny sposób przetwarzanych.
Innymi słowy, spółka nie uwzględniła w analizie ryzyka dotyczącego ustawienia zbyt słabego hasła dla użytkowników systemu informatycznego spółki, a także ryzyka związanego z nieprzeprowadzaniem regularnego testowania, mierzenia i oceniania skuteczności środków technicznych i organizacyjnych mających zapewnić bezpieczeństwo przetwarzania - tłumaczy mecenas Dudek.
W efekcie przestępcy zdobyli dane osobowe pacjentów i pracowników firmy. Zażądali okupu grożąc rozpowszechnieniem zdobytych informacji, w tym nazwisk, numerów PESEL oraz danych dotyczących zarobków i stanu zdrowia.
W przypadku wycieku danych Prezes UODO może uznać to za rażące niedbalstwo. To otwiera drogę do kar administracyjnych i roszczeń odszkodowawczych na podstawie art. 82 RODO. Kary administracyjne sięgają do 10 lub do 20 mln euro, albo do 2 proc. lub 4 proc. obrotu podmiotu kontrolowanego (art. 83 RODO). Co istotne, Prezes UODO dostosowując karę bierze pod uwagę m.in. właściwości podmiotu. Im większy i przetwarzający większą liczbę danych, czy mający większe przychody, tym kara może być bardziej surowa. Wymieniona wcześniej spółka została ukarana przez Prezesa UODO administracyjną karą pieniężną w wysokości 1 440 549 zł.
Trzeba też pamiętać o odpowiedzialności finansowej kierowników jednostek za rażące zaniedbania dotyczące stosowania środków technicznych zapewniających bezpieczeństwo (art. 8 i nast. ustawy z 5 lipca 2018 r. o krajowym systemie cyberbezpieczeństwa).
Mecenas Dudek zauważa, że nie można z góry założyć, że każdorazowe hasło użytkownika wygenerowane przez AI, nawet przy uznaniu go za słabe, stanowi naruszenie należytej staranności.
Za każdym razem należy dogłębnie przeanalizować regulamin korzystania z usług konkretnej SI. Zazwyczaj zawierają one katalog okoliczności wyłączających odpowiedzialność podmiotu udostępniającego AI konsumentowi. Zupełnie odrębnym tematem jest potencjalna abuzywność takich klauzul – mówi mecenas Wojciech Dudek.
Sposoby na bezpieczne generowanie haseł
Eksperci z laboratorium Irregular rekomendują, aby użytkownicy unikali korzystania z haseł generowanych przez LLM, deweloperzy polecali agentom kodującym korzystanie z bezpiecznych metod generowania haseł, gdy jest to konieczne, a laboratoria AI szkoliły swoje modele i polecały swoim agentom kodującym korzystanie z bezpiecznych metod generowania haseł od razu po instalacji.
Najskuteczniejszym narzędziem do tworzenia haseł są generatory liczb pseudolosowych (CSPRNG). Passwordy należy przechowywać w cyfrowych, zaszyfrowanych sejfach. To menedżery haseł, do których nie mają dostępu nawet dostawcy usługi. Eksperci zalecają też systematyczne przeszukiwanie kodu źródłowego pod kątem znanych wzorców haseł generowanych przez AI.








