bezpiecznik

Czy testy CAPTCHA dalej zapewniają bezpieczeństwo?

Zapewne niejednokrotnie zdarzyło Ci się potwierdzać, że nie jesteś robotem - ten stosunkowo prosty test, znany jako CAPTCHA stanowi popularny mechanizm zabezpieczenia przed nadmiernym pobieraniem danych z aplikacji internetowych.

Pomimo popularności takiego rozwiązania należy rozważyć, czy w obecnych czasach spełnia ono jeszcze swoje zadanie. Dzięki dynamicznemu postępowi w dziedzinie Sztucznej Inteligencji powszechne w życiu codziennym stały się duże modele językowe (np. ChatGPT, Claude, Gemini, ...). Takie narzędzia, początkowo stworzone w celu generowania treści tekstowych oraz szybszego wyszukiwania informacji, obecnie wyposażone są w możliwości przetwarzania dostarczonych plików multimedialnych czy ich generowania. Tempo rozwoju technologii stawia również nowe wyzwania w kontekście bezpieczeństwa w sieci.

Z zasady testy CAPTCHA powinny być zaprojektowane tak, aby były proste do rozwiązania dla człowiek i trudne do złamania przez maszyny. Powszechna obecność narzędzi sztucznej inteligencji może jednak coraz bardziej przesuwać granicę trudności tych testów. Stosowanie zbyt skomplikowanych mechanizmów CAPTCHA może skutecznie zniechęcać użytkowników do odwiedzenia danej witryny.

Jak Sztuczna Inteligencja radzi sobie z testami CAPTCHA? Odpowiedź na pytanie dostarcza praca naukowa "Analiza efektywności dostępnych modeli sztucznej inteligencji w rozwiązywaniu CAPTCHA" autorstwa Mateusza Kozłowskiego pracownika firmy Softra. Przedstawione w pracy wyniki są jednoznaczne - modele językowe są w stanie z dużą skutecznością złamać takie zabezpieczenia:

  • 100% skuteczności dla wyzwań polegających na przepisaniu zniekształconego tekstu z obrazu,
  • 96% skuteczności dla wyzwań polegających na wybraniu obrazów pasujących do treści polecenia,
  • 72% skuteczności dla wyzwań interaktywnych (w tym przypadku - przesuwanie elementu układanki).

Klasyczne mechanizmy CAPTCHA, oparte na przepisywaniu tekstu czy selekcji obrazów, nie stanowią już realnej ochrony. Współczesne modele językowe z łatwością interpretują zniekształcony tekst czy obiekty na zdjęciach, mogąc tym samym z dużą skutecznością rozwiązać takie wyzwania.

Wyzwania interaktywne (np. "slidery") wykazują nieco wyższą odporność przeciw Sztucznej Inteligencji. Wynika to z obecnych ograniczeń modeli w analizie przestrzennej dostarczonego obrazu oraz zastosowania w CAPTCHA dodatkowego systemu zabezpieczającego, takiego jak analiza zachowania użytkownika (np. odróżnianie ruchów myszki przez człowieka i program). Należy jednak pamiętać, że wraz z rozwojem SI oraz algorytmów naśladowania ludzkiego zachowania zastosowanie takiego typu CAPTCHA również może okazać się niewystarczające.

Jako zespół Softra zalecamy krytyczne podejście do wyboru mechanizmów obronnych w Państwa serwisach. Dobór odpowiedniego zabezpieczenia powinien być ściśle uzależniony od charakteru publikowanych treści oraz ryzyka związanego z ich masowym, nieautoryzowanym pobieraniem.

Wskazana praca naukowa udowodniła, że w dobie dużych modeli językowych systemy CAPTCHA nie zapewniają już znaczącej ochrony, dlatego w miejscach wymagających szczególnego bezpieczeństwa rekomenduje się zastąpienie ich np. uwierzytelnianiem dwuskładnikowym (np. weryfikacja kodem wysłanym na adres email lub sms).

Autor Mateusz Kozłowski