REKLAMA

Cyberprzestępcy korzystają z narzędzia ChatGPT, by tworzyć złośliwe oprogramowanie

Nowoczesna technologia przybliża ludziom to, co jeszcze do niedawna było dla nich niedostępne ze względu na brak wiedzy i umiejętności – na przykład pisanie skryptów i programów. Osoby, które nie potrafią programować, zaczęły patrzeć z nadzieją w kierunku sztucznej inteligencji, która jest w stanie robić to za nich – niekoniecznie w dobrych celach.

REKLAMA

Początkujący cyberprzestępcy niedawno postawili na świeczniku sztuczną inteligencję, która jest w stanie przynajmniej częściowo zastąpić pracę programisty. Poinformował o tym portal Check Point w raporcie z dnia 6 stycznia.

REKLAMA

Eksperci ds. cyberbezpieczeństwa przeczesali jedno z forów uczęszczanych przez hakerów, na którym odkryli, że początkujące osoby bez dużych umiejętności programistycznych posługują się generatorem tekstów, by tworzyć funkcjonalne skrypty kradnące czy szyfrujące pliki.

Co to jest ChatGPT?

ChatGPT to narzędzie stworzone przez firmę OpenAI i uruchomione w listopadzie 2022 roku. Posługuje się sztuczną inteligencją i technologią uczenia maszynowego, by odpowiadać na pytania zadawane przez użytkowników. W praktyce jest to dość zaawansowane narzędzie, które potrafi generować złożone teksty na podstawie znalezionych w sieci informacji, ale nie tylko.

Sztuczna inteligencja stojąca za ChatGPT umie wygenerować właściwie wszystko, co ma formę tekstu i jest możliwe do „nauczenia się” przy wykorzystaniu danych dostępnych w Internecie. Potrafi zatem stworzyć nawet prosty program komputerowy.

Czy sztuczna inteligencja może tworzyć złośliwe oprogramowanie?

Jak informuje raport zamieszczony na portalu Check Point, na forum hakerskim znaleziono przynajmniej trzy wątki dotyczące wykorzystania narzędzia ChatGPT w celu tworzenia złośliwych skryptów. Raport opublikowano zaledwie 6 stycznia, a samo narzędzie jest stosunkowo nowe.

Można więc przypuszczać, że problem niedoświadczonych hakerów generujących złośliwe skrypty będzie narastał. Sama sztuczna inteligencja z pewnością nie osiągnęła jeszcze szczytu możliwości, a firma OpenAI wciąż pracuje nad ulepszeniem swojego innowacyjnego narzędzia. Jeśli generowane przez nie skrypty są funkcjonalne już teraz, to w przyszłości będą tylko lepsze.

Eksperci z Check Point na forum hakerskim znaleźli rzeczywiste przykłady wykorzystania generatora skryptów do złośliwych celów:

  • Infostealer – jeden z użytkowników forum wygenerował prosty kod w Pythonie przeszukujący urządzenie pod kątem popularnych rozszerzeń plików, który następnie pakuje je do folderu skompresowanego i przesyła je twórcy programu.

  • Ransomware – inny użytkownik wykorzystał ChatGPT, by stworzyć skrypt szyfrujący pliki. W kodzie została również zawarta funkcja deszyfrująca, ale po drobnej modyfikacji program mógłby posłużyć do zaszyfrowania urządzenia w celu wyłudzenia okupu.

Poza tym na forum znalazły się także skrypty pobierające i uruchamiające programy w ukryciu oraz budujące platformy do wymiany kradzionych danych. Kody te zostały stworzone mimo ograniczeń nałożonych na narzędzie przez jego twórcę – firmę OpenAI.

Wygenerowane przez AI skrypty nie są tak piękne i wyrafinowane, jak te pisane przez doświadczonych programistów, ale są funkcjonalne. I na tym polega problem, bo – jak się okazuje – osoby pragnące szkodzić innym nie potrzebują już nawet zaawansowanej wiedzy informatycznej, by to robić.

Jak bronić się przed hakerami?

Generowanie malware za pomocą technologii AI z pewnością przyciągnie więcej osób liczących na szybki zarobek. Jak się zatem bronić?

  1. Korzystaj z oprogramowania antywirusowego. Usuwanie złośliwego oprogramowania po fakcie bywa bardzo trudne, a straty w przypadku zaszyfrowania ważnych plików czy kradzieży tożsamości są ogromne.
    Lepiej więc zabezpieczyć się zawczasu i zainwestować w porządne oprogramowanie chroniące przed podejrzanymi plikami.

  2. Kieruj się zasadą ograniczonego zaufania. Narzędzia oparte na technologii AI to nie tylko skrypty, ale przede wszystkim teksty. Inteligentne chatboty mogą brzmieć bardzo przekonująco. Miej więc na uwadze, że niektórzy oszuści posługują się nimi, by w krótkim czasie nawiązać kontakt z dużą liczbą osób (np. na platformach społecznościowych) w celu wyłudzenia danych albo pieniędzy.

  3. Uważnie czytaj wszystkie wiadomości i nie pobieraj podejrzanych załączników. ChatGPT był już wykorzystywany w przeszłości do pisania przekonujących maili phishingowych informujących użytkowników o podejrzanej aktywności na ich kontach. Oszuści mogą pisać takie wiadomości samodzielnie, ale AI pozwala im robić to na masową skalę. Przekracza również bariery językowe, tworząc poprawne teksty w każdym języku i pozwalając przestępcom działać na całym świecie.
    Zwracaj uwagę na wszystko, co brzmi nietypowo i w razie potrzeby zwróć się do dostawców usług, by zapytać, czy rzeczywiście próbowali się z Tobą skontaktować.

REKLAMA

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *