Duże Modele Językowe (LLM) zrewolucjonizowały sztuczną inteligencję, oferując szeroki wachlarz możliwości, od generowania realistycznego tekstu po tłumaczenia i tworzenie kodów. Niestety, ich potężna moc przyciągnęła również uwagę hakerów, którzy wykorzystują je do siania cyberzniszczenia.
Problem z GPT i innymi LLM
Głównym problemem LLM jest ich podatność na „halucynacje”, czyli generowanie zmyślonych informacji, gdy są szkolone na nieustrukturyzowanych danych. Aby temu zapobiec, OpenAI, Microsoft, Meta i inni dostawcy LLM udostępniają swoje modele w ograniczonych wersjach, uniemożliwiając dostęp do szkodliwych treści.
Hakerzy łamią zabezpieczenia
Niestety, jak ujawnia raport „The Wall Street Journal”, hakerzy zdołali złamać zabezpieczenia GPT i innych LLM. W rezultacie technologia ta jest wykorzystywana do:
- Generowania spersonalizowanego spamu: GPT może tworzyć wiadomości dopasowane do ofiar, co czyni je bardziej wiarygodnymi i zwiększa szansę na sukces ataku.
- Włamywania się na systemy: Hakerzy wykorzystują LLM do tworzenia złośliwego oprogramowania i exploitów, które mogą obejść zabezpieczenia systemów informatycznych.
- Manipulowania ludźmi: LLM mogą generować realistyczny głos i obraz, co pozwala na podszywanie się pod inne osoby, np. dyrektora finansowego w celu wyłudzenia pieniędzy.
Na dark webie można łatwo kupić zhakowane LLM wyszkolone na wiedzy hakerskiej. Ceny wahają się od 20 zł do 800 zł miesięcznie, co czyni je dostępnymi dla szerokiego grona przestępców.
Reportaż „The Wall Street Journal” znajdziesz tu
Odpowiedzialność firm technologicznych
Firmy odpowiedzialne za LLM są pod presją ze strony akcjonariuszy, ustawodawców i opinii publicznej, aby wzmocnić zabezpieczenia swoich modeli. Ciągle rosnąca liczba pozwów za łamanie praw autorskich, naruszanie prywatności i cyberbezpieczeństwa stawia je w trudnej sytuacji.
Hakerzy wykorzystują LLM do tworzenia coraz bardziej wyrafinowanych cyberataków. Dostępność zhakowanych modeli na dark webie stanowi poważne zagrożenie dla bezpieczeństwa i prywatności użytkowników. Firmy technologiczne muszą podjąć zdecydowane kroki, aby wzmocnić zabezpieczenia LLM i zapobiec ich wykorzystywaniu do szkodliwych celów.