ChatGPT na celowniku: OpenAI ujawnia nowe przypadki nadużyć AI przez chińskie grupy
INFORMACJA06-06-2025
ChatGPT na celowniku: OpenAI ujawnia nowe przypadki nadużyć AI przez chińskie grupy
W świecie, gdzie sztuczna inteligencja staje się coraz bardziej wszechobecna, pojawiają się również nowe zagrożenia. OpenAI, twórca ChatGPT, opublikował raport ujawniający rosnącą liczbę przypadków wykorzystywania ich technologii przez chińskie grupy do działań o charakterze dezinformacyjnym i cybernetycznym.
Generatywna dezinformacja: AI jako ghostwriter propagandy

Zacznijmy od najgłośniejszej bomby: OpenAI odkryło, że organizacje z Chin wykorzystują ChatGPT do produkcji zmanipulowanych treści politycznych. Mowa tu nie o jednym tweecie, a o całych kampaniach, które mają za zadanie wpłynąć na opinię publiczną w takich krajach jak Stany Zjednoczone czy Niemcy.

Posty wygenerowane przez AI dotyczyły tematów o wysokim ładunku emocjonalnym – taryf celnych, polityki zagranicznej, pomocy militarnej. Wszystko to opakowane w "neutralny" język i opatrzone zdjęciami wygenerowanymi przez sztuczną inteligencję. Brzmi jak futurystyczna fikcja? To już się dzieje.

AI hakujący świat? Technologia w służbie cyberataków

Nie tylko propaganda – według OpenAI, grupy te używały ChatGPT również jako wsparcia w cyberoperacjach. AI pomagała:

  • Modyfikować złośliwe skrypty,
  • Tworzyć narzędzia do łamania haseł,
  • Automatyzować działania botów w social mediach,
  • Analizować informacje z otwartych źródeł (OSINT).

Czyli: AI jako cyfrowy haker, który nie potrzebuje snu, motywacji ani wynagrodzenia.

OpenAI odpowiada: Banujemy na potęge

OpenAI nie pozostało bezczynne. Firma zidentyfikowała i zablokowała konta, które były powiązane z podejrzanymi aktywnościami. Choć – jak przyznaje – działania te miały dość ograniczony zasięg, ich kreatywność i adaptacyjność są coraz większe.

"Skala operacji jest niewielka, ale złożoność – ogromna. A to dopiero początek" - podkreślają inżynierowie z OpenAI.

Bitwa o etykę AI: To nie tylko problem Chin

Sprawa nie dotyczy wyłącznie jednego kraju. W ostatnich miesiącach podobne oskarżenia padły wobec aktorów z Rosji, Iranu czy Korei Północnej. Również firmy takie jak Meta, Google czy Microsoft coraz częściej stają przed pytaniem: jak zabezpieczyć swoje modele przed nadużyciem?

Wnioski: Granica między technologią a bronią staje się coraz cieńsza

Z raportu OpenAI płynie jeden jasny sygnał: technologia, która miała usprawniać życie, może też zostać wykorzystana do jego destabilizacji. Czas na refleksję i działanie – nie tylko przez twórców AI, ale też przez rządy, regulatorów i samych użytkowników.

"To, jak wykorzystamy AI, zdefiniuje przyszłość naszego społeczeństwa" - pisał niegdyś Yuval Noah Harari.

I dziś te słowa brzmią jak nigdy wcześniej.

Udostępnij ten artykuł: