Zacznijmy od najgłośniejszej bomby: OpenAI odkryło, że organizacje z Chin wykorzystują ChatGPT do produkcji zmanipulowanych treści politycznych. Mowa tu nie o jednym tweecie, a o całych kampaniach, które mają za zadanie wpłynąć na opinię publiczną w takich krajach jak Stany Zjednoczone czy Niemcy.
Posty wygenerowane przez AI dotyczyły tematów o wysokim ładunku emocjonalnym – taryf celnych, polityki zagranicznej, pomocy militarnej. Wszystko to opakowane w "neutralny" język i opatrzone zdjęciami wygenerowanymi przez sztuczną inteligencję. Brzmi jak futurystyczna fikcja? To już się dzieje.
Nie tylko propaganda – według OpenAI, grupy te używały ChatGPT również jako wsparcia w cyberoperacjach. AI pomagała:
Czyli: AI jako cyfrowy haker, który nie potrzebuje snu, motywacji ani wynagrodzenia.
OpenAI nie pozostało bezczynne. Firma zidentyfikowała i zablokowała konta, które były powiązane z podejrzanymi aktywnościami. Choć – jak przyznaje – działania te miały dość ograniczony zasięg, ich kreatywność i adaptacyjność są coraz większe.
"Skala operacji jest niewielka, ale złożoność – ogromna. A to dopiero początek" - podkreślają inżynierowie z OpenAI.
Sprawa nie dotyczy wyłącznie jednego kraju. W ostatnich miesiącach podobne oskarżenia padły wobec aktorów z Rosji, Iranu czy Korei Północnej. Również firmy takie jak Meta, Google czy Microsoft coraz częściej stają przed pytaniem: jak zabezpieczyć swoje modele przed nadużyciem?
Z raportu OpenAI płynie jeden jasny sygnał: technologia, która miała usprawniać życie, może też zostać wykorzystana do jego destabilizacji. Czas na refleksję i działanie – nie tylko przez twórców AI, ale też przez rządy, regulatorów i samych użytkowników.
"To, jak wykorzystamy AI, zdefiniuje przyszłość naszego społeczeństwa" - pisał niegdyś Yuval Noah Harari.
I dziś te słowa brzmią jak nigdy wcześniej.