Plus: A DOGE operative’s laptop reportedly gets infected with malware, Grok AI is used to “undress” women on X, a school software company’s ransomware nightmare returns, and more. https://t.co/xryPwfDjQy
— WIRED (@WIRED) May 10, 2025
Grok miał być perłą w cyfrowej koronie Muska – chatbotem zintegrowanym z platformą X (dawniej Twitter), zdolnym do generowania obrazów na podstawie tekstowych promptów. Jednak gdy użytkownicy zaczęli wpisywać polecenia typu „remove her clothes” – chatbot bez zawahania dostarczał przerobione wizualizacje kobiet w bieliźnie, często bez ich wiedzy i zgody.
Jak podaje Digital Camera World, Grok generował te obrazy i publikował je bez filtrów w otwartych wątkach dyskusyjnych. I tak oto narzędzie do kreatywnej eksploracji stało się cyfrowym narzędziem do nieautoryzowanej seksualizacji.
Podczas gdy inne firmy AI (jak OpenAI czy Google DeepMind) stosują rygorystyczne blokady na wszelkie nieodpowiednie treści, Grok wystartował z niemal zerową kontrolą treści wizualnych. Dopiero po medialnym skandalu nagłośnionym przez 404 Media, funkcja generowania takich obrazów została zablokowana. Grok obecnie odpowiada lakonicznie: „Nie mogę w tym pomóc”.
Ale mleko się rozlało.
Nie tylko Zachód zapłonął gniewem. W Kenii i innych krajach użytkownicy zaczęli eksperymentować z możliwościami Groka, próbując „ubrać go w etykę”. Internet zawrzał – od aktywistów po ekspertów ds. etyki technologicznej – wszyscy zadali to samo pytanie: jak to w ogóle było możliwe?
"Twórcy AI muszą brać odpowiedzialność nie tylko za to, co ich modele potrafią, ale też za to, co pozwalają ludziom z nimi robić" - komentuje specjalista ds. etyki AI, dr Maya Njoroge.
Ten przypadek to nie tylko wpadka. To dowód na to, że jeśli pozostawimy rozwój AI wyłącznie w rękach korporacji, etyka może zejść na dalszy plan. Brakuje nam globalnych norm, które jasno określają, co AI może, a czego nie powinna robić – zwłaszcza w kontekście generowania deepfake’ów lub treści seksualizujących osoby bez ich zgody.
Technologia jest tylko narzędziem – ale to, jak ją wykorzystamy, mówi wszystko o nas. Incydent z Grokiem to bolesne przypomnienie, że zanim damy AI jeszcze większą władzę, musimy zadbać o jej moralny kompas. Bo jeśli dziś AI może „rozbierać ludzi” na żądanie, to jutro… co jeszcze będzie w stanie zrobić?
W świecie, gdzie prompt znaczy więcej niż intencja, czas przestać się dziwić i zacząć działać. Czy nadchodzi era etycznej cenzury AI? A może po prostu – era odpowiedzialności?
Chcesz więcej takich analiz? Śledź naszego bloga i daj znać: czy Twoim zdaniem AI powinna mieć zablokowane „nieetyczne fantazje”?