W świecie AI to określenie odnosi się do sytuacji, w której model językowy... wymyśla. Tworzy informacje, które brzmią logicznie, ale są całkowicie nieprawdziwe. I właśnie tu, według AGCM, DeepSeek zawalił sprawę.
"Startup nie zapewnił wystarczająco jasnych, natychmiastowych i zrozumiałych ostrzeżeń przed ryzykiem nieprawdziwych treści" - podano w oficjalnym komunikacie.
A w Europie – szczególnie po wejściu w życie AI Act i przy obowiązującym GDPR – takie niedopatrzenia to prosta droga do grzywien, blokad i publicznego linczu medialnego.
To nie pierwszy raz, gdy DeepSeek wpada we włoski kocioł. Już w lutym włoski Garante zablokował dostęp do ich chatbota, zarzucając brak przejrzystości w kwestii ochrony danych osobowych. Teraz na tapecie mamy „halucynacje”, a sprawą zajmuje się AGCM – czyli włoski odpowiednik UOKiK i watchdog ochrony konsumentów w jednym.
W dobie cyfrowej dezinformacji Europa wyraźnie stawia na etykę i odpowiedzialność. Fałszywe informacje generowane przez AI to nie bajka z Netflixa, a poważne zagrożenie – dla użytkownika, firm, decyzji inwestycyjnych, a nawet... zdrowia publicznego.
Przykładów nie brakuje:
AGCM może wymusić na chińskiej firmie:
Innymi słowy: jeśli nie grasz według reguł – wylatujesz z planszy.
Boom na AI trwa, ale coraz więcej krajów mówi wprost: chcesz działać – działaj uczciwie. Regulacje UE to nie hamulec dla rozwoju, ale pas bezpieczeństwa, który chroni użytkowników przed cyfrową dezinformacją.
DeepSeek uczy się właśnie tej lekcji – i to nie na sucho. Jak pokazuje Włochy, innowacja bez przejrzystości to jak jazda Teslą bez świateł w nocy.
Wnioski?
Jeśli przyszłość ma należeć do sztucznej inteligencji, musimy nauczyć ją grać fair. Bo nikt nie chce rozmawiać z chatbotem, który brzmi mądrze… a potem wkręca Ci fikcyjną diagnozę albo wymyśla cytat Einsteina.