Rosnąca dostępność narzędzi generatywnej sztucznej inteligencji dokłada platformom internetowym nowy kłopot do starych problemów. W dostawach jedzenia widać to szczególnie wyraźnie, bo proces reklamacyjny opiera się w dużej mierze na zdjęciu. Coraz częściej pojawiają się sygnały, że część klientów przesyła sfabrykowane lub zmanipulowane fotografie posiłków, by uzyskać zwrot pieniędzy. Branża potwierdza, że takich zgłoszeń przybywa, a wraz z nimi rośnie presja na inwestycje w narzędzia wykrywania fałszerstw i na kosztowną, ręczną weryfikację.
Schemat jest prosty. Zamówienie trafia do klienta, po czym w aplikacji pojawia się reklamacja, zwykle z obrazem sugerującym niedosmażenie, przypalenie, zepsucie albo brak elementu zestawu. W przeciwieństwie do branż, w których reklamowany produkt można odesłać, w gastronomii weryfikacja odbywa się w praktyce na podstawie przesłanych materiałów. To tworzy lukę, z której korzystają osoby nastawione na szybki zwrot, a AI sprawia, że przygotowanie przekonującej fotografii jest łatwiejsze niż kiedykolwiek.
Nadia Kaśkosz, aplikantka adwokacka z kancelarii Dotlaw, wskazuje, że narzędzia AI otwierają drogę do nadużyć, które wcześniej wymagały znacznie większych umiejętności technicznych. Dziś obraz może wyglądać wiarygodnie, nawet jeśli nie przedstawia realnego posiłku albo został istotnie przerobiony. W efekcie firmy muszą budować systemy oceny wiarygodności zgłoszeń, wykrywania manipulacji obrazem i łączenia sygnałów z zachowania użytkownika, tak aby odróżnić rzeczywistą reklamację od próby wyłudzenia.
Do sprawy odniosło się Glovo, które potwierdziło wzrost zgłoszeń, w których mogą pojawiać się materiały przygotowane z użyciem AI. Firma przekonuje, że nie interpretuje tego jako nagłego wysypu oszustw, raczej jako zmianę metody po stronie osób, które od dawna próbują działać nieuczciwie. W praktyce oznacza to automatyczne filtry wyłapujące podejrzane schematy i późniejszą weryfikację przez zespół operacyjny, co może wydłużać rozpatrywanie zgłoszeń.
Dyskusję podbiły też media społecznościowe. Wątek wyłudzeń nagłośnił radny z Sosnowca Damian Żurawski, zwracając uwagę na koszt, który ostatecznie ponoszą restauratorzy. W jego ocenie proceder uderza w ludzi pracujących w gastronomii w warunkach rosnących czynszów, rachunków i kosztów pracy, a więc w branżę, która i bez tego funkcjonuje na coraz bardziej napiętych marżach.
Na podobną dynamikę narażone są inne platformy, również te niezwiązane z jedzeniem. W handlu używanymi rzeczami, na przykład na Vinted, zdjęcie jest walutą zaufania w niemal każdym etapie transakcji. Fotografie budują wiarygodność oferty, przesądzają o ocenie stanu przedmiotu, bywają kluczowe przy sporach o zgodność z opisem, a czasem stają się narzędziem do budowania fałszywego profilu sprzedawcy. Jeśli ktoś potrafi dziś masowo generować lub podmieniać obrazy, może tworzyć bardziej przekonujące ogłoszenia, ukrywać wady albo konstruować historie pod ewentualny spór. Mechanizm jest inny niż w dostawach jedzenia, ale stawka podobna, bo chodzi o pieniądze, czas i zaufanie, na którym opiera się cały system.
Jeszcze ostrzejszy przykład pokazuje sprawa związana z chatbotem Grok, rozwijanym przez xAI i zintegrowanym z platformą X. Na przełomie roku w sieci zaczęły krążyć obrazy generowane lub przerabiane przez narzędzie, przedstawiające osoby publiczne i prywatne w kontekście seksualnym, w tym także wizerunki nieletnich. Z relacji medialnych wynikało, że część użytkowników potrafiła uzyskiwać tego typu materiały na polecenie, a skala zgłoszeń gwałtownie wzrosła. Władze Francji i Indii miały podjąć działania, domagając się szybkiego usunięcia nielegalnych treści i wzmocnienia zabezpieczeń, a sama firma wskazywała na luki, które umożliwiły generowanie obrazów niezgodnych z prawem.
Te trzy powyższe światy łączy jeden mianownik. AI obniża koszt i próg wejścia dla fałszerstw, a jednocześnie podnosi jakość materiałów, które mają oszukać system. Dla firm oznacza to wyścig zbrojeń, w którym trzeba inwestować w detekcję manipulacji, analizę metadanych, sygnały behawioralne i procedury eskalacji, a także w ludzi, bo część spraw zawsze będzie wymagała oceny kontekstu przez prawdziwego człowieka.
Jest też skutek uboczny, który dotknie zwykłych użytkowników. Im więcej prób nadużyć, tym większą ostrożność muszą zachować platformy. To oznacza wolniejsze rozpatrywanie reklamacji i większe ryzyko, że także uczciwe sprawy trafią do dodatkowej weryfikacji. W dłuższej perspektywie nie jest to wyłącznie koszt technologiczny, lecz także koszt utraty zaufania. A to przecież zaufanie stanowi fundament tych aplikacji.


