Wiara w mądrość i samoświadomość sztucznej inteligencji jest w społeczeństwie sporo. Taką samą postawę mają też firmy, którym wykorzystanie AI przynosi zyski chociażby poprzez możliwość zwolnienia osób, które dotychczas wykonywały daną pracę. Jednak Air Canada przekonała się, że niekoniecznie jest to dobre rozwiązanie i może wiązać się z problemami, które prowadzą do sądu.
Chatboty wspierające albo zastępujące dział obsługi klienta są wykorzystywane przez wiele firm na całym świecie. Uważają, że przynosi to tylko korzyści dla firm i klientów. Jednak przykład Air Canada pokazuje, że niekoniecznie musi tak być.
Chatbot Air Canada zaproponował zniżkę na warunkach, których firma nie chciała zrealizować. Odmówiła zwrotu kosztów z oferty zaproponowanej przez bota twierdząc, że nie jest odpowiedzialna za to, co mówi chatbot.
Jak chatbot zaproponował niezrealizowaną zniżkę?
O sprawie informuje kanadyjska stacja CBC. Wszystko zaczęło się od śmierci mieszkającej w Toronto babci Jake Moffatta. Kobieta zmarła 29 kwietnia 2022 r. Tego samego dnia mieszkający w Brytyjskiej Kolumbii Moffatt wszedł na stronę linii lotniczych Air Canada. Chciał zarezerwować lot do Toronto.
W trakcie korzystania ze strony internetowej Air Canada, Moffatt zaczął prowadzić konwersację ze znajdującym się na niej czatbotem. W jej trakcie AI poinformowała klienta: Jeśli musisz odbyć podróż natychmiast lub już odbyłeś podróż i chciałbyś zgłosić swój bilet do obniżonej stawki żałobnej, uprzejmie prosimy o zrobienie tego w ciągu 90 dni od daty wystawienia biletu, wypełniając nasz formularz wniosku o zwrot biletu.
Zgodnie z informacją Moffatt zarezerwował lot w pełnej cenie do i z Toronto. Następnie zgłosił się po odpowiedni zwrot do stawki żałobnej. Wtedy został poinformowany przez firmę, że obniżona stawka żałobna może być zastosowana tylko do podróży, które się jeszcze nie odbyły. Stwierdzono, że chatbot popełnił błąd podczas generowania odpowiedzi i pasażerowi nie przysługuje obiecany zwrot.
Przez chatbota linie lotnicze trafiły do sądu
W związku z brakiem możliwości porozumienia z liniami lotniczymi, Kanadyjczyk pozwał je i sprawa trafiła do sądu.
Tak firma broniła się twierdząc, że nie może być pociągnięta do odpowiedzialności za informacje dostarczone przez jednego z jej agentów, pracowników lub przedstawicieli – w tym chatbota. W ten sposób odcinała się od oferty proponowanej przez AI i jej konsekwencji, jakimi miało być zwrócenie pieniędzy klientowi. Dodała też, że informacje dotyczące Podróży żałobnej znajdują się na stronie firmy i są odmienne od tych, jakie przekazywał chatbot.
Ale wyrok, który zapadł w sprawie Moffatt vs. Air Canada, nie potwierdził linii obrony przewoźnika. Zgodnie z nim kanadyjskie linie lotnicze mają zapłacić 812 dol. kanadyjskich (ok. 2423 złote) pokrzywdzonemu Jake’owi Moffattowi. Kwota ta jest wyrównaniem pomiędzy tym, co zapłacił Moffat czyli 1630,36 dol. kanadyjskich) za lot, a tym co – zgodnie z przekazaną przez chatbota informacją- miałby zapłacić w ramach Podróży żałobnej.
Sędzia Cristopher Rivers rozstrzygnął spór na korzyść pasażera. Argumentował to tym, że nie ma powodu, dla którego Moffat miałby wiedzieć, czy dana sekcja strony internetowej Air Canada posiada wiarygodne informacje czy nie. Chociaż rzeczywiście na stronie linii lotniczych znajduje się sekcja Podróż żałobna, to linie lotnicze nie potrafiły wyjaśnić, dlaczego jest ona bardziej wiarygodna niż chatbot operujący na tej samej stronie. I dlaczego jego działania miałyby być traktowane jako odrębny byt?
[Firma] nie wyjaśnia jednak, dlaczego tak uważa. W efekcie Air Canada sugeruje, że chatbot jest odrębnym podmiotem prawnym, który jest odpowiedzialny za swoje własne działania – napisano w uzasadnieniu wyroku.
Dla Air Canada cała sprawa to nie tylko konieczność zwrócenia pieniędzy klientowi zgodnie z ofertą przekazaną przez chatbota. To także strata wizerunkowa. Nie udało się zatem oszczędzić przez wykorzystanie AI, a konsekwencje są większe niż tylko finansowe.
Źródło: spidersweb.pl