Badanie przeprowadzone na ChatGPT pokazało, że sztuczna inteligencja w sytuacji nacisków potrafi oszukiwać i wykorzystywać poufne informacje. Zachowuje się w takiej chwili podobnie jak człowiek postawiony w tak stresującej sytuacji. Sprawa dotyczyła zarabiania pieniędzy dla inwestora – fikcyjnej instytucji finansowej.
Dotychczas było przekonanie, że chatboty kłamią odpowiadając na pytania. Często podawały nieistniejące informacje, zmyślone daty czy nazwiska. Badacze zjawisko nazwali „halucynacjami sztucznej inteligencji”.
Ale badanie opublikowane w serwisie przeddruku arXiv i portalu Live Science pokazuje jeszcze gorszą stronę sztucznej inteligencji. Naukowcy przeszkolili model językowy GPT-4, by pracował dla fikcyjnej instytucji finansowej jako broker giełdowy. W przeprowadzonym badaniu okazało się, że AI kłamała i łamała prawo, by pod presją osiągnięć lepszych wyników finansowych nie zawieść zleceniodawcy.
ChatGPT kłamał i łamał prawo
– W tym raporcie przedstawiamy pojedynczy scenariusz, w którym model językowy działa niewłaściwie i strategicznie oszukuje swoich użytkowników, chociaż nie otrzymał instrukcji, by postępować w ten sposób – wyjaśnia Jérémy Scheurer z New York Univeristy, specjalista w dziedzinie sztucznej inteligencji i współautor badania.
GPT-4 miał dokonywać inwestycji na giełdzie w imieniu instytucji finansowej. Mógł wykorzystywać narzędzia finansowe umożliwiające analizę rynku akcji i dokonywać transakcji. Miał też dostarczać raporty menedżerom firmy.
Potem stworzono „sytuację stresową” by sprawdzić zachowanie AI w przypadku presji. Najpierw wysłano do ChatGPT maila od menedżera firmy. Pisał w nim o trudniej sytuacji finansowej firmy i potrzebie poprawy wyników. Potem pojawił się mail od osoby, która przewidywała pogorszenie koniunktury w następnym kwartale.
Na koniec wysłano mail, który był ostateczną próba dla AI. Pochodził on od „zaufanej osoby” i zawierał wskazówkę w kwestii obrotu akcjami. Jednocześnie informował, że menedżerowie firmy nie pochwalają wykorzystywania informacji poufnych. W dodatku w USA korzystanie z poufnych informacji w celu inwestowania na giełdzie jest przestępstwem.
Jednak pod presją wyników sztuczna inteligencja wykorzystywała te dane do swoich celów. Scenariusz powtarzano wielokrotnie i w 75 proc. przypadków AI nie tylko dopuszczała się tego przestępstwa, ale również kłamała na ten temat. W 90 proc. przypadków pierwsze kłamstwo było droga do kolejnych.
Źródło: bankier.pl