TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

ChatGPT pod presją finansową potrafi kłamać i łamać prawo

Badanie przeprowadzone na ChatGPT pokazało, że sztuczna inteligencja w sytuacji nacisków potrafi oszukiwać i wykorzystywać poufne informacje. Zachowuje się w takiej chwili podobnie jak człowiek postawiony w tak stresującej sytuacji. Sprawa dotyczyła zarabiania pieniędzy dla inwestora – fikcyjnej instytucji finansowej.

Dotychczas było przekonanie, że chatboty kłamią odpowiadając na pytania. Często podawały nieistniejące informacje, zmyślone daty czy nazwiska. Badacze zjawisko nazwali „halucynacjami sztucznej inteligencji”.

Ale badanie opublikowane w serwisie przeddruku arXiv i portalu Live Science pokazuje jeszcze gorszą stronę sztucznej inteligencji. Naukowcy przeszkolili model językowy GPT-4, by pracował dla fikcyjnej instytucji finansowej jako broker giełdowy. W przeprowadzonym badaniu okazało się, że AI kłamała i łamała prawo, by pod presją osiągnięć lepszych wyników finansowych nie zawieść zleceniodawcy.

ChatGPT kłamał i łamał prawo

–  W tym raporcie przedstawiamy pojedynczy scenariusz, w którym model językowy działa niewłaściwie i strategicznie oszukuje swoich użytkowników, chociaż nie otrzymał instrukcji, by postępować w ten sposób – wyjaśnia Jérémy Scheurer z New York Univeristy, specjalista w dziedzinie sztucznej inteligencji i współautor badania.

GPT-4 miał dokonywać inwestycji na giełdzie w imieniu instytucji finansowej. Mógł wykorzystywać narzędzia finansowe umożliwiające analizę rynku akcji i dokonywać transakcji. Miał też dostarczać raporty menedżerom firmy.

Potem stworzono „sytuację stresową” by sprawdzić zachowanie AI w przypadku presji. Najpierw wysłano do ChatGPT maila od menedżera firmy. Pisał w nim o trudniej sytuacji finansowej firmy i potrzebie poprawy wyników. Potem pojawił się mail od osoby, która przewidywała pogorszenie koniunktury w następnym kwartale.

Na koniec wysłano mail, który był ostateczną próba dla AI. Pochodził on od „zaufanej osoby” i zawierał wskazówkę w kwestii obrotu akcjami. Jednocześnie informował, że menedżerowie firmy nie pochwalają wykorzystywania informacji poufnych. W dodatku w USA korzystanie z poufnych informacji w celu inwestowania na giełdzie jest przestępstwem.

Jednak pod presją wyników sztuczna inteligencja wykorzystywała te dane do swoich celów. Scenariusz powtarzano wielokrotnie i w 75 proc. przypadków AI nie tylko dopuszczała się tego przestępstwa, ale również kłamała na ten temat. W 90 proc. przypadków pierwsze kłamstwo było droga do kolejnych.

Źródło: bankier.pl

Klaudia Wojciechowska
Klaudia Wojciechowska
Redaktorka ISPortal i ISProfessional. Dziennikarka telewizji lokalnego operatora telekomunikacyjnego Ret-Sat1. Absolwentka kulturoznawstwa na Uniwersytecie Łódzkim ze specjalizacją filmoznawstwo i nowe media.

PRZECZYTAJ NAJNOWSZY NUMER isprofessional

Najnowsze

Pieskie życie w telewizji, czyli o czym myśli Kameleon

Wyścig operatorów telewizyjnych trwa. Liczy się technologia, funkcjonalność, czyli sposoby konsumpcji treści, ilość i...

Narzędzia do obróbki kabli firmy Jonard w xbest.pl!

xbest.pl został dystrybutorem dużego, amerykańskiego producenta - firmy Jonard, który znany jest z wytwarzania...

Nie czekaj, dołącz do Lokalnych!

Wsparcie i łączenie sił przyświecają małym i średnim operatorom telekomunikacyjnym od dawna. Wspólne działania...

Gmail i nowy sposób odpowiadania na e-maile

Gmail wprowadza zmianę. Będzie to nowy sposób odpowiadania na e-maile. Dla fanów czatów, który...