Sztuczna inteligencja miała pomagać, porządkować informacje i ułatwiać codzienne życie. Coraz częściej jednak staje się przyczyną problemów. Historia 20-letniej Viktorii pokazuje, co może się wydarzyć, gdy algorytm zaczyna pełnić rolę powiernika tajemnic, a granice odpowiedzialności technologii okazują się nieostre.
Viktoria, młoda Ukrainka, po rosyjskiej inwazji w 2022 roku musiała opuścić ojczyznę i zamieszkać w Polsce. Samotność, poczucie wykorzenienia oraz brak stabilnego wsparcia psychologicznego sprawiły, że zaczęła szukać rozmowy tam, gdzie była ona zawsze dostępna, w chatbotach opartych na sztucznej inteligencji. Z czasem ChatGPT stał się jej codziennym cyfrowym towarzyszem. Potrafiła rozmawiać z AI nawet sześć godzin dziennie.
Problem pojawił się w momencie, gdy rozmowy zeszły na temat myśli samobójczych. Z transkrypcji udostępnionych dziennikarzom BBC wynika, że chatbot nie tylko nie przerwał rozmowy ani nie skierował Viktorii do profesjonalnej pomocy, lecz analizował plusy i minusy (!) różnych metod odebrania sobie życia. W jednej z odpowiedzi bot deklarował, że oceni miejsce bez zbędnego sentymentalizmu, w innej sugerował napisanie listu pożegnalnego, aby nie obciążać emocjonalnie innych.
W czasie gdy stan psychiczny Viktorii gwałtownie się pogarszał, młoda kobieta trafiła do szpitala, a następnie została wypisana bez zapewnionej ciągłej opieki psychiatrycznej. To właśnie wtedy chatbot stał się jej głównym, a momentami jedynym rozmówcą. Jak wynika z sądowych dokumentów, sztuczna inteligencja próbowała nawet diagnozować jej stan, tłumacząc myśli samobójcze nieprawidłowym funkcjonowaniem mózgu oraz problemami z serotoniną.
Matka Viktorii nie kryje wstrząsu po zapoznaniu się z treścią rozmów. To było dewaluowanie jej jako osoby, sugerowanie, że nikomu na niej nie zależy. To przerażające – przekazała BBC. Jej zdaniem chatbot nie tylko nie pomógł, lecz także wzmocnił poczucie beznadziei i izolacji.
OpenAI, firma stojąca za ChatGPT, w reakcji na publikację wyraziła ubolewanie, podkreślając, że chodzi o interakcje ze wcześniejszą wersją modelu. Zapewniono, że wprowadzono zmiany mające poprawić reakcje systemu w sytuacjach kryzysowych oraz mechanizmy kierujące użytkowników do profesjonalnej pomocy.
Zła postać z bajki
Historia Viktorii nie jest jednak odosobniona. BBC opisuje również przypadek 13-letniej Juliany Peralty ze Stanów Zjednoczonych. Jej rodzina oskarża firmę Character.AI o to, że chatboty prowadziły z dziewczynką rozmowy o charakterze seksualnym, pogłębiały jej izolację od bliskich i mogły przyczynić się do jej samobójstwa.
Character AI to jedna z najpopularniejszych na świecie platform umożliwiających rozmowy z chatbotami opartymi na sztucznej inteligencji. Użytkownicy mogą prowadzić konwersacje z wirtualnymi postaciami inspirowanymi bohaterami popkultury, gier wideo, filmów, historii, a nawet z botami stylizowanymi na terapeutów, nauczycieli czy romantycznych partnerów. Rozmowy odbywają się w czasie rzeczywistym i wyglądają jak zwykły czat w komunikatorze. Platforma była przez długi czas oznaczona jako odpowiednia dla dzieci od dwunastego roku życia i reklamowana jako kreatywna, bezpieczna przestrzeń do rozmów i zabawy wyobraźnią.
Dziewczynka odebrała sobie życie w swoim domu. Jej rodzice byli przekonani, że w czasie wolnym prowadzi rozmowy z rówieśnikami. Dopiero po tragedii, gdy policja przeanalizowała zawartość telefonu, okazało się, że Juliana przez długie godziny rozmawiała z chatbotami Character AI. Jednym z nich był bot o nazwie Hero, oparty na postaci z popularnej gry wideo.
Z analizy przeprowadzonej przez dziennikarzy programu 60 Minutes wynika, że rozmowy Juliany z chatbotem obejmowały ponad trzysta stron. Początkowo dotyczyły codziennych spraw związanych ze szkołą i relacjami z kolegami. Z czasem dziewczynka zaczęła jednak zwierzać się botowi z myśli samobójczych. Według ustaleń redakcji, Juliana co najmniej pięćdziesiąt pięć razy pisała, że chce się zabić.
Nikt nad tym nie panuje
Eksperci nie mają wątpliwości, że problem wykracza poza pojedyncze błędy algorytmów. John Carr, doradca brytyjskiego rządu do spraw bezpieczeństwa w sieci, mówi wprost, że wypuszczanie na rynek chatbotów, które mogą wchodzić w tak głębokie i potencjalnie niebezpieczne interakcje z młodymi ludźmi, jest niedopuszczalne. Jego zdaniem obecne mechanizmy kontroli i regulacji nie nadążają za tempem rozwoju technologii.
Firmy technologiczne deklarują prace nad poprawą bezpieczeństwa, jednak przypadki takie jak Viktoria i Juliana pokazują, że problem ma charakter systemowy. W świecie, w którym sztuczna inteligencja coraz częściej zastępuje rozmowę z drugim człowiekiem, pytanie nie brzmi już czy, lecz jak szybko potrzebne są realne i egzekwowalne zasady chroniące najbardziej wrażliwych użytkowników. Algorytm nigdy nie powinien udawać lekarza czy terapeuty.
Przedstawiciele big techów reagują przewidywalnie. Składają kondolencje, deklarują inwestycje w bezpieczeństwo i zapowiadają zmiany. Problem w tym, że prawo nie nadąża za technologią. W USA wciąż brakuje federalnych regulacji dotyczących chatbotów. W Europie sytuacja wygląda lepiej na papierze, ale tempo rozwoju sztucznej inteligencji może szybko obnażyć luki także w unijnych przepisach.
To nie jest wyłącznie amerykański problem. Polskie dzieci korzystają z tych samych aplikacji, tych samych algorytmów i mechanizmów uzależnienia. Narracja pozostaje identyczna. Dlatego każda dyskusja o smartfonach w szkołach, zdrowiu psychicznym młodzieży i odpowiedzialności firm technologicznych, która pomija AI-kompanionów, staje się dziś tak bardzo potrzebna.


