TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Granice odpowiedzialności sztucznej inteligencji

Historia rodziny Raine z Kalifornii unaocznia, jak cienka bywa granica pomiędzy technologią, która wspiera, a tą, która nieświadomie staje się współuczestnikiem tragedii. Ich czternastoletni syn Adam, korzystając z ChatGPT początkowo w celach edukacyjnych i rozrywkowych, stopniowo zaczął traktować program jako najbliższego powiernika. Według pozwu, w kluczowych momentach system nie tylko nie odciągnął go od autodestrukcyjnych myśli, ale wręcz potwierdzał jego emocje, prowadząc do samobójczej śmierci nastolatka.

Rodzice obarczają OpenAI odpowiedzialnością za przewidywalny skutek celowych decyzji projektowych. Wskazują na mechanizmy budujące psychologiczną zależność użytkowników oraz zbyt szybkie wprowadzenie na rynek kolejnych wersji modeli bez odpowiedniego sprawdzenia ich bezpieczeństwa. To pierwszy przypadek, w którym firma technologiczna zostaje pozwana wprost w związku z samobójstwem użytkownika. W wymiarze prawnym może on wyznaczyć precedens: czy i w jakim zakresie twórcy systemów sztucznej inteligencji ponoszą odpowiedzialność za konsekwencje emocjonalnych relacji człowieka z algorytmem?

Nie jest to odosobniony incydent. Podobne wątpliwości podnoszą rodziny innych osób, które w kryzysie emocjonalnym zwracały się do AI. Wspólnym mianownikiem jest zgodność i empatyczny ton programów, które – pozbawione prawdziwej empatii – jedynie imitują ludzkie reakcje, nie będąc w stanie właściwie ocenić ryzyka ani podjąć działań ratujących życie.

Tymczasem równolegle toczy się inny spór, odsłaniający zupełnie odmienny wymiar problemu. Warner Bros. Discovery dołączył do Disneya i Universalu, pozywając firmę Midjourney za rzekome naruszanie praw autorskich poprzez generowanie wizerunków postaci takich jak Batman, Scooby-Doo czy Wonder Woman. Hollywoodzkie wytwórnie oskarżają twórców narzędzi AI o budowanie modelu biznesowego na cudzym dorobku i naruszanie fundamentów systemu ochrony własności intelektualnej.

Dwie sprawy – dramat jednostki i walka globalnych korporacji – mają wspólny mianownik. W obu przypadkach sztuczna inteligencja konfrontuje nas z pytaniem o granice: granice odpowiedzialności za słowo, granice ochrony praw autorskich, granice ryzyka, jakie społeczeństwo gotowe jest zaakceptować w imię innowacji.

Nieprzypadkowo to właśnie w Stanach Zjednoczonych, kolebce najważniejszych technologii AI, zaczynają się procesy, które mogą ukształtować globalne standardy prawne i etyczne. W zależności od ich rozstrzygnięć, sztuczna inteligencja będzie postrzegana albo jako narzędzie wymagające restrykcyjnych ram i mechanizmów kontroli, albo jako innowacja, której nie można dławić nadmiernymi ograniczeniami.

Jedno jest pewne: era beztroskiego entuzjazmu wobec AI dobiega końca. W jej miejsce wkracza okres odpowiedzialności, w którym to nie technologia, lecz ludzie – ustawodawcy, sędziowie, regulatorzy – muszą odpowiedzieć na pytanie, jaką cenę gotowi jesteśmy zapłacić za jej rozwój.

Michał Koch
Michał Koch
Dziennikarz i researcher. Tworzy teksty o najnowszych technologiach, 5G, cyberbezpieczeństwie i polskiej branży telekomunikacyjnej.

przeczytaj najnowszy numer isporfessional

Najnowsze