Narzędzi opartych na sztucznej inteligencji coraz powszechniej używają wszyscy, a więc także właściciele i pracownicy lokalnych firm telekomunikacyjnych. Wielokrotnie pisaliśmy już o korzystaniu z AI na ISPortalu, była też przedmiotem refleksji na Zjazdach MiŚOT. Z Adamem Owczarkiem, dziennikarzem i wykładowcą m.in. Uniwersytetu Łódzkiego, rozmawiamy o wiarygodności i bezpieczeństwie opartych na niej rozwiązań.
Czy narzędzia AI, z których możemy dziś korzystać są z Twojej perspektywy, wiarygodne i bezpieczne?
Adam Owczarek: Wszystko zależy od tego, jak korzystamy ze sztucznej inteligencji. AI trzeba oswoić, czyli po prostu nauczyć się z nią współdziałać. Nie możemy być cyfrowymi amiszami. To znaczy możemy, oczywiście, ale czasem spowolni to nam pracę, a czasem nawet uniemożliwi. Często słyszę zdanie, że sztuczna inteligencja spowoduje w przyszłości, czy nawet już powoduje, że wiele osób straci lub straciło pracę. Tak, to już trochę się dzieje, ale zauważmy też, że tworzą się nowe zawody. Dziś osoba, która „ogarnia” narzędzia AI jest – co do zasady – bardziej pożądana na rynku, niż ktoś o podobnym wykształceniu i podobnych umiejętnościach, ale bez tej „tajemnej” wiedzy. Zauważmy, że daję tu cudzysłów, ponieważ to nie jest wiedza tajemna, to nie jest jakaś fizyka kwantowa. To naprawdę można ogarnąć i nie trzeba do tego ani zaawansowanej wiedzy, ani szczególnych umiejętności.
Z jednej strony „próg wejścia” jest niski, ale słyszymy też, że barierą do implementacji narzędzi AI w biznesie jest brak specjalistów i modeli specyficznych dla konkretnych branż. Jak to jest?
Adam Owczarek: Z AI skorzystać może praktycznie każdy, ale nie znaczy to, że zrobi to dobrze. Wiąże się to z pewnego rodzaju niebezpieczeństwami. Każdy pracownik, który ma dostęp do zasobów firmowych i komputera z internetem, może użyć danych, do których ma dostęp, w narzędziach sztucznej inteligencji, np. do stworzenia pisma do jakiegoś urzędu. Dopóki to są informacje ogólne, to nie ma problemu, ale coraz częściej dochodzą do nas informacje, że do narzędzi AI wstawiane są np. szczegółowe dane osobowe, dajmy na to takie jak PESEL, albo np. hasła, loginy lub inne dane kluczowe dla bezpieczeństwa firm.
Szybko przeszliśmy do kwestii zagrożeń. Z badań wynika, że tylko część firm wprowadza formalne zasady dotyczące używania AI. Zwykle przedsiębiorcy korzystają z niej bez uprzedniej oceny ryzyka. To chyba niepokojące?
Adam Owczarek: Czytałem o raporcie firmy AMP zajmującej się cyberbezpieczeństwem, z którego wynika, że tylko co trzecia firma w Polsce kontroluje korzystanie z AI. Prawie 70 proc. pracowników z badanych firm korzysta z narzędzi AI, ale bez wiedzy działu IT, wprowadzając firmowe dane w sposób… w zasadzie bezrefleksyjny. Na łamach Business Insidera prezes tej firmy badawczej, Przemysław Wójcik, zaznaczał, że takie incydenty nie są jednostkowymi przypadkami, lecz codziennością. Podawał nawet przykład zespołów programistycznych, których członkowie wklejali do chatów klucze API i loginy, co w jednym przypadku doprowadziło do przejęcia repozytoriów i paraliżu kilku projektów.
To może lepiej nie korzystać z AI?
Adam Owczarek: Korzystać, ale z głową. Pamiętajmy po prostu o tym, że jeżeli podajemy jakieś dane, zwłaszcza w ogólnodostępnych narzędziach, to są one gdzieś przekazywane, bo przecież na ich podstawie musi powstać jakaś analiza, np. miesięczne zestawienie sprzedaży. Czy ktoś lub coś będzie miało do tego dostęp, i co się z tym dalej będzie działo, to już inna kwestia, jednak świadomość, że ktoś może mieć dostęp do danych przekazanych AI jest tutaj kluczowa. Informacje, które jeszcze przed chwilą mogły być poufne i mogliśmy znać tylko my, od teraz – upraszczając – potencjalnie są dostępne dla całego świata.
Korzystać z głową, czyli jak? Masz jakieś ogólne wskazówki, które przekazujesz studentom?
Adam Owczarek: Tłumaczę to w ten sposób: wszelkie narzędzia sztucznej inteligencji należy traktować, jak naszych asystentów lub praktykantów. Czy jeżeli przyjmujemy kogoś do pracy na takie stanowisko, to tak po prostu wierzymy, że zrobił wszystko dobrze, podpisujemy się i przekazujemy dalej? Niekoniecznie. Sprawdzamy, co wykonał, i jaka jest tego jakość. Tak powinno być w przypadku AI – za każdym razem, wszystko co nam przygotuje sztuczna inteligencja musimy sprawdzić, zweryfikować, potwierdzić. To nie jest pytanie: Czy maszyna się pomyli? tylko: Kiedy i ile razy się pomyli? To bardzo istotne, a wręcz kluczowe.
Praktyka chyba jednak często wygląda inaczej?
Adam Owczarek: Owszem. W wielu przypadkach spotykałem się z tym, że ludzie traktowali sztuczną inteligencję jako swego rodzaju wyrocznię.
To znaczy?
Adam Owczarek: Że jeżeli zapytają o coś i dostaną odpowiedź, to znaczy, że tak jest. Nie. Jeżeli zapytaliście o coś i dostaliście od sztucznej inteligencji odpowiedź, to znaczy jedynie, ni mniej, ni więcej jak to, że dostaliście od sztucznej inteligencji taką odpowiedź. To może być prawda, ale nie musi być. AI nie dysponuje własną wiedzą, tak samo, jak my nie dysponujemy własną wiedzą. Jeżeli nauczymy się czegoś, będziemy to wiedzieć. Mam wiedzę na temat sztucznej inteligencji, ale nie urodziłem się z nią – gdzieś o tym przeczytałem, usłyszałem, czegoś spróbowałem, byłem na jakimś kursie, z kimś rozmawiałem… Na podobnej zasadzie działa sztuczna inteligencja. Zdobywa wiedzę bazując na tym, co znajdzie w internecie, co przeczyta i przeanalizuje – dokumenty, pliki, teksty, obrazy.
A gdy nie ma wiedzy to ją dopisze. Halucynacje sztucznej inteligencji dotyczące źródeł, czy przepisów prawa to już odrębna kategoria anegdot.
Adam Owczarek: Tak. AI może stworzyć coś, co nie istnieje. Ale wróćmy na chwilę do danych, które AI znajduje “gdzieś w sieci”. One nie muszą być nieprawdziwe, mogą być niedokładne lub wybiórcze. Podam przykład. Będę pisał doktorat o AI. W momencie, kiedy miałem już wybranego promotora i wiedziałem, z kim będę pracował, testowo poprosiłem kilka modeli sztucznej inteligencji – nakreślając im kim jestem i co chcę osiągnąć – aby wskazały mi potencjalnych promotorów, do których, jako przyszły doktorant, mógłbym się zwrócić. Okazało się, że każdy z modeli językowych wybrał mi inny zestaw nazwisk. Co ciekawe, tylko jeden z nich wskazał tego, z którym już byłem po słowie. Zupełnie inny zestaw naukowców zaproponował mi ChatGPT, inny podpowiedziało mi Gemini, a potem Perplexity, Claude, Manus, Grok, itp. Czy któryś z nich wskazał lepszych lub gorszych? Nie, po prostu innych. Pamiętajmy, że jeżeli prosimy o coś poszczególne programy, mają one dostęp do różnych danych. Mogą halucynować, czyli zmyślić coś od A do Z, mogą podać nieprawdziwe dane (bo o takich “przeczytały” w sieci), a mogą też podać dane prawdziwe, ale wybiórcze lub niekompletne.
Czy w praktyce sprawdza się mit, że najgorzej działają narzędzia bezpłatne? Trzeba inwestować w AI?
Adam Owczarek: I tak, i nie. Przede wszystkim pamiętajmy, że wszystko, co jest związane z AI, nie jest zarezerwowane tylko i wyłącznie dla wielkich korporacji, dla największych, ani nawet dla dużych przedsiębiorstw, czyli w tej branży – dla dupotów. Nie trzeba robić wielkich inwestycji, nie trzeba rezerwować gigantycznych budżetów, mało tego – czasem dobra inwestycja w AI to tylko kilkadziesiąt złotych miesięcznie. W niektórych przypadkach wystarczy jedynie lekko zmodyfikować sposób swojego działania, np. wprowadzić nowy element, przeprowadzić jedno szkolenie, by widocznie przyspieszyć pracę, dać pracownikom asystenta, co z kolei pozwoli im przeznaczyć więcej czasu na inne zadania.

Czytaj także:


