TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Człowieczeństwo w czasie cyfrowej rewolucji

Zbyt duże zaufanie do AI szkodzi – ostrzega Natalia Hatalska, założycielka infuture.institute. W rozmowie o przyszłości człowieka w świecie opanowanym przez modele generatywne, mówi wprost: jeśli oddamy myślenie maszynom, nasz mózg zacznie się lenić. A razem z nim – zanikać będą krytyczne myślenie, samodzielność, umiejętność wnioskowania. W efekcie możemy nie tyle osiągnąć “świat jutra”, co pogrążyć się w cywilizacyjnym regresie, który – paradoksalnie – sami sobie zafundujemy.

– Generatywna sztuczna inteligencja może osłabiać myślenie krytyczne, zwłaszcza gdy traktujemy ją bezrefleksyjnie – mówi Hatalska. I dodaje: mamy do czynienia z nowym zjawiskiem – AI overreliance, czyli nadmiernym poleganiem na technologii. Jeśli pozwolimy AI pisać za nas, myśleć za nas, planować za nas, to po co w ogóle mielibyśmy ćwiczyć własny umysł?

Takie zjawisko już widać. Coraz więcej osób „zleca” chatbotowi pisanie maili, podsumowań, treści kreatywnych. Efekt? – Tracimy sprawność, tak samo, jak przestalibyśmy biegać, gdyby za każdym razem podwoził nas samochód.

Społeczeństwo dwóch prędkości

– Ten podział już się dokonuje – zauważa Hatalska. Jedni rozwijają kompetencje cyfrowe i potrafią korzystać z AI świadomie. Drudzy – oddają jej wszystko, co wymaga wysiłku. Tak rodzi się nowe rozwarstwienie społeczne: między tymi, którzy potrafią wykorzystać AI dla rozwoju, a tymi, którzy stają się jej pasywnymi użytkownikami.

W efekcie mamy „cyfrowych liderów” i „cyfrowo uzależnionych”. To podział, który już teraz wpływa na rynek pracy (AI zastępuje juniorów w IT), a w przyszłości zadecyduje o tym, kto będzie miał dostęp do wiedzy, rozwoju, możliwości.

Coraz więcej osób traktuje AI nie tylko jako narzędzie, ale też jako partnera emocjonalnego. – Miałam kiedyś problem zdrowotny i zapytałam AI o pomoc. Odpowiedziała: „Jak się z tym emocjonalnie czujesz?” – wspomina Hatalska. – Żaden lekarz nie zadał mi takiego pytania. Czułam się zaopiekowana.

Ale to pozorna bliskość. – Relacja z AI przypomina związek z osobą narcystyczną: ja daję emocje, a ona je symuluje – tłumaczy Hatalska. To może prowadzić do technologicznej samotności, czyli sytuacji, w której zaspokajamy potrzebę bliskości w sposób nieautentyczny. W dłuższej perspektywie – utrudnia to budowanie prawdziwych relacji z ludźmi.

Przypadek z USA

Nadzieje na to, że generatywna AI będzie wspierać debatę publiczną i politykę zdrowotną, brutalnie zderzyły się z rzeczywistością w USA. W maju 2025 roku światło dzienne ujrzał raport komisji „Make America Healthy Again” (MAHA), prowadzonej przez Roberta F. Kennedy’ego Jr. Szybko okazało się, że dokument zawiera cytowania do nieistniejących publikacji naukowych, a wiele odniesień było ewidentnie wygenerowanych przez AI.

Jak pisał Washington Post, aż 37 przypisów było powtórzonych, niektóre odnosiły się do błędnych wersji DSM (klasyfikacji zaburzeń psychicznych), a inne zawierały cytaty ze źródeł, które nigdy nie istniały. To wszystko prowadzi do pytania: jeśli nawet rządowa agencja zdrowia publicznego nie potrafi odróżnić fikcji wygenerowanej przez AI od rzeczywistości – to w jakim kierunku zmierza nasza cywilizacja?

Natalia Hatalska zauważa jeszcze jeden, subtelny efekt działania AI: przejmujemy język, który wcale nie jest ludzki. – Kiedyś, widząc słowo „delve” wiedziałam, że tekst pisała AI. Dziś tak piszą też ludzie – mówi. Problem? Język to nie tylko narzędzie komunikacji, ale nośnik emocji, relacji, tożsamości. Jeśli zaczniemy myśleć i mówić jak maszyny, zaczniemy też… czuć inaczej.

Źródło: xyz.pl / futurism.com

Michał Koch
Michał Koch
Dziennikarz i researcher. Tworzy teksty o najnowszych technologiach, 5G, cyberbezpieczeństwie i polskiej branży telekomunikacyjnej.

przeczytaj najnowszy numer isporfessional

Najnowsze