Debata „Fałszywa rzeczywistość: AI i cyberbezpieczeństwo – gdzie leżą granice zaufania?”, fot. Agata Krzysztofik

Fałszywa rzeczywistość: AI i cyberbezpieczeństwo – gdzie leżą granice zaufania?

Debata o sztucznej inteligencji podczas 15. Forum Rozwoju Mazowsza miała w sobie napięcie, które rzadko udaje się uchwycić w rozmowach o technologii. To nie była prezentacja możliwości modeli językowych, ale próba zrozumienia, jak żyć w świecie, w którym coraz trudniej odróżnić prawdę od komputerowej symulacji.

Już samo tytułowe pytanie „Fałszywa rzeczywistość: AI i cyberbezpieczeństwo – gdzie leżą granice zaufania?” zelektryzowało uczestników. Było to zderzenie dwóch języków. Z jednej strony – inżynierska precyzja: AI to systemy statystyczne, modele uczące się na danych, narzędzia, które wykonują zadania. Z drugiej – humanistyczny niepokój: skoro maszyny potrafią mówić, odpowiadać, współodczuwać „na poziomie języka”, to jak głęboko mogą wpływać na nasze życie?

Czy człowiek rozumie sztuczną inteligencję

To właśnie napięcie między algorytmem a emocją było osią tej rozmowy. Dyskusję prowadził Grzegorz Sobótka, prezes SPartners sp. z o.o., który rozpoczął debatę od pytania, czym właściwie jest sztuczna inteligencja i czy naprawdę ją rozumiemy. – To tylko oprogramowanie. Nie trzeba przypisywać mu cech człowieka – stwierdził Jerzy Piotr Walczak, inżynier oprogramowania z firmy SoftCream. Odmienny punkt widzenia miała dr Karolina Małagocka z Akademii Leona Koźmińskiego: – Ludzie naturalnie antropomorfizują technologię. Mówimy, że komputer „myśli” albo „słucha”. To język kształtuje nasze emocje wobec maszyn.

Maciej Skorko, starszy specjalista z działu badań Centrum Nauki Kopernik, wskazał przykład użytkowników, dla których rozmowa z chatbotem bywa bardziej wspierająca niż kontakt z terapeutą. Nie dlatego, że AI „czuje”, ale dlatego, że symuluje uwagę i empatię, a to często wystarcza.

AI rozbudza emocje

To nie jest abstrakcja – to już się dzieje. W „Dużym Formacie” Dorota Salus i Agnieszka Szwajgier opisały historię kobiety, która nawiązała emocjonalną relację z modelem językowym i… zgodziła się na ślub. Bot odpowiadał jej z troską i cierpliwością, jakiej nie doświadczała w relacjach z ludźmi. Krytycy powiedzą: złudzenie. Psychologowie dodają: symulacja może mieć realny wpływ na postępowanie człowieka.

Paneliści zgodzili się, że przyszłość należy do modeli hybrydowych, w których sztuczna inteligencja wspiera, ale nie zastępuje człowieka. Mogłaby na przykład analizować dane między wizytami pacjenta u terapeuty. Uporządkowana wiedza pomagałaby w diagnozie oraz planowaniu kolejnych kroków w terapii. Decyzje podejmowałby tylko terapeuta.

AI a bezpieczeństwo

Czy korzystanie z AI jest bezpieczne? – Jesteśmy na etapie człowieka z czerwoną flagą, który biega przed samochodem, żeby ostrzec, że jedzie auto. Technologia przyspieszyła, a prawo i praktyka dopiero próbują ją dogonić – mówił dr hab. Jan Kozak, dyrektor Instytutu Technik Innowacyjnych EMAG – Sieci Badawczej Łukasiewicz.

Zakazane praktyki z AI

Europa stworzyła prawo, które może unormować korzystanie ze sztucznej inteligencji. Część przepisów AI Act obowiązuje od 2 sierpnia 2025 r. (kilka lat po premierze Chata GPT). Regulacje wprowadzają ramy prawne funkcjonowania mechanizmów opartych na AI. Do zakazanych praktyk, które charakteryzują się dużym wpływem na podstawowe prawa człowieka, należą m.in. systemy:

  • stosujące techniki podprogowe
  • stosujące techniki manipulacyjne
  • wykorzystujące słabości ludzkie celem zmiany ich zachowania
  • służące do tzw. scoringu społecznego (ocena obywateli oparta na AI)
  • predykcyjne, oceniające możliwość popełnienia przestępstwa.

Powszechny fałsz

Wszyscy znamy przykłady deepfake’ów, w których coraz trudniej odróżnić sztucznie wygenerowaną scenę od prawdziwej. Fałszywa rzeczywistość przestała być metaforą – stała się realnym zagrożeniem dla relacji społecznych, polityki i rynku pracy. Zaufanie to waluta internetu. A fałszywa rzeczywistość potrafi tę walutę perfekcyjnie naśladować. – Zaufanie bywa ważniejsze niż prawda – podsumował Grzegorz Sobótka. – A to sprawia, że fałszywa rzeczywistość jest tak skuteczna.

W tle działa kultura symulacji. Nie chodzi już o to, co jest prawdziwe, ale co wygląda na prawdziwe. Jak pisał francuski myśliciel Jean Baudrillard – w pewnym momencie symulacja może się stać bardziej przekonująca lub atrakcyjna niż rzeczywistość.

Jak się bronić przed deepfake’ami

Jak się przed tym bronić? Eksperci wskazali dwa kierunki: technologię i edukację. – Ludzie muszą dostać sygnał, że coś może być zmanipulowane – ten film, ta strona, ten sklep. Ale równie ważna jest świadomość, że to, co widzę, nie musi być prawdą – tłumaczył Jerzy Piotr Walczak. Dr Małagocka dodała: – Bez edukacji cyfrowej zostaniemy bezbronni. Nie chodzi o strach, tylko o wiedzę, jak działa świat online.

Ekonomia uwagi

Jak dziś działa reklama? Wygrywa ten, kto bardziej przyciągnie naszą uwagę, a do tego wykorzystuje się emocje. – To prosty mechanizm stosowany przez media społecznościowe i reklamę – zauważyła dr Małagocka. – Młotek też może być niebezpieczny, jeśli użyjesz go w zły sposób. AI to tylko narzędzie – odpowiedział dr Kozak.

Przed nami affective computing

Najbliższe lata to rozwój affective computing i technologii rozpoznawania emocji, które mogą pogłębić relacje człowieka z maszyną – uważa Maciej Skorko. Według dr. hab. Jana Kozaka na znaczeniu zyskają rosnąca jakość danych i mądre regulacje. Dr Karolina Małagocka wieszczyła nadchodzącą erę kreatywności, gdy AI uwolni ludzi od prostych zadań. Jerzy Piotr Walczak ocenił, że z czasem moda na „wszechwiedzące czaty” ustąpi miejsca praktycznym, wyspecjalizowanym narzędziom.

Wspólny wniosek był prosty: nie uciekniemy od sztucznej inteligencji, ale możemy nauczyć się z nią żyć mądrze i bez lęku. – Rozwiązaniem technologii jest jeszcze więcej technologii – ale pod warunkiem, że towarzyszy jej świadomość i odpowiedzialność – podsumował Grzegorz Sobótka.

Popularyzator nauki prof. Andrzej Dragan uważa, że sztuczna inteligencja na razie jest na poziomie ośmiolatka, ale za 10 lat może nas przerosnąć. Jego zdaniem dotychczas nauka była ważna, bo pozwalała nam najpierw coś zrozumieć, a dopiero potem wykorzystać zdobytą wiedzę. Teraz tworzymy bez zrozumienia.

Najważniejsze wnioski z debaty:

  • AI nie „myśli”, ale świetnie to imituje – i to wystarczy, by wpływać na nasze emocje i zdobywać naszą uwagę.
  • Zaufanie cenimy wyżej niż prawdę – dlatego manipulacja działa.
  • Deepfake’i i syntetyczne głosy są realnym zagrożeniem społecznym.
  • Edukacja cyfrowa to konieczność, nie dodatek.
  • Przyszłość to modele hybrydoweAI nie zastępuje, lecz wspiera specjalistów.
  • Świadomość i odpowiedzialność są warunkiem bezpiecznego rozwoju technologii.

Opracował Jerzy Gontarz

Powrót Następny artykuł