Sztuczna inteligencja coraz lepiej naśladuje człowieka. Potrafi imitować głos i twarz. Porządkuje wiedzę. Podpowiada pytania do wywiadu. Pomaga pisać, streszczać i planować. W audycji „Szkoła RUT” w Radiu Warszawa rozmowa zeszła jednak głębiej: AI nie zmienia już tylko sposobu pracy. Ona dotyka relacji międzyludzkich – a więc samego serca komunikacji.
Gościem prowadzącego Grzegorza Kozłowskiego byli Weronika Ostrowska i Kacper Kowalczyk. Wspólnie zastanawiali się, jak korzystać z AI mądrze, a gdzie trzeba powiedzieć „stop”.
„Dostałam trzy strony pytań”. Zachwyt i niepokój
Weronika opowiedziała o sytuacji z redakcji. Skarżyła się na nadmiar obowiązków. Ktoś zasugerował: „zrób wywiad z pomocą AI”. Pojawił się sceptycyzm, bo przecież pytania w radiu powinny wynikać z myślenia, doświadczenia i wyczucia rozmówcy.
Test zadziałał zaskakująco dobrze. Po precyzyjnym poleceniu AI wygenerowała kilka stron sensownych pytań. I właśnie to – zamiast ulgi – wywołało niepokój.
Weronika zobaczyła ryzyko uzależnienia się od „gotowców”. Dziennikarz może wpaść w tryb: „przychodzę na gotowe”. Wtedy nie rozwija warsztatu. Traci wewnętrzną czujność. Z czasem może już nie umieć przygotować rozmowy samodzielnie. Pojawia się też pytanie o tożsamość: czy dziennikarz jeszcze tworzy, czy tylko odtwarza?
Narzędzie, nie autor. Kacper o pokorze wobec faktów
Kacper przyznał, że sam czasem sięga po AI. Traktuje ją jednak jak pomoc techniczną. Ma przyspieszyć dotarcie do informacji. Ma uporządkować plan działania. Nie ma zastępować myślenia.
Podkreślił dwie rzeczy:
- Nie ufa AI w stu procentach, bo widzi jej błędy.
- Nie podpisuje AI jako własnej pracy, bo to oszustwo wobec odbiorcy i wobec samego siebie.
W tej rozmowie wybrzmiała też prosta intuicja: jeśli oddajemy narzędziu kolejne kompetencje, sami je tracimy. To działa jak mięsień. Niećwiczony słabnie.
„Dobra AI” istnieje. Ale pod warunkiem ograniczeń
W audycji pojawił się ważny wątek z konferencji na Uniwersytecie Kardynała Stefana Wyszyńskiego. Naukowcy zwracali uwagę, że pozytywne wykorzystanie AI rośnie tam, gdzie:
- pracuje ona na ściśle określonej bazie danych,
- ma zawężony obszar wyszukiwania,
- dostaje konkretne, weryfikowalne pytanie.
Wtedy AI przypomina kalkulator. Liczy szybciej. Porządkuje materiał. Ułatwia pracę, ale nie przejmuje roli człowieka. To podejście zmniejsza też ryzyko manipulacji i „zlepiania” treści z niepewnych źródeł. I zmusza użytkownika do odpowiedzialności.
Papież Leon XIV ostrzega: ucieczka od myślenia osłabia człowieka
Rozmówcy odwołali się do orędzia papieża Leona XIV o komunikacji i sztucznej inteligencji. Padło zdanie, które stało się osią dyskusji: unikanie wysiłku własnego myślenia i zadowalanie się sztucznymi statystykami może osłabić zdolności poznawcze, emocjonalne i komunikacyjne.
W tym ujęciu problem nie dotyczy tylko technologii. Dotyczy człowieka. Jeśli oddamy AI:
- formułowanie pytań,
- porządkowanie myśli,
- budowanie narracji,
- rozeznawanie sensu,
to osłabimy siebie od środka. A konsekwencje dotkną również relacji.
„Świat luster”. AI karmi się nami i buduje rzeczywistość na nasz obraz
W audycji mocno wybrzmiał obraz „świata luster”. AI kataloguje nasze myśli, preferencje i reakcje. Potem buduje wokół nas środowisko dopasowane do nas. To brzmi wygodnie. Ale ma cenę.
Człowiek przestaje spotykać to, co inne. Traci konfrontację. Zamieszkuje w „bańce”, która potwierdza jego upodobania i emocje. W chrześcijańskim języku to wygląda jak pokusa: świat bez wysiłku, bez drogi, bez przekraczania siebie. Dojrzewanie wymaga spotkania z prawdą, która nie zawsze pasuje.
Samotność cyfrowa i rozmowy „z botem”
Prowadzący i goście wskazali zjawisko, które budzi szczególny niepokój: ludzie zaczynają traktować AI jak rozmówcę, a czasem jak przyjaciela. To nie jest już narzędzie do wyszukiwania. To substytut relacji.
Taki układ pogłębia samotność. Może też tworzyć fałszywe poczucie bezpieczeństwa, bo rozmowa z botem nie niesie ryzyka odrzucenia, konfliktu czy niezrozumienia. Tyle że bez tych elementów relacja nie dojrzewa.
W tle pojawia się pytanie fundamentalne: czy komunikacja bez twarzy i głosu drugiego człowieka pozostaje komunikacją w pełnym sensie?
Twarz i głos są nie do „skopiowania” w sensie moralnym
Wątek twarzy i głosu wracał kilka razy. Rozmówcy podkreślili, że to nie są tylko „dane”. To znaki osoby. Należą do konkretnego człowieka. Budują zaufanie. Niosą emocje, intencje i odpowiedzialność.
W internecie łatwo o nadinterpretację. Tekst nie ma tonu. Nie ma spojrzenia. Nie ma gestu. I dlatego tak łatwo o kłótnię, agresję i spiralę konfliktu. AI, która coraz lepiej symuluje człowieka, może ten chaos spotęgować – bo utrudni rozpoznanie, kto naprawdę mówi.
Jak korzystać z AI, żeby nie stracić siebie
Z rozmowy „Szkoły RUT” wyłania się kilka praktycznych wskazań:
- Traktuj AI jako wsparcie, nie jako autora.
- Weryfikuj fakty i źródła.
- Nie oddawaj AI zadań, które budują twój warsztat (myślenie, pisanie, układanie pytań od zera).
- Ustaw granice prywatności w aplikacjach: ogranicz archiwizowanie danych i personalizację.
- Dbaj o spotkania twarzą w twarz – bo tam rodzi się prawdziwa rozmowa, odpowiedzialność i wspólnota.
Kościół pyta nie tylko „czy”, ale „jak” i „po co”
W finale audycji pojawiła się nadzieja. Kościół nie musi mieć interesu w napędzaniu technologii. Może natomiast stawiać pytania o godność człowieka, sens relacji i prawdę.
Rozmówcy podkreślili, że nie uciekniemy od AI. Dlatego kluczowe nie brzmi „czy korzystać”, ale „jak korzystać, żeby pozostać człowiekiem”.
I tu pada najmocniejsze zdanie całej rozmowy: gdy zostają tylko człowiek i sztuczna inteligencja, znika przestrzeń spotkania, w której buduje się wspólnota. A bez wspólnoty wiara i życie społeczne tracą tlen.
Pozostaje więc proste wezwanie: wrócić do rozmowy. Do twarzy. Do głosu. Do obecności. Do człowieka.
Tekst: Grzegorz Kozłowski
Źródło zdjęcia głównego: pngtree






