Social media, AI, patostreamy i cyfrowe granice: rozmowa z Wojtkiem Kardysiem

Social media, AI, patostreamy i cyfrowe granice: rozmowa z Wojtkiem Kardysiem

Cyfrowa codzienność stała się dla wielu z nas czymś tak oczywistym, że przestaliśmy zauważać jej wpływ na głowę, emocje i relacje. Social media miały łączyć, inspirować i otwierać świat, a stały się przestrzenią, w której wiele osób po prostu… znika. Straciliśmy czujność. A może brak nam świadomości? Jedno jest pewne: potrzebujemy cyfrowej tarczy. Musimy wiedzieć, jakie czyhają na nas zagrożenia i co  robić, by chronić siebie oraz dzieci.

W najnowszym podcaście gościem Alicji Sękowskiej, prowadzącej Well Be Stories, jest Wojciech Kardyś, jeden z najbardziej doświadczonych ekspertów w dziedzinie komunikacji internetowej, social mediów, digital marketingu i personal brandingu, autor książki „Homo Digitalis. Jak internet pożera nasze życie?”.

Czy potrzebujemy cyfrowej tarczy?

Wojciech Kardyś w szczerej rozmowie o technologii, uzależnieniu, dzieciach w trybie online i cyber świecie, który coraz mocniej wciąga, rozpoczyna od odpowiedzi na najważniejsze pytania: czy zdajemy sobie sprawę, jak bardzo technologia przenika nasze życie? Czy wiemy, że potrzebujemy tarczy ochronnej?

— Muszę przyznać, że ludzie w Polsce są niezwykle zainteresowani tematami związanymi z social mediami i z cyberzagrożeniami. Szukają tarczy, chcą zrozumieć zagrożenie.

Social media: od zachwytu po uzależnienie

Kiedyś social media były oknem na świat, dziś często stają się klatką, w której spędzamy wiele godzin.

— Przez długi, długi czas odbieraliśmy social media jako coś wspaniałego. Tyle tylko, że one zaczęły nas pochłaniać, pożerać, uzależniać. Spędzamy w nich około 7 godzin dziennie. Stoisz w kolejce, jedziesz w tramwaju i sobie scrollujesz… A wszyscy wokół robią to samo.

Czytaj: Wojciech Kardyś o tym, jak internet, social media i AI wpływają na życie

Homo Digitalis: nowy typ człowieka

Współczesny człowiek bardziej ufa mapie Google niż własnej pamięci, bardziej ceni reakcje online niż rozmowy twarzą w twarz. To portret pokolenia zapatrzonego w ekran.

— Kim jest Homo Digitalis? To osoba, która przestała patrzeć w gwiazdy i zwróciła się w stronę sześciocalowego, ciekłokrystalicznego ekranu. To osoba, która zawierza technologii, nie trafi bez niej trafić do innego miasta. Kiedy chce poznać kogoś nowego, instaluje aplikację. Homo Digitalis to osoba samotna, wyalienowana, która bez technologii nie wie, co zrobić.

Mózg w erze technologii ubieralnej: second brain czy uzależnienie?

Już teraz żyjemy w świecie technologii ubieralnej. Smartwatche, smart ringi, inteligentne okulary to tylko początek. Wkrótce będziemy korzystać z urządzeń, które będą z nami od momentu, gdy wstaniemy z łóżka, aż do pójścia spać.

Nie będziemy sięgać po smartfon – technologia będzie nas otaczać, stanie się wręcz wklejona w naszą rzeczywistość. To rodzi pytanie: czy naprawdę chcemy być stale podłączeni do sieci? Czy chcemy, by mózg, wyręczany przez aplikacje i asystentów AI, przestał pracować?

— Badania pokazują, że coraz częściej mamy do czynienia ze spadkiem zdolności koncentracji, analitycznego myślenia i rozumienia tekstu. Często czytając książkę umysł błądzi, bo brakuje bodźców i dopaminy, które dostarczają social media.

W świecie ubieralnej technologii i implantów typu Neuralink mózg może stać się „second brain” – zewnętrzną pamięcią, która przechowuje informacje, przypomina o zadaniach, rekomenduje filmy czy książki. To wygodne, ale i kosztowne: jeśli przestaniemy ćwiczyć umysł, szlaki neuronalne mogą zaniknąć, a zdolność samodzielnego myślenia osłabnie.

— Mózg, podobnie jak mięśnie, potrzebuje treningu. Jeśli przestajemy go używać, traci sprawność. Wyobraźmy sobie osobę za 10 lat, która całe życie polegała na technologii i nagle zostaje jej pozbawiona: może czuć się kompletnie bezradna.

To ostrzeżenie: technologia powinna wspierać, nie zastępować umysł. Świadome korzystanie z narzędzi cyfrowych to klucz do zachowania równowagi między wygodą a sprawnością intelektualną.

Czytaj: Kryzys dopaminowy i uzależnienie od dopaminy: jak odzyskać równowagę

Dlaczego rodzice często nie wiedzą, co robią ich dzieci w sieci?

To jeden z najmocniejszych fragmentów rozmowy. Wojciech Kardyś pokazuje, dlaczego „bezpieczny pokój nastolatka” jest dziś mitem — i jak niewidzialne stają się zagrożenia, których dorośli po prostu nie znają.

— To nie jest tak, że rodzice  nie chcą wiedzieć, tylko nie mają czasu lub świadomości. Doskonale obrazuje to serial „Adolescence”. W 4. odcinku zapłakana matka mówi: „Myślałam, że jak mój syn przychodzi ze szkoły i zamyka się w swoim pokoju, to jest bezpieczny”. Tyle tylko, że teraz mamy takie czasy, że każdy — mając smartfon, komputer — ma dostęp do wszystkiego. Możemy zakładać filtry rodzicielskie, ale dzieciaki są kreatywne.

 

Dlatego jeśli zamykamy dziecko w pokoju i nie interesujemy się, co robi, to pozwalamy na wszystko. To tak jakby rodzic wszedł do pokoju i powiedział: Dzięki, że zjadłeś z nami kolację. Tu masz smartfon i dostęp do 15000 godzin porno, tak że jak chcesz, możesz sobie obejrzeć. Tutaj jest rosyjski troll, który cię będzie dezinformował.  A tutaj będzie oszust, który będzie cię chciał oszukać. Miłej nocy. Baw się dobrze na smartfonie.

Czytaj: Mindful parenting w erze technologii. Jak wychowywać dzieci z uważnością?

Co robić? Otworzyć drzwi. Zacząć rozmawiać, żeby rozumieć dzieci, ale i ich język.

—  To ważne, by dzieci zaprosiły nas do swojego świata. Byśmy mogli zrozumieć je, ale i o czym mówią. To może być trudne — dlaczego? Ponieważ młodzi mają swój język, inaczej się socjalizują, inaczej funkcjonują. Nie spotykają się tak jak my, na podwórku przy kałuży, by poplotkować o Magdzie z 5B. Oni rozmawiają w sieci, grając jednocześnie w Fortnite, Counter Strikea czy Robloxa, przeplatając pytania o pracę domową ze wskazówkami, jak przejść na kolejny poziom gry.

Czytaj: Mindful parenting w erze technologii. Jak wychowywać dzieci z uważnością?

Gdy rodzic traci dziecko na rzecz TikToka

Ten fragment porusza jeszcze mocniej, ponieważ jest historią, która mogłaby wydarzyć się w niemal każdym domu. Kardyś opowiada o zrozpaczonej matce, której córka zamknęła się w cyber świecie oraz sposobie, w jaki udało się odzyskać relację.

— Podeszła do mnie zapłakana mama… Mam córkę, ona ma 14 lat i spędza na TikToku każdą wolną chwilę… I co zrobić? (…) Poradziłem jej, żeby zapukała do pokoju i zapytała, czy może nagrać z nią TikToka… Po dwóch tygodniach dostaję informację, że udało się. Nagrały filmik, a to sprawiło, że lody zostały przełamane, córka otworzyła się i zaprosiła mamę do swojego świata.

Czytaj: Kryzys dopaminy i uzależnienie od dopaminy. Przyczyny i objawy problemu

Pato streamy: zasięg, beka i toksyczna męskość

Jeszcze kilka lat temu YouTube był miejscem kreatywnym. Dominowały kanały edukacyjne, naukowe, inspirujące. Teraz króluje kontrowersja, emocjonalność i „zaoranie” przeciwnika.

Social media nie są neutralne: zostały zaprojektowane tak, by wykorzystywać różne mechanizmy behawioralne: scrollujemy, bo nie wiemy, co nas czeka, a  mózg nagradza niepewność.

Współczesne media społecznościowe stały się areną, na której młodzi ludzie uczą się norm społecznych, wartości i sposobów wyrażania emocji. Niestety, nie wszystkie wzorce są pozytywne – coraz częściej w sieci dominują treści promujące agresję, przemoc i toksyczne wzorce zachowań.

Szczególnie niepokojące są patoinfluencerzy, którzy zdobywają ogromne zasięgi, a ich działalność ma realny wpływ na młodzież. Pato streamy w Polsce ogląda co piąte dziecko — to dane z raportu „Nastolatki 3.0” z 2025 roku. W rzeczywistości może być ich nawet więcej, bo nie każdy przyzna się do takiego nawyku.

Czytaj: Odpocznij od ekranu i zrób cyfrowy detoks. Sprawdź, dlaczego warto

Dla wielu młodych ludzi to codzienność: spędzają czas przy osobach, które przeklinają, biją i upokarzają innych, a mimo to przyciągają ich uwagę.

— Najbardziej znani patostreamerzy nie są idolami w klasycznym sensie. Śledzi się ich dla dramy i „beki”, by zobaczyć, co znowu zrobią. Algorytmy social mediów kochają emocje: im większe oburzenie, tym więcej interakcji i zasięgu. W ten sposób dramat staje się walutą, a kontrowersja — siłą napędową popularności.

Jednak to zjawisko ma ciemną stronę. Patoinfluencerzy często utrwalają toksyczne wzorce zachowań, w tym radykalną męskość i pogardę wobec kobiet. W świecie gwałtownej emancypacji, w którym kobiety zaczęły walczyć o swoje prawa, niektórzy młodzi mężczyźni czują się zagubieni. W efekcie szukają osób i treści, które pozwolą im wyładować frustrację — i tu wchodzą patostreamerzy.

— Oglądanie przemocy, upokorzeń czy obrażania kobiet może prowadzić do radykalizacji. Historie młodych ludzi pokazują, że kontakt z takimi treściami może utwierdzać w przekonaniu, że przemoc wobec kobiet jest akceptowalna.

Rodzice często nie zdają sobie sprawy, z jakimi wzorcami stykają się ich dzieci, a system społeczny i kampanie edukacyjne skupiają się raczej na fake newsach czy hejcie w internecie niż na realnych zagrożeniach, jakie niosą patostreamy.

Patostreamy to zatem zjawisko nie tylko rozrywkowe. To realny problem społeczny, który łączy toksyczną męskość, radykalizację młodzieży i seksualizację młodych użytkowników. Rozmowa o nich jest dziś ważniejsza niż kiedykolwiek.

— Wracając do kwestii świadomości społecznej, mam ogromny problem z tym, że władza i fundacje skupiają się głównie na walce z fake newsami czy hejtem, co oczywiście jest ważne, ale… dlaczego nie poświęca się tyle uwagi patoinfluencerom? Dlaczego freak fighty osiągają tak dużą popularność, niemal poziom mainstreamowy?

 

Sam widziałem billboardy w Warszawie reklamujące walki na Stadionie Narodowym. Dlaczego nie mówi się głośno o toksycznej męskości? Dlaczego nie prowadzi się kampanii edukacyjnych na ten temat? To problemy naprawdę palące, które wymagają natychmiastowej uwagi.

Czytaj: Jak przestać porównywać się w social mediach i odzyskać spokój? Da się!

Seksualizacja młodych użytkowników: mechanizmy i konsekwencje

Social media coraz częściej stają się przestrzenią, gdzie wartość mierzy się popularnością i zasięgami, a nie treścią czy intelektem. Algorytmy nagradzają kontrowersję, emocje i seksualizację, a młode osoby szybko uczą się, że aby zaistnieć, muszą przyciągać uwagę w sposób najbardziej powierzchowny.

To sprawia, że dzieci i nastolatki często kopiują wzorce zachowań, które obserwują w sieci, nieświadomie wchodząc w toksyczny mechanizm autopromocji oparty na ciele, a nie na wiedzy czy kreatywności.

Czytaj: Dzieci i młodzież a sztuczna inteligencja: zagrożenia i bezpieczne granice. Jak wprowadzać młodych w świat AI?

Dziewczynki uczą się, że jedyną drogą do popularności w social media jest eksponowanie ciała. Algorytmy nagradzają kontrowersję i seksualizację, marginalizując wartość intelektualną czy kreatywną.

— Dlaczego się nie mówi o seksualizacji dziewczynek i kobiet. To jest też ogromnie palący problem, bo dziewczynki zauważyły, które chcą być popularne, a kto nie chce być w wieku 13, 14, 15 lat popularny, że jedyną drogą do popularności w social media to trzeba się rozebrać, bo jak się rozbierze, nie, że wartość intelektualna, ale wartość cielesna. Im bardziej się dziewczynka rozbierze, im bardziej przypakowany będzie chłopiec – tym większy zasięg. A zasięg jest walutą.

Algorytmy podbijają treści, które mają bardzo duże zaangażowanie w ciągu pierwszej godziny lub dwóch od publikacji. Więc kiedy dziewczyna jest w bardzo dwuznacznej pozycji albo dwuznacznie ubrana i mówi coś tam albo tańczy, to jest podbijane przez algorytm, bo dużo osób to lajkuje, komentuje i tak dalej.

— Młode osoby zauważają, że jedyną formą, żeby wypromować swoje konto w tematach intelektualnych, na przykład czytania książek, jest przeczytanie książki w… bieliźnie. To jest jedyna opcja. No nie ma nic innego.

Czytaj: Jak korzystać z AI w pracy, by nie zatracić siebie? Przewodnik świadomego użytkownika

Skąd w nas ślepa wiara w internet

Internet stał się miejscem, któremu często ufamy bardziej niż własnej analizie. Wpadamy w rytm krótkich form, które błyskawicznie przyciągają uwagę i jeszcze szybciej uzależniają. To mechanizm, z którego trudno się wyrwać, zwłaszcza gdy algorytmy karmią nas treściami skrojonymi pod nasze słabości. Oddaliśmy kontrolę tym bodźcom, stąd tak rzadko zadajemy pytanie: „dlaczego?”.

— Cały czas scrollujemy i oglądamy TikToki. Statystycznie Polacy spędzają na TikToku 19 godzin miesięcznie, a dziewczynki w wieku 7–14 lat aż 50 godzin w miesiącu (tj. 2 dni non stop).

Zawierzyliśmy, ale i uzależniliśmy się od internetu, zwłaszcza Instagrama i TikToka, gdzie jest nacisk na krótkie filmy, czyli shortsy, które są uzależniające (dopamina skacze, spada, wiec szukamy jej strzału znowu).

W efekcie tracimy zdolność krytycznej analizy, bo zwyczajnie… nie mamy na nią czasu. A to prowadzi do ślepego zawierzenia temu, co widzimy w sieci.

Sztuczna inteligencja a codzienne decyzje

Coraz częściej pozwalamy, by algorytmy decydowały za nas — od wyboru filmu po produkty w sklepie online. AI nie tylko podpowiada, ale też subtelnie kształtuje nasze preferencje i nawyki, często bez naszej pełnej świadomości. To nie jest tylko kwestia wygody. Im częściej oddajemy decyzje maszynom, tym trudniej dostrzec własne schematy zachowań.

— Sztuczna inteligencja to nie jest tylko narzędzie. Ona kształtuje nasze życie, nasze decyzje. (…) Nawet nie zdajemy sobie sprawy, ile decyzji codziennie jest w jakiś sposób podejmowanych albo inspirowanych przez AI.

Social media a relacje międzyludzkie

Social media nas łączą, ale też wprowadzają presję. Codzienne scrollowanie, polubienia, komentarze  z jednej strony budują poczucie bliskości, z drugiej mogą kreować fałszywy obraz życia innych. To z kolei wpływa na nasze emocje, samoocenę i oczekiwania wobec bliskich.

— Media społecznościowe są jak lustro, które nie zawsze pokazuje prawdziwe odbicie. Pokazują życie w filtrach. I trzeba być świadomym, że to życie innych, nie zawsze nasze własne.

Kluczowe jest tu uważne korzystanie: wybieranie treści, które nas wspierają, oraz świadomość tego, ile czasu i energii poświęcamy na porównywanie się z innymi. To ma realny wpływ nie tylko na psychikę, ale też na jakość relacji – z partnerem, rodziną czy przyjaciółmi.

Czytaj: Chatbot jako terapeuta? Sprawdź, jak AI wspiera w psychoterapii. Na co uważać?

Jak chronić się przed oszustwami w internecie?

Internet daje nam nieskończone możliwości, ale niesie też ryzyko oszustw i manipulacji. Codziennie setki osób padają ofiarą wyłudzeń pieniędzy przez fałszywe wiadomości, telefony czy SMS-y podszywające się pod bliskich.

Najmłodsi, seniorzy czy mniej doświadczeni użytkownicy są szczególnie narażeni, dlatego warto już dziś wprowadzić proste, skuteczne zasady bezpieczeństwa w domu i wśród rodziny.

— Pierwszy krok to wprowadzenie hasła rodzinnego. Spotykamy się wszyscy przy stole wigilijnym, twarzą w twarz, nie przez telefon ani WhatsApp, i rozmawiamy o tym, że w sieci jest mnóstwo oszustw – ktoś może zadzwonić i powiedzieć, że został porwany, albo że potrzebuje pieniędzy, np. Blika na 100 zł. Ustalmy teraz jedno hasło przy tym stole np. Uwielbiam Kevina samego w domu.

Kiedy nagle przychodzi wiadomość od mamy: Córciu, straszna sytuacja, miałem wypadek, przelej mi 2000 zł, mogę od razu zapytać: Powiedz tylko hasło. Tata odpowiada: Kevin sam w domu, mówiliśmy o tym podczas Wigilii – wówczas sprawa jest jasna.

Wprowadzenie takiego prostego systemu w rodzinie pozwala uniknąć pochopnych decyzji i zabezpiecza przed oszustami, którzy liczą na emocjonalną reakcję. To niewielki wysiłek, który może ochronić nasze pieniądze i spokój ducha całej rodziny.

Czytaj: Wirtualna przyjaciółka AI: czy sztuczna inteligencja zastąpi relacje? Jak znaleźć balans między technologią a bliskością

Kradzież tożsamości: cyfrowa pułapka, której nie widać

Kradzież tożsamości to jedno z tych zagrożeń, które często wydają się abstrakcyjne, dopóki nie dotkną nas osobiście. Wystarczy chwila nieuwagi, słabe hasło lub powtarzanie tego samego hasła w kilku miejscach, a ktoś może „przejąć” naszą cyfrową obecność szybciej, niż zdążymy powiedzieć „login”. Problem dotyczy każdego – od nastolatków po seniorów – i wciąż pozostaje niedoceniany.

Najczęstszy błąd? Brak cyfrowej higieny i świadomości. Wyobraźmy sobie starszą panią, która loguje się na Facebooka hasłem „Grażyna123”. Dla oszusta to formalność – włamuje się, zmienia hasło i wchodzi w życie Grażyny. Zaczyna czytać jej wiadomości, poznaje styl pisania, a potem… podszywa się pod nią w kontaktach z bliskimi. W efekcie nagle syn dostaje wiadomość:

„Cześć synuś, znowu popsuł mi się telewizor. Przelej mi, proszę, 500 zł”. Syn, myśląc, że pisze mama, przelewa pieniądze. To jest klasyczny przykład kradzieży tożsamości – niepozorny, a bardzo skuteczny.

Czytaj: Sztuczna inteligencja w sporcie: czy AI zastąpi trenera? Testujemy trendy

Ale scenariusze bywają znacznie bardziej dramatyczne. Oszuści wykorzystują prywatne zdjęcia lub filmy z relacji romantycznych, stosują narzędzia AI i tworzą deepfake’i – filmy, w których czyjaś twarz zostaje podmieniona na ciało aktorki lub aktora z materiałów pornograficznych. Taka forma zemsty czy „żartu” może zrujnować życie i reputację ofiary.

 W ostatnich latach coraz bardziej znane i paraliżujace jest pojęcie pornrevenge – publikacji sfabrykowanych nagrań o charakterze seksualnym. Materiały, raz wrzucone do sieci, często krążą dalej, są kopiowane i wymieniane między platformami. Nawet jeśli uda się usunąć film z jednej strony, pojawia się on na kolejnej.

Nie brakuje głośnych przypadków młodych kobiet, które odkryły, że ich twarz znalazła się w takich filmach. Niekiedy nagrania dotarły do rodziny lub znajomych. Sprawcy bywali byli partnerzy albo internetowi „żartownisie”, a przeprosiny nie cofają szkód.

To właśnie te zagrożenia pozostają wciąż niedostatecznie nagłaśniane – zarówno w domach, jak i w szkołach. Rodzice i nauczyciele wciąż często nie zdają sobie sprawy, jak realne jest ryzyko kradzieży tożsamości i jak łatwo cyfrowy świat może wymknąć się spod kontroli.

Początki sztucznej inteligencji

Termin „sztuczna inteligencja” powstał już w latach 50. XX wieku, dzięki geniuszowi pewnego matematyka, który zapoczątkował nową erę badań nad maszynami naśladującymi ludzkie myślenie. Od tego czasu naukowcy nieprzerwanie eksplorują to, co dziś nazywamy AI:

— Od lat 50. zaczynamy eksplorować sztuczną inteligencję, czyli działania podobne do działań ludzkiego umysłu. Podobne, zgodne i które w jakiś sposób naśladują ludzkie myślenie.

Warto jednak podkreślić istotną różnicę: sztuczna inteligencja nie myśli jak człowiek. To, co widzimy w praktyce, to umiejętność generowania odpowiedzi w oparciu o ogromne zbiory danych i wytrenowane modele predykcji:

— To nie jest tak, że tak jak ja wiem, co mniej więcej chcę teraz powiedzieć, tylko on generuje dosłownie.

Przykład? ChatGPT, gdy pytamy go, jak zrobić naleśniki, nie „wie” w ludzkim sensie, co chcemy powiedzieć. On dobiera słowa sekwencyjnie tak, aby tekst był logiczny i spójny. To inteligencja słuszna, nie świadoma.

Geopolityka i regulacje sztucznej inteligencji

Rozwój AI jest nie do zatrzymania, a kierunek jej rozwoju determinuje nie tylko nauka, ale także geopolityka i biznes:

— Oczywiste względy to są względy choćby geopolityczne, względy komercyjne. Jeżeli Amerykanie zaczną regulować… to Chiny przyspieszą. Jeżeli Chiny zaczną regulować, to Amerykanie przyspieszą.

Europa podchodzi do AI regulacyjnie – w przeciwieństwie do Stanów Zjednoczonych czy Chin. Choć często słyszymy, że regulacje hamują innowacje, w rzeczywistości są one konieczne:

— Cieszę się, że są pewne regulacje, które w jakiś sposób ograniczają te możliwości AI, ale tego już się nie zatrzyma. W sensie nie da się zatrzymać tej technologii, bo ta maszyna już ruszyła.

Lobby bigtechowe w Brukseli jest potężne: na dwóch europarlamentarzystów przypada jeden lobbysta, co pokazuje skalę presji na przepisy ograniczające niekontrolowany rozwój AI.

Człowiek i AI – potencjał i zagrożenia

AI może być wsparciem, może przyspieszać procesy twórcze i wspierać pracę, ale niesie ze sobą realne zagrożenia. Świat obiegła historia nastolatka w spektrum autyzmu, która pokazuje, jak poważne mogą być konsekwencje niewłaściwego użycia AI:

— Chłopiec stworzył swoją własną przyjaciółkę i wolał z nią rozmawiać, niż z kimkolwiek innym, ponieważ lepiej go rozumiała. Niestety, ta historia miała dramatyczny finał, ponieważ młody człowiek się zastrzelił.

To przykład, dlaczego regulacje są tak ważne: młodzi ludzie powinni mieć ograniczony dostęp do pewnych funkcji AI.

A co ze strachem przed AI? Ta często wynika często z braku wiedzy:

— Boimy się tego, czego nie znamy. Musiałem poświęcić bardzo dużo czasu, żeby zrozumieć, o co w AI chodzi, dlaczego jest jaka jest i dzięki temu mój strach zmalał.

Poznanie narzędzi AI i zrozumienie ich działania jest kluczem do oswojenia technologii i wykorzystania jej potencjału.

Dezinformacja i weryfikacja informacji

AI zmienia sposób, w jaki konsumujemy treści i wyszukujemy informacje. Jednocześnie może zwiększać ryzyko dezinformacji:

— Może sprawić, że będzie o wiele większa ilość dezinformacji, ale jeżeli coś zostało stworzone przez AI, to my możemy wykorzystać AI, żeby to zwalczać.

Ważne jest świadome użycie narzędzi do weryfikacji faktów i sprawdzanie informacji w kilku źródłach, także z pomocą AI. To sposób na odpowiedzialne korzystanie z technologii i ochrona przed manipulacją.

Getto intelektualne i zagrożenia dla demokracji

Współczesne zagrożenia związane z internetem, technologią, AI dotyczą również wolności i sposobu, w jaki media oraz Big Techy kształtują opinię publiczną. Manipulacja algorytmami i masowe sterowanie kontami w mediach społecznościowych to poważna sprawa. Działania mogą na przykład zmieniać wynik wyborów i ograniczać realny pluralizm opinii:

— To co robią Big Techy, to jest zagrożenie dla naszej demokracji. Jeden człowiek, Mark Zuckerberg, może sprawić, że rządy mogą upaść.

Jednocześnie prosty, emocjonalny przekaz, często wulgarny lub kontrowersyjny, trafia do mas i może manipulować opinią publiczną. To właśnie tworzy „getto intelektualne” – izolację informacyjną, w której jednostka otrzymuje tylko selektywny obraz rzeczywistości.

Digital wellbeing w codziennej rutynie

Świadomość wpływu internetu i social mediów na nasze życie to dopiero pierwszy krok. Kolejny to wprowadzenie praktycznych zasad digital wellbeing w codzienną rutynę. Małe zmiany mogą dać wielki efekt: od prostych technik po świadome zarządzanie czasem online.

— Nie chodzi o odcięcie się od technologii, ale o to, by korzystać z niej z głową. To jak z ogniem: może ogrzać albo poparzyć.

Warto zacząć od małych kroków: wyznaczyć czas bez ekranów, ograniczyć powiadomienia, wybierać wartościowe treści i świadomie scrollować. Liczy się nie ilość, ale jakość czasu spędzanego online. Dzięki temu poprawia się koncentracja, kreatywność i relacje w realnym świecie.

Świadome korzystanie z internetu to także umiejętność rozpoznawania własnych potrzeb i emocji – kiedy scrollowanie przestaje cieszyć, warto zrobić krok w tył i zadbać o równowagę. Nawet kilka minut dziennie offline może przynieść spokój i poczucie kontroli.

Digital wellbeing to nie rezygnacja z technologii, lecz mądra strategia, która pozwala zachować zdrowy balans między światem online a offline. To inwestycja w komfort psychiczny, lepszą jakość życia i głębsze, bardziej wartościowe relacje.

Świadome korzystanie z internetu to pierwszy krok do odzyskania równowagi w cyfrowym świecie. Chcesz wiedzieć, jak chronić siebie i bliskich przed zagrożeniami social mediów, AI i patostreamów? Posłuchaj najnowszego podcastu z Wojciechem Kardysiem i odkryj praktyczne sposoby na cyfrowy wellbeing.

Jeśli masz ochotę na więcej interesujących, inspirujących, mądrych rozmów, zanurz się w świecie Well Be Stories – przestrzeni pełnej rozmów o ciele i duszy, emocjach, bliskości i sztuce odpuszczania. Poruszamy tematy self-care, intuicyjnego jedzenia, radzenia sobie z lękiem i wypaleniem oraz nawyków, które naprawdę wspierają codzienność. To miejsce dla tych, którzy chcą żyć uważniej, łagodniej i po swojemu. Usiądź wygodnie, weź głęboki oddech i pozwól sobie na chwilę spokoju.

 

 

 

Youtube: z0PmKpgJKMw?si=vfUu60MrGCbXFhWB

Powiązane artykuły




Zostaw komentarz




Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze video




Polecane