Inspiracją do tego eseju był artykuł Piotra Hellera opublikowany 20 marca 2026 roku w „Frankfurter Allgemeine Zeitung” pod tytułem „Denkt hier noch jemand selbst?” Heller stawia w nim pytanie o skutki delegowania myślenia na maszyny — w szkołach, na uczelniach i w życiu codziennym. Kilka zawartych tam obserwacji uznałem za dogodny punkt wyjścia do szerszych refleksji.
AI jako narzędzie czy substytut?
Sztuczna inteligencja staje się problemem wtedy, gdy zastępuje myślenie — i świetnym narzędziem, gdy je porządkuje i pod kontrolą wspiera. Zdanie to trafnie ujmuje istotę sporu o sztuczną inteligencję. Nie chodzi w nim o technologię samą w sobie, lecz o sposób jej używania przez ludzi.
Każde narzędzie — od najprostszych wynalazków po najbardziej zaawansowane systemy — może wzmacniać ludzką sprawczość albo ją osłabiać. Granica przebiega nie w maszynie, lecz w człowieku, jej użytkowniku.
W tym sensie obecna debata nie jest niczym nowym. Historia techniki to zarazem historia nieufności wobec nowości. Każda kolejna innowacja, zwłaszcza wprowadzająca przełom technologiczny, budziła opór. Towarzyszył temu zawsze ten sam dylemat — między twórczym wykorzystaniem narzędzia a obawą, że odbierze ono człowiekowi autonomię, często wraz ze źródłem utrzymania. Niszczenie maszyn jako konkurencji dla człowieka ma swoją historię. Jeszcze nie tak dawno sami rozważaliśmy, czym grozi używanie internetu…
Kreatywność i nieufność wobec nowości
Dylemat ten szczególnie wyraźnie dotyka ludzi zajmujących się pracą intelektualną. Twórczość oznacza bowiem nieustanne wychodzenie poza to, co zastane, ustalone i oswojone. Wymaga wysiłku, ryzyka i gotowości do formułowania myśli, które nie zawsze są oczywiste ani wygodne. Nie zawsze też wiodą do prostego zysku czy powszechnej użyteczności. Często wręcz z nimi kolidują.
Nie każdy chce — lub potrafi czy odczuwa potrzebę — funkcjonować w takim trybie. Stąd bierze się ambiwalentny stosunek do nowości. Dla jednych jest ona impulsem do działania, dla innych źródłem niepokoju. W skrajnych przypadkach prowadzi to do odrzucenia tego, co nowe, jako zagrożenia dla ustalonego porządku, mającego wprawdzie swoje wady, ale oswojonego.
Ilustracją tego lęku przed bezduszną, ztechnicyzowaną nowoczesnością może być przedstawienie, które weszło do zbiorowej wyobraźni jeszcze przed epoką cyfrową. Myślę o słynnej scenie z taśmą montażową w „Modern Times” Charliego Chaplina z 1936 roku. Chaplin nie protestował przeciwko maszynie jako takiej — pokazywał, co dzieje się z człowiekiem, gdy maszyna narzuca mu rytm i odbiera kontrolę nad własnym ciałem.
Linia między narzędziem wspomagającym człowieka w jego pracy a narzędziem zawłaszczającym, dyscyplinującym była widoczna już wtedy, gdy fabryki testowały najwydajniejsze zarządzanie pracą i jej kosztami. Dziś przebiega przez nasze głowy. Kosztem pracy jesteśmy często przede wszystkim my.
Sztuczna inteligencja tylko uwidacznia ten mechanizm. Nie tworzy go — lecz przyspiesza i zaostrza.
AI jak podręcznik: siła i ograniczenie uśrednienia
Szczególnie interesujące jest porównanie AI do podręcznika szkolnego. Oba narzędzia mają wspólną cechę: uśredniają wiedzę. Podręcznik historii nie jest przecież zapisem całej złożoności przeszłości. Jest kompromisem — między różnymi interpretacjami obecnymi w nauce, oczekiwaniami politycznymi i społecznymi oraz funkcją edukacyjną. Ma też charakter tożsamościowy par excellence: porządkuje wiedzę i nadaje jej ramy, które mają być łączne dla danej wspólnoty.
Nie należy tego postrzegać wyłącznie negatywnie. To właśnie dzięki temu uśrednieniu możliwe jest stworzenie podstawowego zasobu wiedzy, bez którego nie byłoby dalszego myślenia. Podręcznik nie zamyka przecież refleksji — on ją inicjuje, dając punkt startu.
AI działa w podobny sposób: dostarcza odpowiedzi syntetycznych, uporządkowanych, często poprawnych (choć nie zawsze) — ale rzadko oryginalnych. Jej siła polega bowiem na porządkowaniu i udostępnianiu, nie na przekraczaniu horyzontów… I tu tkwi niebezpieczeństwo.
Badania przytaczane przez Hellera wskazują bowiem na niepokojący efekt uboczny: studenci korzystający z AI podczas pracy badawczej rzadziej weryfikowali własne ustalenia i rzadziej poddawali je w wątpliwość. Autorzy przywołanego badania nazywają to wprost „metakognitywnym lenistwem”.
To celne określenie. Nie chodzi bowiem o brak inteligencji, lecz o zanik nawyku sprawdzania — o stopniową rezygnację z wysiłku, który jest jednym z warunków rzetelnego myślenia. Wygląda to na pozór paradoksalnie, przecież użycie AI oszczędziło pracy i czasu na etapie pierwszym, jest więc tych zasobów więcej dla kolejnego kroku – krytyki wyników.
Historyk jako ten, który przywraca złożoność i wielogłos
Szczególnie istotny jest w tym kontekście tzw. efekt kotwicy. Opisuje on mechanizm, w którym pierwsza informacja, jaką otrzymujemy, wywiera nieproporcjonalnie duży wpływ na nasze dalsze myślenie. Gdy pytamy AI o wstępną ocenę zagadnienia, jej odpowiedź staje się — niepostrzeżenie — punktem wyjścia dla naszych własnych rozważań.
Badania przytaczane przez Hellera pokazują, że uczestnicy eksperymentów często w ogóle nie zdawali sobie sprawy z istnienia tego wpływu. To właśnie czyni efekt kotwicy tak trudnym do uchwycenia — i tak istotnym dla każdego, kto pracuje z tekstem i ideami. Złudzenie samodzielności myślenia bywa w tym wypadku groźniejsze niż jawna zależność.
Dlatego kluczowa pozostaje rola człowieka — a w szczególności historyka. Jeśli AI i podręcznik porządkują i uśredniają, to zadaniem historyka jest coś przeciwnego: przywracanie poczucia wyzwania, akcentowanie różnicy i wielogłosu, uczulanie na niejednoznaczność.
Historia jako dyscyplina nie polega na powtarzaniu ustalonych narracji, lecz na ich rozbiorze, szukaniu nowych interpretacji przeszłości, jak i wskazywaniu tematów nowych, wcześniej pomijanych i marginalizowanych. Na zadawaniu pytań tam, gdzie odpowiedzi wydają się już zbyt oczywiste. Na wydobywaniu sprzeczności, które są cechą naszego życia, a często znikają w procesie upraszczania przekazu.
Historykiem nikt się nie rodzi — historykiem można się stawać. To proces długotrwały, wymagający nie tylko wiedzy, lecz także doświadczenia i intelektualnej odwagi. Podręcznik jest początkiem tej drogi, nie jej celem. Podobnie AI może być pomocna w przygotowaniu punktu wyjścia — ale nie powinna zastępować własnego marszu, choć zwykle mozolnego i często mało spektakularnego.
Między wygodą a odpowiedzialnością
Sztuczna inteligencja stawia przed nami pytanie nie o skutki kolejnej technologii, lecz o przyszłość ludzkiego poczucia odpowiedzialności. Czy będziemy gotowi zachować trud myślenia tam, gdzie łatwiej jest go delegować?
To właśnie „tarcie” — wysiłek, niepewność, próba samodzielnego sformułowania myśli — jest warunkiem rozwoju. Technologia może je redukować, ułatwiać pewne kroki, ale musimy zakres tej redukcji krytycznie śledzić.
Dlatego kluczowe nie jest to, czy korzystamy z AI, lecz jak to robimy i po co. Jeśli staje się ona narzędziem porządkowania — wspiera naszą pracę. Jeśli zaczyna zastępować myślenie i oparte na nim decyzje — zubaża ją. A wraz z nią zubaża debatę publiczną, i tak już ciepiącą na wiele słabości.











