Kiedy algorytm „pamięta” za nas. O sztucznej inteligencji, wizualności i granicach pamięci o ofiarach II wojny światowej

K

W ostatnich miesiącach media społecznościowe zalewają obrazy, które na pierwszy rzut oka wyglądają jak autentyczne i nieznane wcześniej fotografie z czasów II wojny światowej1. Sceny rzekomych wyzwoleń obozów, wzruszające spotkania więźniów z żołnierzami, zapłakane dzieci za drutami kolczastymi. Problem polega na tym, że te fotografie nigdy nie istniały. Zostały wygenerowane przez sztuczną inteligencję – bez źródeł, bez kontekstu i bez odpowiedzialności. Opublikowany dziś otwarty list niemieckich instytucji pamięci i edukacji historycznej, wzywający platformy społecznościowe do zdecydowanego reagowania na masowo rozpowszechniane fałszywe treści dotyczące Holocaustu, trafnie diagnozuje skalę i skutki tego zjawiska2. Nie chodzi tu o pojedyncze nadużycia, lecz o systemową produkcję fikcyjnych wizji przeszłości, które – dzięki algorytmom – osiągają większe zasięgi niż autentyczne dokumenty archiwalne. To moment, w którym warto zapytać nie tylko o nowe technologie, lecz o stan współczesnej kultury pamięci. Zwłaszcza dziś, gdy wizualność stała się dominującym językiem komunikacji historycznej.

Od dokumentu do symulacji

Przez dekady doświadczenie II wojny światowej – w tym Zagłady – było przekazywane poprzez źródła: fotografie, relacje świadków, dokumenty administracyjne, materialne ślady przemocy. Ich siła nie polegała na estetyce ani na prostym ładunku emocjonalnym, lecz na autentyczności i na oporze wobec łatwych narracji. Były często fragmentaryczne, psychicznie trudne w odbiorze i pozbawione narracyjnego domknięcia.

Obrazy generowane przez sztuczną inteligencję działają według zupełnie innej logiki. Nie rekonstruują przeszłości na podstawie źródeł, lecz ją symulują, łącząc elementy wiedzy historycznej z estetyką popkultury i uproszczonej, “łzawej” empatii. Marsz w tym kierunku rozpoczął się już wcześniej, jak się wydaje, wraz z rozkwitem przeróżnych rekonstrukcji i tworzeniem literatury mocno popularnej, żywiącej się powierzchownie traktowanymi tragicznymi wydarzeniami z przeszłości.

Obecnie powstają wizualne klisze, które przypominają obrazy historii, ale nim nie są. W efekcie dochodzi do istotnego przesunięcia: od dokumentu do emocji, od prawdziwego świadectwa do banalnego obrazu. Autentyczne fotografie z czasów wojny, często niewygodne i niejednoznaczne, przegrywają w algorytmicznym obiegu z fikcyjnymi scenami, które oferują szybkie wzruszenie i poczucie moralnego komfortu3.

Ciągłość podwójnej wiktymizacji

Zjawisko to nie pojawiło się jednak dopiero z rozwojem sztucznej inteligencji. Wcześniejszym, dobrze znanym przykładem była masowa koloryzacja czarno-białych fotografii z okresu II wojny światowej. Zabieg ten często uzasadniano chęcią „przybliżenia historii” współczesnemu odbiorcy i uczynienia jej bardziej przystępnej.

W praktyce koloryzacja prowadziła do zatarcia granicy między dokumentem a interpretacją. Fotografie, które pierwotnie były świadectwem, zaczynały funkcjonować jako wizualne rekonstrukcje – atrakcyjniejsze, ale mniej wiarygodne. Zmieniał się nie tylko wygląd obrazu, lecz także sposób jego odbioru i status źródłowy.

Dzisiejsze obrazy generowane przez AI idą o krok, a raczej kilka dobrych kroków, dalej. Nie przetwarzają istniejących źródeł, lecz tworzą całkowicie fikcyjne sceny, podszywające się pod dokument. Mechanizm pozostaje jednak podobny: doświadczenie ofiar zostaje niejako zawłaszczone i podporządkowane współczesnym oczekiwaniom estetycznym.

W tym sensie mamy do czynienia z podwójną wiktymizacją – najpierw poprzez realną, historyczną przemoc, a dziś poprzez jej symboliczną i wizualną instrumentalizację. Szacunek dla ofiar oznacza także akceptację granic: zgodę na to, że autentyczne źródła bywają niewygodne, niejednoznaczne i odporne na proste emocjonalne narracje.

Od wiktymizacji do monetyzacji

W tym miejscu warto jednak doprecyzować jeszcze jeden aspekt, na który zwracają uwagę autorzy opublikowanego dziś listu. Problem generowanych przez AI obrazów wojny i Zagłady nie sprowadza się wyłącznie do pytania o autentyczność czy o błędy poznawcze odbiorców.

W wielu przypadkach chodzi przede wszystkim o zarabianie pieniędzy. Jak pokazuje m.in. śledztwo BBC4, masowo produkowane, silnie emocjonalne treści dotyczące wojny, obozów i cywilnych ofiar przemocy są elementem dobrze funkcjonującego modelu ekonomicznego. Tzw. farmy treści wykorzystują algorytmy platform społecznościowych, aby przy minimalnym nakładzie pracy generować maksymalny zasięg, a tym samym przychody z reklam.

W tym układzie nie prawda historyczna, lecz emocjonalna intensywność staje się kluczowym kryterium sukcesu. Z tej perspektywy fikcyjne obrazy cierpienia nie są efektem technologicznej nieporadności ani niewinnego eksperymentowania z nowymi narzędziami. Są świadomie projektowanym produktem, dostosowanym do logiki platform i ich systemów rekomendacji. To dodatkowo pogłębia zjawisko podwójnej wiktymizacji: doświadczenie ofiar zostaje nie tylko symbolicznie zawłaszczone i estetycznie uproszczone, lecz także wprost skomercjalizowane5.

Odpowiedzialność platform cyfrowych przestaje być w tej sytuacji kwestią dobrej woli i przyzwoitości – staje się problemem strukturalnym.

Pamięć bez świadków – i bez reguł?

Problem ten pojawia się w momencie granicznym. Wchodzimy w epokę, w której nie ma już wśród nas świadków II wojny światowej i Zagłady. Pamięć komunikacyjna ustępuje miejsca pamięci kulturowej – opartej na instytucjach, archiwach, muzeach i praktykach upamiętniania oraz/lub – i to jest negatywny scenariusz – zawartości sieci, dowolnie kreowanej i sprzedanej.

W tej sytuacji pytanie nie brzmi już tylko co pamiętamy, lecz jak to robimy – oraz kto ustala reguły pamięci w przestrzeni cyfrowej. Media społecznościowe stały się jednym z głównych kanałów obiegu wyobrażeń historycznych, a jednocześnie przestrzenią niemal pozbawioną standardów odpowiedzialności za to, co jest przez nie kolportowane. W lipcu 2025 roku American Historical Association opublikowało pierwszy tego rodzaju dokument, systematycznie odnoszący się do etycznych i metodologicznych wyzwań związanych z wykorzystaniem sztucznej inteligencji w pracy historyka i dydaktyce szkolnej i akademickiej6.

Wytyczne te dotyczą jednak przede wszystkim tradycyjnych form kształcenia i badań: pisania tekstów naukowych, pracy ze źródłami, nauczania szkolnego i uniwersyteckiego. Znacznie mniej uwagi poświęcono visual i public history – tej, która dziś realnie kształtuje masowe wyobrażenia o przeszłości. Wziąwszy to pod uwagę, dzisiejsze wystąpienie niemieckich instytucji pamięci należy czytać jako pierwszą tak wyraźną próbę przeniesienia tej istotnej debaty poza ramy akademickie, do przestrzeni cyfrowej, gdzie stawką nie jest poprawność przypisu, lecz społeczna percepcja historii.

Nie przeciw technologii, lecz przeciw bezkarności

Sygnatariusze listu wyraźnie podkreślają, że nie sprzeciwiają się technologiom jako takim. Sztuczna inteligencja może być użytecznym narzędziem w pracy historycznej i edukacyjnej: w analizie źródeł, porządkowaniu zbiorów czy zwiększaniu dostępności archiwów.

Problem zaczyna się tam, gdzie platformy cyfrowe odchodzą od ponoszenia odpowiedzialności, a algorytmy promują treści najbardziej emocjonalne („klikalne”) – niezależnie od ich prawdziwości. W tym modelu biznesowym historyczne cierpienie ofiar, dotąd otoczone szacunkiem i stanowiące pewne tabu, staje się zasobem: generuje zasięgi, kliknięcia i zyski. AI-generowane obrazy „z wojny” nie są niewinną ciekawostką.

Podkopują zaufanie do autentycznych źródeł i do pracy instytucji pamięci, a jednocześnie banalizują przemoc poprzez jej specyficzną estetyzację.

Perspektywa polska: wojna jako doświadczenie cywilne

W polskim kontekście problem ten ma jednak jeszcze szerszy wymiar. Nie dotyczy on wyłącznie pamięci o Zagładzie, lecz całego doświadczenia obywateli II RP – cywilnych ofiar II wojny światowej: bombardowań miast, pacyfikacji wsi, masowych egzekucji, wysiedleń i pracy przymusowej. Również te doświadczenia coraz częściej stają się przedmiotem wizualnych symulacji – uproszczonych, emocjonalnych i oderwanych od konkretnych realiów historycznych.

Także tutaj pojawia się ryzyko podwójnej wiktymizacji. Cierpienie cywilów, już raz wpisane w historię przemocy, zostaje przejęte i przetworzone w formę atrakcyjnych obrazów, które mają „opowiadać” wojnę, lecz w istocie ją banalizują a nierzadko także fałszują. Złożone doświadczenia lokalne – różne w czasie, przestrzeni i skali – redukowane są do kilku uniwersalnych klisz wizualnych.

W kraju takim jak Polska, gdzie II wojna światowa odcisnęła złowrogie piętno na niemal każdej lokalnej społeczności, odpowiedzialne podejście do wizualności pamięci nabiera szczególnego znaczenia.

W przededniu rocznic

Problemu tego nie można nie dostrzec w kontekście zbliżających się obchodów wyzwolenia KL Auschwitz-Birkenau, ale także innych rocznic związanych z doświadczeniem wojny. To momenty, w których zainteresowanie historią gwałtownie rośnie – podobnie jak presja na uproszczony, emocjonalny przekaz grający przez krótką chwilę „news dnia”.

W takich dniach granica między upamiętnieniem a estetyzacją przemocy stać się może szczególnie krucha lub masowo naruszana. Bez jasnych standardów odpowiedzialnego posługiwania się obrazami łatwo o przesunięcie sensu pamięci – od refleksji ku wizualnemu spektaklowi.

Dlatego głos instytucji pamięci jest dziś tak istotny. Nie jako wezwanie do cenzury, lecz jako próba obrony przestrzeni, w której historia pozostaje historią, a nie surowcem dla algorytmów, podsuwających łatwe chwile wzruszenia lub oburzenia.

Zakończenie. Pamięć jako odpowiedzialność

Dzisiejsza debata o sztucznej inteligencji i wizualności pamięci nie jest sporem o technologię. Jest nową odmianą starego sporu o granice odpowiedzialności w obchodzeniu się z przeszłością – zarówno wobec ofiar Zagłady, jak i wobec milionów pozostałych cywilnych ofiar II wojny światowej, których doświadczenie, nawet jeśli utrwalone w formie tekstu czy zapisu video lub audio, coraz częściej redukowane jest do uproszczonych, emocjonalnych obrazów, pojawiających się na chwilę między setkami innych.

Szacunek dla ofiar oznacza także respektowanie granicy między dokumentem a jego estetycznie i merytorycznie wątpliwą imitacją. Oznacza zgodę na to, że historia bywa fragmentaryczna, niewygodna, niedopowiedziana i odporna na łatwe tłumaczenia.

Pamięć nie musi być wizualnie atrakcyjna, by być prawdziwa – ale musi pozostać zakorzeniona w faktach i kontekście historycznym. Jeśli tej granicy nie wyznaczymy świadomie, zrobią to za nas algorytmy – projektowane i wykorzystywane w taki sposób, by maksymalizować zasięgi i zyski, a nie pogłębiać sens rozumienia historii.

Zdjęcie: Obraz wygenerowany przez sztuczną inteligencję przedstawiający rzekomą sytuację w KL Dachau, post na Facebooku „The Blanket of Strangers”, zrzut ekranu z 26.08.2025 r., źródło: KZ Gedenkstätte Dachau.


Przypisy

  1. Zob. przykładowo: Angelika Pitoń, Zdjęcia ofiar Holocaustu, poprawione przez AI, zalewają internet. „Cel: pieniądze”, „Wyborcza”, 9.07.2025, https://krakow.wyborcza.pl/krakow/7,44425,32085822,pucolowaci-i-sliczni-jak-z-zurnala-wygenerowane-przez-ai-zdjecia.html; Michał R. Wiśniewski, Groźne fejki z Holokaustu. Jak walczyć z tą nową odsłoną holokiczu? Wyzwanie jest potężne, „Polityka”, 31.08.2025, https://www.polityka.pl/tygodnikpolityka/ludzieistyle/2313027,1,grozne-fejki-z-holokaustu-jak-walczyc-z-ta-nowa-odslona-holokiczu-wyzwanie-jest-potezne.read ↩︎
  2. Zob. Offener Brief: Konsequentes Vorgehen gegen KI-generierte Holocaust-Verfälschungen auf Socia-Media-Plattformen, 13.01.2026, https://www.stiftung-bayerische-gedenkstaetten.de/service/news/offener-brief-konsequentes-vorgehen ↩︎
  3. Wzruszająca historia skrzypka z Auschwitz? To obraz AI i fake news, „Demagog”, https://demagog.org.pl/fake_news/wzruszajaca-historia-skrzypka-z-auschwitz-to-fake-news-i-obraz-ai/ ↩︎
  4. Zob. Kristina Völk, Kevin Nguyen, 29.08.2025, https://www.bbc.com/news/articles/ckg4xjk1g1xo ↩︎
  5. Piotr Miączyński, Pseudohistoria w sieci. Jak AI zamienia tragedię w maszynkę do robienia pieniędzy, „wyborcza.bis”, 29.08.2025, https://wyborcza.biz/biznes/7,177151,32211682,pseudohistoria-w-sieci-jak-ai-zamienia-tragedie-w-maszynke.html ↩︎
  6. Zob. Krzysztof Ruchniewicz, Ai W Edukacji Historycznej. Wytyczne American Historical Association (Aha) – Pierwsza próba uporządkowania chaosu, „blogihistoria”, 11.01.2026, https://krzysztofruchniewicz.eu/ai-w-edukacji-historycznej-wytyczne-american-historical-association-aha-pierwsza-proba-uporzadkowania-chaosu/ ↩︎

 

O autorze

Krzysztof Ruchniewicz

professor of modern history, photographer - @blogifotografia, blogger - @blogihistoria and podcaster - @2hist1mikr. Personal opinion

Wstaw komentarz

Ta strona używa Akismet do redukcji spamu. Dowiedz się, w jaki sposób przetwarzane są dane Twoich komentarzy.

Krzysztof Ruchniewicz

professor of modern history, photographer - @blogifotografia, blogger - @blogihistoria and podcaster - @2hist1mikr. Personal opinion

Newsletter „blogihistoria”

Zamawiając bezpłatny newsletter, akceptuje Pan/Pani zasady opisane w Polityce prywatności. Wypisanie się z prenumeraty newslettera jest możliwe w każdej chwili.

Najnowsze publikacje

Więcej o mnie

Kontakt

Translate »