Pięć strategii, wspólne wyzwania. Głos twórców wytycznych

P

W pierwszym wpisie tej serii podjąłem szczegółową analizę wytycznych American Historical Association dotyczących wykorzystania AI w edukacji historycznej, opublikowanych pod koniec lipca 2025 roku. Dokument ten wywołał ożywioną debatę, szczególnie w mediach społecznościowych. Zgodnie z przewidywaniami, opinie szybko spolaryzowały się: od entuzjastycznego poparcia po zdecydowaną, momentami ostrą krytykę. Zanim jednak przejdę do omówienia głównych wątków tej dyskusji, warto oddać głos samym autorom wytycznych. Taką możliwość daje webinar zorganizowany przez AHA na początku sierpnia tego roku, udostępniony na kanale YouTube stowarzyszenia1. Nie jest to zwykła prezentacja czy promocyjne omówienie raportu, lecz rzeczowa rozmowa praktyków – od nauczycielki szkoły średniej po profesorów uniwersyteckich. To właśnie ta różnorodność doświadczeń i perspektyw czyni webinar materiałem szczególnie wartościowym2.

Geneza: ankieta, która zmieniła kierunek

Komisję Ad Hoc powołano w 2023 roku, po kilku miesiącach intensywnego korzystania z ChatGPT oraz narastającej refleksji nad konsekwencjami tegoż. Już od początku jej członkowie mieli świadomość, że próba odniesienia się do wszystkich aspektów wykorzystania AI w badaniach historycznych byłaby – jak sami to określali – „ćwiczeniem bezcelowym”. Z tego względu zdecydowali się zawęzić pole analizy wyłącznie do edukacji historycznej.

W maju i czerwcu 2024 roku do członków AHA rozesłano ankietę, której wyniki okazały się dla komisji rozczarowujące. Odpowiedziało na nią bowiem zaledwie 148 respondentów (na ok. 12 tys. członków), a rysujący się na podstawie ich odpowiedzi obraz dominujących postaw był wyraźnie zachowawczy.

Około 50% ankietowanych deklarowało w swej pracy stosowanie całkowitego zakazu korzystania z AI, a większość pozostałych konstruowała zadania dydaktyczne w taki sposób, by użycie narzędzi AI było możliwie utrudnione. Jedynie 13% respondentów uwzględniało AI jako element procesu nauczania. Jednocześnie 22% ankietowanych oczekiwało od AHA wsparcia w poszukiwaniu argumentów i przykładów uzasadniających niestosowanie AI, 18% domagało się konkretnych przykładów jej zastosowania, a 17% deklarowało zainteresowanie integracją narzędzi AI z dydaktyką.

Jak podkreślili członkowie komisji, „fakt, że znaczna liczba osób poszukiwała czegoś więcej niż jedynie strategii walki z AI, w dużej mierze ukształtował nasze podejście”. Drugim istotnym czynnikiem była rosnąca skala korzystania z AI przez uczniów i studentów – niezależnie od obowiązujących zakazów i regulacji.

Pięć głosów, pięć strategii

Skład komisji wybrano nieprzypadkowo. Weszły do niej osoby o różnym statusie zawodowym (nauczyciele szkolni i uniwersyteccy) i doświadczeniu3. Nie jest możliwe ani potrzebne streszczanie tu całej dyskusji. Na podstawie jej analizy wskazać można pięć charakterystycznych podejść. Nazwałem je: małe kroki, radykalna akceptacja, chłodna analiza, pragmatyzm ograniczonych zasobów oraz codzienna walka.

Poniżej charakterystyczne wypowiedzi:

1. Sonia Hernández (Texas A&M, 72 tys. studentów) – ostrożność małych kroków

„Chyba mam najmniejsze doświadczenie z zadaniami opartymi na AI” – zaznaczyła na wstępie. Właśnie z tego powodu zaproponowała proste, a zarazem pouczające ćwiczenie: studenci przygotowują abstrakt samodzielnie, a następnie porównują go z abstraktem wygenerowanym przez AI na ten sam temat. Punktem wyjścia do wspólnej dyskusji są różnice między obiema wersjami – nieścisłości, luki argumentacyjne oraz błędy rzeczowe. W trakcie zajęć wyraźnie wskazano tzw. „czerwone linie”: granice dopuszczalności błędów historycznych oraz wymogi rzetelności akademickiej. W konkluzji Hernández podkreśliła: „To my jesteśmy ekspertami merytorycznymi”.

2. Doron Ben-Atar (Fordham) – radykalna akceptacja

Najbardziej jednoznacznie pro-AI głos należał do Dorona Ben-Atara: „Musimy zaakceptować AI, przyjąć ją i używać. Przekonanie, że możemy się jej oprzeć, jest niepraktyczne”.

W swojej wypowiedzi sformułował kilka prowokujących tez. Po pierwsze, AI może – jego zdaniem – ożywić zainteresowanie historią, przywracając znaczenie wiedzy, a nie wyłącznie umiejętności technicznych. Po drugie, przekonanie, że maszyna nie będzie w stanie robić tego, co robią humaniści, uznał za iluzję.Ben-Atar postulował także konieczność pogodzenia się z zanikiem długich form wypowiedzi: ludzie nie czytają już książek. W tym kontekście AI jawi się mu jako „promyk nadziei” w obliczu kryzysu kosztów edukacji.

W swojej praktyce dydaktycznej zrezygnował już z tradycyjnej pracy seminaryjnej na rzecz projektu oraz egzaminu ustnego. Testy przeprowadzane w sali odbywają się przy użyciu bezpiecznego serwera i przeglądarek typu lockdown browser4. AI nie została jeszcze w pełni zintegrowana z zajęciami, ponieważ – jak stwierdził – „jesteśmy na zbyt wczesnym etapie”.

3. Lee Vinsel (Virginia Tech) – chłodna analiza

Lee Vinsel prowadzi zajęcia poświęcone relacjom między technologią a społeczeństwem („Algorithms and Society”). Zaprezentował perspektywę wyważoną, świadomą zarówno potencjału, jak i ograniczeń AI, pozostając przy tym raczej pesymistą. Jego zdaniem wciąż funkcjonujemy w warunkach dużej niepewności – zarówno technologicznej, jak i ekonomicznej (w tym dotyczącej rentowności firm rozwijających AI). Zwrócił uwagę, że narzędzia generatywne podważają tradycyjne formy oceniania, zwłaszcza prac pisemnych. Był również sceptyczny wobec możliwości rozwiązania problemu halucynacji, który – jak podkreślał – wpisany jest w samą logikę działania tych systemów.

Vinsel dopuścił jednak stosowanie AI na zajęciach, pod warunkiem stałych rozmów o jej ograniczeniach. Najpoważniejszym problemem pozostaje dla niego fakt, że studenci wykorzystują AI do streszczania lektur zamiast je samodzielnie czytać. Aby temu przeciwdziałać, powrócił do… organizowania kartkówek z lektur. Na zakończenie podzielił się własną obserwacją, że w zawodach eksperckich (np. wśród lekarzy) intensywne korzystanie z AI prowadzi do pogorszenia kompetencji już po kilku miesiącach.

4. Theresa Case (Houston–Downtown) – pragmatyzm ograniczonych zasobów

Theresa Case na co dzień pracuje ze studentami pierwszych lat studiów i – co istotne – ocenia ich prace osobiście, bez wsparcia asystentów. W odpowiedzi na wyzwania związane z AI zdecydowała się na zadawanie bardzo konkretnych ćwiczeń opartych na pracy ze źródłami. Proponuje tematy słabo zbadane lub takie, w przypadku których baza źródłowa nie została dotąd wyczerpana.

Jako przykład podała obchody 1 maja w Teksasie – temat, wobec którego AI nie dysponuje gotowymi, ugruntowanymi narracjami. Jednocześnie Case systematycznie monitoruje postępy studentów: organizuje cotygodniowe kartkówki, prezentacje źródeł, a na końcu egzamin ustny lub losową weryfikację pracy. Jest świadoma czasochłonności tych działań, ale podkreśla, że właśnie dzięki nim powstają prace rzeczywiście oryginalne.

5. Jennifer Baniewicz (Stagg High School, 2600 uczniów) – codzienna walka

„AI jest wszędzie. Uczniowie korzystają z niej by oszukiwać – to oczywiste” – stwierdziła Baniewicz bez ogródek. Jednocześnie stara się aktywnie przeciwdziałać temu zjawisku. Przytoczyła historię uczennicy, która miała wypełnić kartę pracy i – zamiast tego – „wrzuciła ją do AI”, nie uzyskując jednak sensownej odpowiedzi. Baniewicz zaproponowała inne rozwiązanie: najpierw samodzielne opracowanie zadania, a dopiero potem porównanie efektów z odpowiedzią wygenerowaną przez AI. Reakcja uczennicy była entuzjastyczna: „Wow, to genialny pomysł”.

Baniewicz zdaje sobie sprawę, że „nie może oskarżyć ucznia o korzystanie z AI, ponieważ nie istnieje stuprocentowo skuteczna metoda wykrywania”. To – jak podkreśla – codzienna walka. Stara się jednak reagować poprzez konkretne przykłady dydaktyczne.

Jednym z nich była wizualizacja wypowiedzi rdzennych Amerykanów przy użyciu AI, która wygenerowała stereotypowe obrazy. Dopiero wówczas uczniowie dostrzegli różnicę między podejściem tradycyjnym (w tym własną pracą) a algorytmicznym.

Na zakończenie Baniewicz zaapelowała do przedstawicieli uniwersytetów, aby odpowiednio „kształcili przyszłych nauczycieli – bez znajomości AI trudno będzie im znaleźć pracę”. Jednocześnie podkreśliła, że nie wolno porzucać podstawowych umiejętności warsztatowych.

Dwa kluczowe wnioski praktyczne

W toku dyskusji wyłoniły się dwa zasadnicze wnioski o charakterze praktycznym. Pierwszy dotyczył potrzeby formułowania jasnych zasad korzystania z AI, drugi – konieczności przeprojektowania sposobu prowadzenia zajęć i zaliczeń.

1. Jasne polityki – zestaw zasad jako kontrakt (Clulow)

Zwrócono uwagę, że trzech na dziesięciu studentów nie wie, czy i w jakim zakresie może korzystać z narzędzi AI. Zdaniem uczestników dyskusji problem ten można ograniczyć poprzez wspólne wypracowanie ze studentami tabeli zasad obowiązujących w ramach konkretnego kursu. Taki upubliczniony zestaw reguł miałby pełnić funkcję swoistego kontraktu dydaktycznego zawieranego między wykładowcą a studentami.

Podkreślano jednak, że nie powinna to być regulacja uniwersalna, lecz rozwiązanie kontekstowe, dostosowane do specyfiki danych zajęć. Każdy kurs jest inny, a wraz z nim zmieniają się cele, formy pracy i – co za tym idzie – dopuszczalne sposoby wykorzystania AI.

2. Przeprojektowanie zadań (Case)

Drugim wnioskiem było zaproponowanie modelowego podejścia opartego na wyborze słabo zbadanego tematu. W takiej sytuacji studenci są zmuszeni sięgnąć po źródła, ponieważ bez pracy źródłowej realizacja projektu staje się niemożliwa. Kluczowe znaczenie ma tu również stałe monitorowanie postępów, uzupełnione o regularne prezentacje ustne.

Dzięki temu podejściu studenci mogą doświadczyć, że prowadzone przez nich badania mają rzeczywiście oryginalny charakter – czego, w takiej formie, nie byliby w stanie osiągnąć wyłącznie przy pomocy narzędzi AI.

Co pozostało nierozwiązane?

Uczestnicy debaty otwarcie przyznali, że nie wszystkie problemy można rozstrzygnąć już teraz czy w sposób trwały. Najdobitniej wyraziła to Brendan Gillis, dyrektorka ds. nauczania i uczenia się oraz łączniczka AHA z komisją. Zwróciła uwagę na problem AI equity, czyli narastające nierówności w dostępie do narzędzi AI.
Są one związane zarówno z rosnącym zaawansowaniem technologii, jak i z koniecznością ponoszenia coraz wyższych kosztów uprawnień do ich użytkowania.

Równie istotną niewiadomą pozostają długoterminowe skutki korzystania z AI – brakuje bowiem rzetelnych danych na temat tego, jak narzędzia te wpływają na rozwój lub osłabienie kompetencji użytkowników – dzieci i młodzieży – w procesie dydaktycznym.Podkreślono także, że poszukiwanie alternatywnych rozwiązań dydaktycznych bez sięgania po AI bywa wyjątkowo czasochłonne i znacząco zwiększa obciążenie pracą wykładowców.

Kolejnym nierozstrzygniętym wyzwaniem pozostaje problem lektur: jak skłonić studentów do rzeczywistego czytania tekstów, a nie ograniczania się do poznawania streszczeń generowanych przez AI.

Moja refleksja: trzy istotne braki

Debata autorów wytycznych – interesująca, wielowątkowa i poznawczo wartościowa – pozostawiła jednak u mnie wyraźny niedosyt. W jej toku pominięto perspektywę studentów, a zagadnieniom public history i visual history poświęcono jedynie marginalną uwagę.

1. Studenci – przedmiot, nie podmiot

Przez cały webinar mówiono o studentach, nigdy ze studentami. Przeprowadzono ankietę wśród nauczycieli, lecz głos samych studentów w ogóle się nie pojawił. Nie zaproszono również przedstawicieli środowisk studenckich do udziału w dyskusji. Uważam to za poważny mankament.

W efekcie studenci funkcjonują w tej debacie jako przedmiot refleksji (któremu przypisuje się wiele niecnych intencji…), a nie jej podmiot. Powstaje wrażenie, że – mimo iż to właśnie ich praktyki wymuszają szybkie reakcje i podważają tradycyjną, zachowawczą postawę instytucji akademickich – zostają oni zepchnięci na margines i nie są traktowani jako pełnoprawni partnerzy. Dyskusja ma zatem charakter jednostronny.

2. Visual i public history – po raz kolejny pominięte

Na ten brak zwracałem już uwagę w analizie wytycznych, a webinar jedynie go potwierdził. Co prawda Jennifer Baniewicz wspomniała o problemie wizualizacji (np. w odniesieniu do Azteków), jednak wątek ten nie został ani rozwinięty, ani systematycznie podjęty. Również to uważam za istotny mankament.

Tymczasem w moim wpisie o otwartym liście niemieckich miejsc pamięci pokazuję, że AI-fałszerstwa fotografii z okresu Zagłady zalewały media społecznościowe już w maju–lipcu 2025 roku – a więc dokładnie w czasie, gdy powstawały wytyczne AHA.

Perspektywa visual i public history znalazła się więc poza polem widzenia komisji. Trudno to przekonująco wytłumaczyć, ale z pewnością należy szybko nadrobić.

3. „Eksperymentuj, zastanów się, popraw” – czy wystarczająco szybko?

Lee Vinsel mówił o „momencie dużej niepewności”, Ben-Atar z kolei zauważył, że „kilka miesięcy później AI potrafi to, czego wcześniej nie potrafiła”. W tym kontekście rodzi się pytanie o sens strategii ostrożnego eksperymentowania, proponowanej w wytycznych. Czy rzeczywiście zachęca ona do aktywnego i odpowiedzialnego mierzenia się z AI w dydaktyce szkolnej i akademickiej?

Można odnieść wrażenie, że jest to podejście zbyt zachowawcze wobec tempa zmian technologicznych. Być może bardziej adekwatnym rozwiązaniem byłoby powołanie stałej komisji ds. zmian w dydaktyce w kontekście AI, a nie jedynie zespołu działającego ad hoc.

Podsumowanie

Amerykański webinar pokazał wyraźnie trzy aspekty sprawy.
Po pierwsze: nawet w obrębie samej komisji istnieje szerokie spektrum stanowisk – od ostrożnych (Hernández) po radykalne (Ben-Atar). Nie ma konsensusu, jest rozmowa. I to wydaje się jego największą wartością i odpowiada też momentowi historycznemu – początek masowego stosowania AI, brak pogłębionych własnych doświadczeń i niezależnych badan.

Po drugie: praktyka zatem wyprzedziła teorię. Wszyscy już eksperymentują z AI, a wytyczne raczej porządkują ogólnie to, co się dzieje, niż narzucają normatywne rozwiązania.

Po trzecie: Dyskusja była zaskakująco szczera w kwestii granic i niewiadomych. Wskazano długą listę nierozwiązanych problemów. „Nie mamy wszystkich odpowiedzi” – i to, paradoksalnie, brzmi przekonująco, zwłaszcza w kontraście do pewności, z jaką wypowiada się samo AI, “zastanawiając się” nad wrzucanymi przez nas pytaniami czy poleceniami.

Pozostaje jednak pytanie, czy ta szczerość wystarczy. Czy samo „zaproszenie do rozmowy” jest adekwatną odpowiedzią na skalę i tempo zachodzących zmian? Czy przedstawicielstwa środowiskowe, różne ciała, które mamy, wreszcie my sami – nauczyciele szkolni i akademiccy – nie powinniśmy stać się aktywniejsi. Czy z przypadku amerykańskiego możemy wyciągnąć coś dla siebie?

Pytanie to prowadzi nas do kolejnego wpisu tej serii. Wytyczne AHA i webinar z twórcami to jedna strona medalu. Druga to reakcje amerykańskiego środowiska historycznego – od blogosfery akademickiej po dyskusje na Bluesky.

A teraz pytanie do Was:

  • OPbejrzeliście (Państwo) webinar AHA?
  • Jak oceniacie jego użyteczność?
  • Które stanowisko byłoby Wam najbliższe – Hernández, Ben-Atar, Vinsel, Case, czy Baniewicz?
  • Czy widzicie podobne postawy i refleksje w Waszym środowisku?

Przypisy

  1. Zob. American Historical Association, „Guiding Principles for AI in History Education – Webinar,” YouTube, https://www.youtube.com/user/historiansorg (dostęp: 15.01.2026). Transkrypt webinaru stanowi podstawę tego wpisu. ↩︎
  2. Wszystkie cytaty, o ile nie zaznaczono tego inaczej, pochodzą z webinaru. ↩︎
  3. Skład komisji zob. Guiding Principles for Artificial Intelligence in History Education, https://www.historians.org/wp-content/uploads/2025/08/AHA-Artificial-Intelligence-in-History-Education.pdf ↩︎
  4. LockDown Browser® to specjalistyczna przeglądarka służąca do zabezpieczania egzaminów online w systemach zarządzania nauczaniem (LMS) poprzez blokowanie dostępu do innych aplikacji i zasobów; należy do tzw. technologii proktoringowych, czyli narzędzi umożliwiających cyfrowy nadzór nad przebiegiem testów, szeroko stosowanych w szkolnictwie wyższym w USA, a w innych krajach często ograniczanych ze względów prawnych i etycznych (m.in. ochrony danych i prywatności). ↩︎

 

O autorze

Krzysztof Ruchniewicz

professor of modern history, photographer - @blogifotografia, blogger - @blogihistoria and podcaster - @2hist1mikr. Personal opinion

Krzysztof Ruchniewicz

professor of modern history, photographer - @blogifotografia, blogger - @blogihistoria and podcaster - @2hist1mikr. Personal opinion

Newsletter „blogihistoria”

Zamawiając bezpłatny newsletter, akceptuje Pan/Pani zasady opisane w Polityce prywatności. Wypisanie się z prenumeraty newslettera jest możliwe w każdej chwili.

Najnowsze publikacje

Więcej o mnie

Kontakt

Translate »