Od entuzjazmu do rozczarowania i z powrotem, czyli o wykorzystaniu generatywnej AI w badaniach historycznych
Współczesne badania historyczne, podobnie jak inne dziedziny nauk humanistycznych znajdują się, prawdopodobnie w punkcie zwrotnym swojego rozwoju. Prawdopodobnie, gdyż ocenią to historycy nauki za lat kilkadziesiąt. Nie chodzi tu o przełom na miarę kopernikańską, ale zwrot podobny do upowszechnienia się komputerów osobistych, czy internetu. Pojawienie się dużych modeli językowych i pierwsze próby wykorzystania ich w humanistyce, wywołały wśród osób badających historię rozmaite reakcje: od ostrożnej obojętności po, najczęściej chyba, zdecydowaną krytykę: jako źródło niewiarygodnych danych czy narzędzie szkodliwe w procesie edukacji. Pojawiały się jednak także postawy bliskie technoutopijnej ekstazy, obietnice automatyzacji rzemiosła badawczego, czy wręcz tezy o bliskim zastąpieniu historyków przez ich sztucznointeligentne odpowiedniki (1, 27). Obawy przed tą ostatnią możliwością są zresztą dość popularnym tematem publicystyki i blogosfery okołohistorycznej (2, 3), wydaje się jednak, że są one w znacznej mierze przesadzone (23). Dziś, w dobie pojawiających się już odkryć naukowych uzyskanych z pomocą AI, czy rozwiązanych problemów matematycznych dzięki współpracy modeli i matematyków (24), choć sukcesy w naukach ścisłych nie muszą automatycznie przekładać się na humanistykę, rozwój sztucznej inteligencji skłania do wypracowania dojrzałego podejścia do jej użycia także w badaniach historycznych.
Historia samej sztucznej inteligencji nie jest liniowym postępem, lecz procesem cyklicznym, charakteryzującym się gwałtownymi wzrostami oczekiwań i następującymi po nich "zimami AI", gdy dochodziło do znaczącego osłabienia prac badawczych poświęconych tej tematyce. Okresy przyspieszenia rozwoju AI cechowały się zwykle dużym optymizmem w zakresie tego co dzięki niej będzie możliwe do osiągnięcia. Już w 1960 roku jeden z pionierów AI, Herbert Simon, przewidywał, że w ciągu 20 lat maszyny będą mogły wykonywać wszelkie prace ludzi (4). Nawet dziś nie da się tego stwierdzenia uznać za 100% prawdziwe, choć jest bliższe prawdy niż 66 lat temu. Obecnie, w epoce dużych modeli językowych, popularne są podobnie optymistyczne trendy, dotyczące nie tylko możliwości wyręczania ludzkich specjalistów, ale wręcz wizji gwałtownego przyspieszenia badań i odkryć naukowych dzięki AI.
Wizja ta, także w dziedzinie humanistyki nie jest pozbawiona podstaw. Duże modele językowe, w odróżnieniu wcześniejszych systemów uznawanych za AI, mają niezwykłe umiejętności komunikacyjne (co ważne dla humanistów) oraz są powszechnie dostępne. Ich działanie oparte na miliardach parametrów sieci neuronowych pozwala na generowanie zbliżonej do ludzkiej narracji, wręcz symulowanie toku rozumowania przypominającego ludzki. Z perspektywy np. cyfrowego historyka oznacza to przejście od ery baz danych, analiz statystycznych do możliwości interpretacyjnego dialogu z maszyną.
Początkowy entuzjazm w środowisku naukowym wzbudziło nie tylko generowanie tekstów, ale też możliwość szybkiego przeanalizowania i streszczania wielu publikacji, to co wymagało dni, stało się możliwe w ciągu minut czy godzin. Tłumaczenia tekstów z mniej popularnych języków, możliwość przekrojowych analiz materiałów masowych dostępnych w wielu językach (5), poprawianie błędów i stylu, szczególnie w przypadku tekstów angielskich dla badaczy dla których nie był to język ojczysty, weryfikacja i autokorekta wyników procesów OCR - wszystko to brzmiało jak nowy wspaniały świat, otwierający szerokie możliwości, w dodatku w łatwy i dostępny sposób. Pojawiły się nawet pomysły wykorzystania generatywnej AI do historycznych badań behawioralnych, poprzez trenowanie na historycznych korpusach tekstów HLLM-ów - historycznych dużych modeli językowych (6).
Ale łatwość i dostępność nie wszystkim przesłoniła ciemniejsze strony "rewolucji AI". Dość szybko zaczęto wskazywać, że naiwne korzystanie z chatów i możliwości modeli językowych może łatwo prowadzić na manowce. W najprostszym przypadku bezkrytyczne wklejanie generowanych przez AI tekstów do publikacji naukowych skutkowało kompromitującymi fragmentami "Jako model językowy...". Poważniejszym problemem są halucynacje modeli, chociaż dziś (w 2026 roku) mniejszym niż trzy lata temu. Wydaje się, że jest to immanentna cecha LLM-ów, której nigdy się całkowicie nie pozbędą, przynajmniej modele o obecnej architekturze. Modele uczone są materiałem tekstowym stworzonym przez ludzi, technologia uczenia wymaga naprawdę ogromnych ilości tekstu, wykorzystywane są więc wszelkie dostępne źródła. Także te z nieprawdziwymi informacjami czy nieakceptowalnymi powszechnie poglądami, stąd przedmiotem badań naukowych stały się same modele: jak bias wpływa na przygotowywane przez nie dane (7), streszczenia, raporty. Przekonano się też szybko, że model sam w sobie nie jest wszystkowiedzącą encyklopedią, nawet wspomagany wyszukiwaniem online nie zawsze przedstawia prawdziwe fakty, naiwne polecenie przygotowania literatury dotyczącej jakiegoś tematu może skończyć się skandalem jak w przypadku pewnej popularnonaukowej książki (8) czy nawet publikacji o bardziej naukowym charakterze (9). Istotnym problemem z punktu widzenia historyków stała się niedeterministyczność modeli językowych, to samo pytanie zadane temu samemu modelowi potrafi dać odmienne wyniki (22).
Wspomniane problemy nie oznaczają jednak, że po początkowym okresie entuzjazmu musi nastąpić całkowite odrzucenie tych nowych narzędzi. Bardziej prawdopodobny wydaje się trzeci etap: ponowne ich włączenie do warsztatu historyka, już po skorygowaniu nierealistycznych oczekiwań. Analizie poddano realne możliwości LLM-ów w roli narzędzi badawczych dla historyków (12). Jednym z podstawowych wniosków był postulat, by badacze wykorzystujący sztuczną inteligencję posiadali podstawową wiedzę na jej temat (13). Znajomość narzędzia niewątpliwie ułatwia jego lepsze wykorzystanie, ale by ocenić czego w ogóle można oczekiwać od dużych modeli językowych, należało zrozumieć co właściwie duże modele wiedzą o historii. Testy oceniające poziom wiedzy np. Massive Multitask Language Understanding (MMLU) zawierają również pytania z dziedziny historii (cały benchmark liczy około 16000 pytań z 57 dziedzin z tego historii dotyczy mniej więcej 600) (14). Początkowo (2021) model GPT-3 był dość daleki od dobrych wyników (osiągał nieco powyżej 50%). Ale szybki rozwój generatywnej AI sprawił, że najlepsze LLM-y (np. GPT-4o) już w drugiej połowie 2024 roku, w zakresie pytań historycznych, osiągały w nich poziom ekspercki (>90% poprawności) (12). Trzeba jednak zaznaczyć, że przez historię rozumiano głównie dzieje Stanów Zjednoczonych, historię Europy i ogólną historię świata. Można przypuszczać, że historia np. Europy Wschodniej czy wschodniego wybrzeża Afryki nie była tam przesadnie reprezentowana. Dla kontrastu inne badania oparte na historycznej bazie danych (Seshat Global History Databank) pokazały (15), że wiedza modeli jest wyraźnie gorsza od wiedzy ekspertów w tej dziedzinie (33%-46% poprawności), ukazując jednocześnie duże różnice regionalne - modele wypadały gorzej dla pytań dotyczących Oceanii i Afryki subsaharyjskiej. To z kolei wskazuje na nierówności: pewne obszary wiedzy historycznej zostały lepiej zmapowane, inne gorzej, różnice dotyczą kultur, geografii i języków. Generatywna AI czerpie wiedzę z dostępnych dla jej twórców źródeł, te niezdigitalizowane lub pochodzące z krajów o niskim poziomie ucyfrowienia stają się "niewidoczne".
Problemy związane z wykorzystaniem AI wywołały oczywiście reakcję środowiska naukowego, zaczęły powstawać standardy jej użycia: nie tylko czasopisma historyczne określają możliwości i zasady korzystania ze sztucznej inteligencji podczas tworzenia publikacji i ich recenzowania (17), ale np. Amerykańskie Towarzystwo Historyczne opublikowało wytyczne na temat użycia AI podczas nauczania historii (18). Uznając, że AI na pewno wpłynie na proces nauczania podkreślano, że nie jest wolna od błędów i halucynacji, nie może zastąpić metodologii historycznej, wprowadza fałszywe poczucie pewności tam, gdzie istnieje niepewność, mimo to może jednak być cennym partnerem w nauczaniu jeżeli określi się zasady jej wykorzystania.
Źródłem krytyki wykorzystania modeli językowych w badaniach historycznych bywa naiwne traktowanie modelu (chatu) jako eksperta w dziedzinie, który może zrealizować codzienne zadania badacza np. narysować mapę Chin z jesieni 1378 roku, albo przygotować opracowanie na temat historii przynależności administracyjnej wioski Pruty Niżne w XVIII i XIX wieku. Komercyjne modele językowe, mimo możliwości sięgania do wiedzy dostępnej w internecie, nie są najczęściej dobrze przygotowane do tego typu zadań. Pojawia się więc rozczarowanie i krytyka, czasem również poczucie "wygrania" z AI. A ta nie powinna być traktowana jak wyrocznia, model jest świetnym narzędziem do przetwarzania, analizy i transformacji tekstu, w połączeniu z technikami RAG (35) i PageIndex (36), pozwalając na przetwarzanie masowych źródeł danych może szybko dostarczać informacji, które umożliwią badaczowi ich interpretację, tworzenie opracowań, stawianie hipotez. Dojrzałe podejście do wykorzystania AI w pracy historyka nie powinno polegać na zastępowaniu lecz wspomaganiu. AI może wykonywać zadania cząstkowe (np. transkrypcję, wstępną klasyfikację, wykrywanie encji, identyfikację encji), ale ocena wiarygodności i synteza danych powinna należeć do człowieka. Jeżeli powtarzalne i czasochłonne zadania zostaną dzięki AI zautomatyzowane, historycy zyskają możliwość zbadania obszarów, które wcześniej były pracochłonne i wymagały długotrwałego przygotowania danych (19). To właśnie ten proces najlepiej oddaje tytułowe 'z powrotem', co nie oznacza powrotu do entuzjazmu, ale przejście do dojrzałego użycia nowych narzędzi, z większą świadomością ich rzeczywistych zastosowań i metodologicznych kosztów.
Generatywna sztuczna inteligencja utożsamiana jest często z chatami umożliwiającymi dialog z AI, w rzeczywistości w tle działa model językowy (LLM). Znanych i popularnych modeli jest zapewne kilkanaście, lecz liczbę wytrenowanych wariantów różnych modeli można dziś oceniać na setki tysięcy. Modele te różnią się znacznie między sobą np. wielkością czyli liczbą parametrów, ale ważna jest nie tylko wielkość modelu. Duży może więcej, ale nie zawsze największy model jest potrzebny do danego zadania, warto także zweryfikować stronniczość i uprzedzenia modelu, jego ograniczenia w danych treningowych: typowy komercyjny model może mieć gorsze wyniki w analizowaniu tekstów w języku rzadkim od wyspecjalizowanego modelu open-source. Zadania zbyt ogólne np. "napisz esej na temat sytuacji gospodarczej Europy w 1946 roku", mogą, nawet w trybie Deep Research (gdy modele przeszukują sieć i dłużej analizują problem) przynieść rozczarowujące rezultaty (choć to może się szybko zmienić, biorąc pod uwagę tempo rozwoju AI...). Z kolei zadanie streszczenia dostarczonych modelowi jako kontekst pamiętników z czasów wojny secesyjnej, pod kątem motywu głodu i zdobywania jedzenia może przynieść dobry i pożyteczny efekt. Ale niezależnie od tego, jak przekonujący wydaje się wynik działania AI, to po stronie badacza stoi obowiązek weryfikacji rezultatów jej pracy.
Ciekawym przykładem dojrzałego podejścia do wykorzystania sztucznej inteligencji w humanistyce jest projekt DeepPast (20) prowadzony przez Big Data Studies Lab na Uniwersytecie w Hongkongu, badający korpus średniowiecznych tekstów z Korei, w celu rekonstrukcji sieci konfucjańskich (relacje patron–klient, mistrz–uczeń). Baza tekstów o wielkości 3.6 GB byłaby trudna do przetworzenia bez sztucznej inteligencji, ale to nie AI "pisze historię", lecz jest narzędziem przygotowującym dane pozwalające badaczom z większą łatwością łączyć osoby, instytucje, ruchy intelektualne i interpretować przeszłość. Projekt kładzie nacisk na aktywną rolę historyka w kierowaniu dialogiem między człowiekiem a maszyną. Dodatkowo bierze też pod uwagę etyczny aspekt stosowania AI w kwestii zużycia zasobów środowiska: do prac wykorzystywane są mniejsze lokalne modele uruchamiane na lokalnej infrastrukturze (26).
Innym przypadkiem użycia dużych modeli są badania historii urbanistycznej Wenecji w okresie od 1740 do 1808 roku, gdzie LLM-y zastosowane zostały do pomocy w wyszukiwaniu i analizowaniu historycznych danych katastralnych, m.in. poprzez agentów generujących zapytania SQL z języka naturalnego, ale także agentów kodujących przygotowujących programy w języku Python, który wykonuje analizy pomagające w odtwarzaniu informacji o dawnej populacji, cechach nieruchomości oraz porównaniach czasowo-przestrzennych w Wenecji (28).
Jednym z tradycyjnych zadań AI w badaniach historycznych związanych z przetwarzaniem języka naturalnego jest rozpoznawanie jednostek nazwanych (NER). Także w takich zadaniach zauważono, że duże modele językowe cechują się dużą wszechstronnością (wielojęzyczność, rozumienie kontekstu), dodatkowo nie wymagają kosztownej anotacji i trenowania modeli, całkiem skuteczne są podejścia zero-shot (bez żadnego doszkalania lub przykładów) lub few-shot (gdy przedstawiamy modelowi jedynie kilka przykładów poprawnego działania). Wyniki testów przeprowadzonych na zbiorze HIPE-2022 (Identifying Historical People, Places and other Entities, https://hipe-eval.github.io/HIPE-2022/) pokazały, że LLM-y mogą być ciekawą alternatywą dla tradycyjnego nadzorowanego uczenia maszynowego (30).
Zastosowanie w badaniach historycznych znalazły również multimodalne duże modele, np. w badaniach historycznych dokumentów patentowych wykorzystano możliwości wizyjne modelu GPT-4o do pozyskiwania danych z zeskanowanych kart formularzy do uzupełniania szwedzkiej bazy danych historycznych patentów: https://svenskahistoriskapatent.se (29). Zdolności wizyjne najnowszych modeli jak Gemini Pro 3 zostały także zauważone i przetestowane w zakresie historycznego odczytywania pisma ręcznego (HTR), optymistyczne opinie sugerowały wręcz rozwiązanie problemu odczytywania angielskiego pisma np. z XVIII wieku (31).
Przydatność dużych modeli doceniono także w innych przykładach, gdzie przedmiotem badań są historyczne materiały masowe, choćby księgi inwentaryzacji roślin Departamentu Rolnictwa Stanów Zjednoczonych, gdzie LLM-y wydobywają ustrukturyzowane dane ze zeskanowanych tekstów (32), czy przykład wydawanego od połowy XIX wieku „English Catalogue of Books”, gdzie duże modele okazały się skuteczniejsze w pozyskiwaniu informacji z wpisów w katalogu od tradycyjnie wykorzystywanych w takim celu wyrażeń regularnych (33).
Trzeba też wspomnieć w tym miejscu o prowadzonych w Instytucie Historii PAN pracach związanych z automatycznym przetwarzaniem haseł Słownika Geograficznego Królestwa Polskiego (SGKP) wykorzystujących duże modele do przygotowania ustrukturyzowanych danych, którymi można uzupełniać bazy danych (34). Wszystkie te przykłady potwierdzają przydatność właściwie zastosowanej AI w zakresie zwiększenia dostępności i użyteczności materiałów historycznych i archiwalnych dla naukowców.
Tak jak w przeszłości nie chodziło o zastąpienie warsztatu historyka przez bazy danych i narzędzia statystyczne, także dziś technologia jest jedynie środkiem do celu (19), a duże modele są przecież technologią. Na tyle zaawansowaną, że w znaczący sposób mogą przyspieszyć pewne prace wykonywane dotąd przez zespoły historyków i informatyków np. przy tworzeniu edycji cyfrowych dokumentów źródłowych (21), ale dopiero gotowa edycja zaczyna służyć badaczom do zaawansowanych analiz źródeł historycznych. I właśnie przyspieszenie jest chyba najlepszym określeniem wpływu sztucznej inteligencji na badania historyczne.
Inną kwestią jest rosnąca rola AI w dziedzinie programowania, historycy cyfrowi często wchodzili w rolę programistów tworząc specyficzne narzędzia i skrypty do swoich projektów, dziś ta możliwość staje się dostępna także dla programistycznych laików. Systemy takie jak Claude Code czy Codex (od OpenAI), ale też wyspecjalizowane narzędzia jak Replit czy Lovable, pozwalają na przygotowywanie całkiem złożonych aplikacji na podstawie wyrażonych słownie wymagań użytkownika. Umiejętności tego typu (owszem, bowiem użycie takich systemów również wymaga nabycia pewnych umiejętności w wyrażaniu precyzyjnych specyfikacji i iteracyjnego rozwoju aplikacji), zaczynają dziś być nauczane na studiach z cyfrowej humanistyki (25). Te ostatnie zmiany są też przyczyną innego rodzaju refleksji: kim w zasadzie jest dziś cyfrowy historyk, czy ogólniej cyfrowy humanista, gdy technologia znacząco obniża próg trudności? Czy już niedługo nie będzie to pojęcie o znaczeniu historycznym w dosłownym sensie?
Podsumowanie
Współczesny historyk coraz częściej wykracza poza ramy tradycyjnych metod badawczych: badania multidyscyplinarne, wykorzystanie osiągnięć dziedzin niekiedy znacznie odległych od humanistyki przynoszą nowe dane, nowe odpowiedzi i nowe pytania. Choćby badania profili pyłkowych i analiza sieci społecznościowych, które rzuciły ciekawe światło na kwestię upadku państwa pierwszych Piastów (10).
Działa to także w drugą stronę, dane historyczne stają się np. cennym uzupełnieniem badań ekologicznych, studiów nad zmiennością różnorodności biologicznej (11). Sięgnięcie po sztuczną inteligencję, wykorzystywaną już w wielu innych dziedzinach wydaje się więc krokiem naturalnym. W czasach gdy wykorzystanie zaawansowanych metod uczenia maszynowego pozwala nareszcie na odczytywanie zwojów z Herculaneum, ta "zwykła" AI, dostępna na wyciągnięcie ręki, również może przyczyniać się do istotnych osiągnięć w badaniach historycznych, szczególnie jeżeli technologia przestanie być traktowana jako zagrożenie i zamiennik historyka, a stanie się jego asystentem do trudnych zadań. Istnieje co prawda ryzyko, że asystent stanie się inteligentniejszy od badacza 😉 (16)
Piotr Jaskulski
Bibliografia:
- (1) Tomlinson, Kiran, Sonia Jaffe, Will Wang, Scott Counts, and Siddharth Suri. “Working with AI: Measuring the Applicability of Generative AI to Occupations.” arXiv:2507.07935. Preprint, arXiv, December 22, 2025. https://doi.org/10.48550/arXiv.2507.07935.
- (2) Mark Humphries, Is this the Last Generation of Historians?, https://generativehistory.substack.com/p/is-this-the-last-generation-of-historians
- (3) Eman M. Elshaikh, Will AI replace historians?, https://www.oerproject.com/blog/historians-and-ai
- (4) Herbert A. Simon, The New Science of Management Decision, New York and Evantson 1960, str. 38
- (5) Decoding Fairground Newspapers: Analysing History with Large Language Models, https://www.uni.lu/c2dh-en/articles/decoding-fairground-newspapers-analysing-history-with-large-language-models/
- (6) Large Language Models based on historical text could offer informative tools for behavioral science, https://www.pnas.org/doi/10.1073/pnas.2407639121
- (7) Johanna Mauermann and Sarah Oberbichler, LLM Biases: Expected and Unexpected Model Design Effects in Historical Newspaper Article Extraction on the Messina Earthquake, https://dhlab.hypotheses.org/6060
- (8) Marta Glanc, Sylwia Szołucha, Marcin Kostecki, Nieistniejące źródła w książce dziennikarki TVP. Jest ich więcej niż trzy, https://demagog.org.pl/analizy_i_raporty/nieistniejace-zrodla-w-ksiazce-dziennikarki-tvp-jest-ich-wiecej-niz-trzy/
- (9) Chris John, 20 Fake Citations Slip Past Peer Review: AI 'Hallucinations' Expose Crisis in Academic Publishing, https://www.universityherald.com/articles/79947/20251110/20-fake-citations-slip-past-peer-review-ai-hallucinations-expose-crisis-academic-publishing.htm
- (10) Izdebski, Adam, Sambor Czerwiński, Marek Jankowiak, et al. “Unbalanced Social–Ecological Acceleration Led to State Formation Failure in Early Medieval Poland.” Proceedings of the National Academy of Sciences 122, no. 18 (2025): e2409056122. https://doi.org/10.1073/pnas.2409056122
- (11) Navarro, L.M., Armstrong, C.G., Changeux, T. et al. Integrating historical sources for long-term ecological knowledge and biodiversity conservation. Nat. Rev. Biodivers. 1, 657–670 (2025). https://doi.org/10.1038/s44358-025-00084-3
- (12) Hutchinson, D., “Mapping the Latent Past: Assessing Large Language Models as Digital Tools through Source Criticism,” Journal of Digital History, 3(1), 2024. https://doi.org/10.1515/JDH-2023-0018?locatt=label:JDHFULL
- (13) Oberbichler, S., Petz, C. (2025). Working Paper: Implementing Generative AI in the Historical Studies. Zenodo. https://doi.org/10.5281/zenodo.14924737
- (14) Hendrycks, D., Burns, C., Basart, S., Zou, A., Mazeika, M., Song, D., Steinhardt, J. (2021). Measuring Massive Multitask Language Understanding (arXiv:2009.03300). arXiv. http://arxiv.org/abs/2009.03300
- (15) Jakob Hauser, Daniel Kondor, Jenny Reddish, Majid Benam, Enrico Cioni, Federica Villa, James S. Bennett, Daniel Hoyer, Pieter Francois, Peter Turchin, and R. Maria del Rio-Chanona. 2024. Large language models' expert-level global history knowledge benchmark (HiST-LLM). In Proceedings of the 38th International Conference on Neural Information Processing Systems (NIPS '24), Vol. 37. Curran Associates Inc., Red Hook, NY, USA, Article 1016, 32336–32369. https://dl.acm.org/doi/10.5555/3737916.3738932
- (16) Dr inż. Anna Sztyber-Betley: Nie wiem, czy za 10 lat zawód naukowca będzie jeszcze potrzebny, https://forumakademickie.pl/dr-inz-anna-sztyber-betley-czy-za-10-lat-zawod-naukowca-bedzie-jeszcze-potrzebny/
- (17) https://ejournals.eu/czasopismo/kwartalnik-historii-nauki-i-techniki/strona/zasady-stosowania-generatorow-sztucznej-inteligencji
- (18) https://www.historians.org/resource/guiding-principles-for-artificial-intelligence-in-history-education/
- (19) Cha, Javier. “Automating the Past: Artificial Intelligence and the Next Frontiers of Digital History.” International Journal of Humanities and Arts Computing 20, no. 1 (2026): 1–17. https://doi.org/10.3366/ijhac.2026.0361
- (20) https://bigdatastudies.net/deeppast/
- (21) https://ai.ihpan.edu.pl/blog_2026_03.html
- (22) Integrating AI into historical research: a conversation with Benoît Majerus about his ERC project on the history of offshore shell companies, https://www.uni.lu/c2dh-en/articles/integrating-ai-into-historical-research/
- (23) Czy naprawdę mamy wierzyć influencerom “AI”, że Chat GPT zastąpi profesorów historii?, https://blog.humanistyka.dev/2025/10/czy-naprawde-mamy-wierzyc-influencerom-ai-ze-chat-gpt-zastapi-profesorow-historii
- (24) https://terrytao.wordpress.com/2025/11/05/mathematical-exploration-and-discovery-at-scale/
- (25) https://generativehistory.substack.com/p/the-agents-are-waking-up
- (26) Trzeba oczywiście zaznaczyć, że wpływ na to mogły chyba mieć restrykcje w dostępie do komercyjnych usług AI dla chińskich uczelni.
- (27) W przypadku zastępowania zawodu historyka przez AI, krytyczną analizę wspomnianej (1) pracy przedstawiono w https://www.cambridge.org/core/journals/transactions-of-the-royal-historical-society/article/historian-in-the-age-of-ai/37E3B742A2983DF4DAA2E38D48252F89
- (28) Karch, Tristan, Jakhongir Saydaliev, Isabella Di Lenardo, and Frederic Kaplan. “LLM Agents for Interactive Exploration of Historical Cadastre Data: Framework and Application to Venice.” Computational Humanities Research 1 (2025): e11. https://doi.org/10.1017/chr.2025.10014
- (29) Xie, Yunting, Matti La Mela, and Fredrik Tell. “Multimodal LLM-Assisted Information Extraction from Historical Documents: The Case of Swedish Patent Cards (1945-1975) and ChatGPT.” Digital Humanities in the Nordic and Baltic Countries Publications 7, no. 2 (2025). https://doi.org/10.5617/dhnbpub.12294
- (30) Zhang, Shibingfeng, and Giovanni Colavizza. “Named Entity Recognition of Historical Text via Large Language Model.” arXiv:2508.18090. Preprint, arXiv, August 25, 2025. https://doi.org/10.48550/arXiv.2508.18090
- (31) https://generativehistory.substack.com/p/gemini-3-solves-handwriting-recognition
- (32) Stewart, Spencer Dean, and Sanskriti Sinha. “Retrieving Information from Unstructured Historical Sources Using Large Language Models.” Computational Humanities Research 1 (2025): e17. https://doi.org/10.1017/chr.2025.10019
- (33) Preus, Anna, Siddharth Bhogra, and John Carlyle. “Extracting Publishing Data from the English Catalogue of Books.” Journal of Open Humanities Data 12 (March 2026): 55. https://doi.org/10.5334/johd.499
- (34) RADH2025, Book of abstracts: https://radh.unibuc.ro/wp-content/uploads/2025/11/RADH2025BoA.pdf, "AI-Assisted Data Extraction from Late 19th-Century Polish Historical Sources Based on Results from the Vademecum Project"
- (35) Retrieval-augmented generation, https://pl.wikipedia.org/wiki/Retrieval-augmented_generation
- (36) PageIndex, Human-like Document AI https://pageindex.ai/