Delta 3/2026

Człowiek o AI (1): Nadchodzi rewolucja w prowadzeniu badań

Afiliacja: Instytut Informatyki, Uniwersytet Warszawski; Dyrektor Instytutu Badawczego IDEAS

W ostatnich latach termin sztuczna inteligencja (ang. Artificial Intelligence, AI) stał się jednym z najczęściej pojawiających się haseł w mediach, laboratoriach badawczych i rozmowach o przyszłości społeczeństwa. Sztuczna inteligencja nazywana jest technologią przełomową, tzn. innowacją, która tworzy nowy rynek lub radykalnie przekształca istniejący, wypierając dotychczasowe rozwiązania. Niektórzy mówią po prostu, że zmieni to sposób, w jaki robione są rzeczy.

Dotyczy to wielu wykonywanych zawodów, które są przekształcane przez generatywną sztuczną inteligencję. Generatywna sztuczna inteligencja (ang. generative AI), to modele, które tworzą nowe treści: tekst, obraz, muzykę czy kod komputerowy. W przeciwieństwie do wielu wcześniejszych systemów AI, które głównie rozpoznawały lub klasyfikowały dane, generatywne modele produkują coś nowego. Ten fakt sprawia, że wpływają bardzo mocno na zawody kreatywne, takie jak: copywriter, dziennikarz, twórca marketingowy, redaktor i korektor, specjalista PR, ale też grafik komputerowy, ilustrator, projektant UI/UX, twórca gier czy wręcz programista.

Innymi słowy, okazało się, że kreatywność jest stosunkowo prosta dla systemów AI i są one w stanie osiągnąć ludzki poziom generowania treści łatwiej, niż się komukolwiek wcześniej wydawało. Natomiast inteligencja potrzebna do wykonywania prostych czynności, jak składanie prania, jest dużo trudniejsza do osiągnięcia – choć prace oczywiście trwają. Ten zaskakujący stan rzeczy ma też daleko idące konsekwencje, ponieważ należy się spodziewać, że AI będzie w stanie wspierać nas również w bardziej złożonych czynnościach intelektualnych, takich jak prowadzenie badań naukowych.

Brzmi to nadal trochę jak science fiction, ale jest znacznie bliższe realizacji, niż się wydaje, ponieważ w testach inteligencji najnowsze modele AI osiągają wyniki rzędu 140 IQ. Co więcej, osiągają znakomite rezultaty w rozwiązywaniu skomplikowanych zadań matematycznych czy programistycznych.

Więcej o poziomie IQ modeli AI: www.trackingai.org/

Warto w tym kontekście wspomnieć o dwóch przykładach. Po pierwsze, model AlphaProof osiągnął znakomite wyniki na Międzynarodowej Olimpiadzie Matematycznej, odpowiadające zdobyciu srebrnego medalu. Po drugie, ogólny model rozumujący stworzony przez OpenAI rozwiązał wszystkich dwanaście zadań w Międzynarodowych Zespołowych Zawodach Programistycznych (ang. International Collegiate Programming Contest, ICPC). Moim zdaniem ten drugi wynik jest dużo bardziej spektakularny, ponieważ w konkursie brał udział model ogólnego przeznaczenia, a nie system zaprojektowany specjalnie do rozwiązywania jednego typu problemów.

Więcej o zmaganiach AI na MOM: deepmind.google/blog/ai-solves-imo- problems-at-silver-medal-level/

Więcej o zmaganiach AI na ICPC: worldfinals.icpc.global/2025/openai.html

Widać, że sztuczna inteligencja może efektywnie wspierać nas w automatycznym pisaniu kodu, ale też od kilku lat obserwujemy powstawanie rozwiązań wspierających naukowców w żmudnych zadaniach, takich jak wyszukiwanie literatury czy analiza danych. Jednak najnowsza fala narzędzi idzie znacznie dalej. Nie mają być „inteligentnym kalkulatorem”, lecz współbadaczem, który potrafi zaproponować temat badań, sformułować hipotezę, zaplanować eksperyment i sprawdzić jego wynik.

Idea ta zmaterializowała się w postaci dwóch projektów: AI co-scientist Google Research oraz The AI Scientist firmy Sakana AI. Oba opierają się na dużych modelach językowych i architekturach agentowych, lecz ich cele i strategie działania nieco się różnią.

Projekt Google Research ma charakter narzędzia, które dąży do rozszerzenia zdolności badacza i, współpracując z nim, nie próbuje go zastąpić. W tym modelu to naukowiec formułuje cel, np. zagadnienie biologiczne czy chemiczne, a system:

  • przeszukuje literaturę naukową, wykorzystując modele językowe do analizy treści, a nie jedynie słów kluczowych,

    image

  • syntetyzuje aktualny stan wiedzy, wskazując główne wyniki, spory i niespójności,

  • generuje zestaw możliwych hipotez, często reprezentujących odmienne podejścia teoretyczne,

  • proponuje plan badań, sugerując metody, próbki danych, analizę statystyczną oraz potencjalne wyniki.

W szczególności ostatni punkt stanowi największą nowość, ponieważ wcześniejsze narzędzia AI dla nauki działały głównie „po fakcie”, pomagając analizować dane z już przeprowadzonych eksperymentów. AI co-scientist przesuwa ciężar pracy w stronę planowania i projektowania badań, czyli jednego z najbardziej twórczych etapów pracy naukowej.

image

W prezentowanych studiach przypadków system generował hipotezy dotyczące m.in. przekierowania leków oraz mechanizmów chorób zakaźnych. Wymagał jednak zawsze ludzkiej weryfikacji – zarówno merytorycznej, jak i etycznej. Google deklaruje, że system ma być narzędziem do tworzenia odpowiednich pytań badawczych, a nie do podejmowania decyzji o eksperymencie bez udziału naukowca.

Zespół Sakana AI obrał inną strategię: zamiast narzędzia wspierającego badacza, system ma imitować cały cykl badawczy. AI Scientist potrafi:

  • zaproponować pomysł badawczy,

  • zmodyfikować kod eksperymentu lub stworzyć go od zera,

  • uruchomić eksperyment i zebrać wyniki,

  • wygenerować wykresy i tabele,

  • napisać manuskrypt naukowy w LaTeX-u wraz z cytowaniami.

Gdzie w tym wszystkim „nauka”? W testach laboratoryjnych system działał iteracyjnie: po „napisaniu” pracy przeprowadzał własną pseudo-recenzję, wykrywał błędy i wracał do etapu badań, aby poprawić metodologię lub rozszerzyć wyniki. Przypomina to uproszczony, ale rozpoznawalny cykl publikacyjny.

Ograniczenia są jednak wyraźne. System radzi sobie najlepiej w dziedzinach, gdzie eksperyment można przeprowadzić w pełni komputerowo – w uczeniu maszynowym, optymalizacji czy symulacjach. W naukach eksperymentalnych (biologia, chemia, neurofizjologia) nadal nie istnieje droga na skróty: AI może zaproponować eksperyment, ale nie przeprowadzi go fizycznie ani nie sprawdzi skutków w laboratorium. Wygenerowane artykuły były obiecujące, lecz wykazywały niedoskonałości – np. niezręczny dobór cytowań czy uproszczone wnioskowanie.

W historii nauki każda nowa technologia – mikroskop, obliczenia numeryczne, synchrotron, sekwencjonowanie DNA – zmieniała sposób zadawania pytań badawczych. Generatywna sztuczna inteligencja może być kolejnym takim narzędziem, pomagającym formułować hipotezy, projektować eksperymenty i prototypować pomysły szybciej niż kiedykolwiek wcześniej. Taką wiarę wydają się mieć także Stany Zjednoczone, gdzie 24 listopada prezydent Donald Trump podpisał rozporządzenie wykonawcze ustanawiające Misję Genesis. Jak czytamy w dokumencie: „Niniejsze rozporządzenie rozpoczyna Misję Genesis jako ukierunkowane i skoordynowane ogólnokrajowe przedsięwzięcie mające na celu uwolnienie nowej epoki innowacji i odkryć napędzanych sztuczną inteligencją, które mogą rozwiązać najtrudniejsze problemy XXI wieku”.

Więcej o Misji Genesis: www.whitehouse.gov/presidential-actions/ 2025/11/launching-the-genesis-mission/

Czy algorytmy staną się rzeczywiście „współautorami” odkryć? Odpowiedź zależy zapewne od tego, czy badacze potraktują AI jako kreatywnego partnera, czy tylko szybszą maszynę do pisania kodu. Dzisiejsze rozwiązania nie uprawiają nauki za nas – ale mogą sprawić, że będziemy zadawać lepsze pytania. Ja osobiście nie mogę się doczekać, kiedy odkrycia naukowe przyspieszą dzięki AI. Myślę, że rzeczywiście drastycznie zmieni się praca naukowca, a najbardziej w dyscyplinach teoretycznych, jak matematyka, fizyka teoretyczna czy informatyka teoretyczna. Badacze pracujący w tych dziedzinach będą musieli pogodzić się z koniecznością podjęcia współpracy z AI, aby tworzyć nowe odkrycia. Jednakże bycie takim „operatorem” AI będzie wymagało nadal ogromnej wiedzy i na pewno doświadczenia.

image