Myślałem, że wiem. Jedno pytanie pokazało prawdę

Pokój nauczycielski pachniał świeżo zaparzoną kawą i zmęczeniem po czterech godzinach lekcji. Marcin, nauczyciel matematyki, przerzucał kartki podręcznika do trygonometrii i westchnął głośno.

"Jak ty to robisz, Teo? Moi uczniowie patrzą na równania jak na egipskie hieroglify. A twoi na kole AI gadają o modelach językowych, jakby to była najprostsza rzecz na świecie."

Uśmiechnąłem się, ale to nie był uśmiech dumy. To był uśmiech kogoś, kto pamięta własną lekcję pokory.

"Wiesz, rok temu myślałem, że wystarczy znać temat. Zaliczyłem kursy o sztucznej inteligencji, rozumiałem techniczne szczegóły, czułem się jak ekspert. A potem jedna uczennica zadała pytanie..."

Pytanie, które obnażyło iluzję wiedzy

Czwartek po lekcjach, jak zwykle mieliśmy zajęcia w pracowni komputerowej z kołem zainteresowań sztuczną inteligencją. Atmosfera swobodna, uczniowie eksperymentowali z ChatGPT i Claude, testowali różne prompty, śmiali się z absurdalnych odpowiedzi. Pokazywałem im praktyczne zastosowania - jak tworzyć lepsze zapytania, jakie są możliwości, gdzie granice. Czułem się pewnie. W końcu przeszedłem trzy kursy o dużych modelach językowych, znałem szczegóły techniczne.

Nagle Kasia, uczennica drugiej klasy, zawsze ciekawa szczegółów, podniosła rękę.

"Panie profesorze, dlaczego Claude czasem wymyśla książki, których nie ma? Wczoraj poprosiłam o bibliografię do pracy o klimacie i połowa tytułów nie istnieje. Skoro to taka zaawansowana AI, jak może po prostu kłamać?"

Poczułem przypływ entuzjazmu. Świetne pytanie! Przecież ja to wiem, uczyli tego na kursie. Uśmiechnąłem się szeroko.

"To świetne pytanie, Kasiu!"

I zacząłem mówić szybko, pewnie, używając wszystkiego, co zapamiętałem z wykładów:

"To wynika z autoregresywnej predykcji tokenów - model przewiduje najbardziej prawdopodobny następny fragment tekstu, bazując na kontekście. Podczas treningu uczył się na wzorcach statystycznych z milionów dokumentów, wykorzystując attention mechanism w architekturze transformerowej. Problem w tym, że nie ma dostępu do zewnętrznej bazy wiedzy w czasie inferencji, tylko operuje na tych wyuczonych wzorcach. Temperature sampling kontroluje losowość odpowiedzi, ale to nie zmienia faktu, że training data cutoff oznacza brak świadomości o świecie po dacie zamknięcia zbioru. Konfabulacja to emergentna właściwość - model ma silną presję, żeby dokończyć sekwencję, więc gdy brakuje mu pewności, generuje coś, co brzmi prawdopodobnie, bazując na wzorcach językowych..."

Urwałem. Uczniowie patrzyli po sobie z wyrazem kompletnego zagubienia. Kasia mrugała oczami, próbując przetworzyć lawinę terminów. W sali zapanowała cisza.

Kamil, siedzący z tyłu, odezwał się w końcu:

"Że... co?"

Spojrzałem na ich twarze. Na Kasię, która zadała uczciwe pytanie i dostała odpowiedź brzmiącą jak zaklęcie. Na Kamila, który nawet nie próbował ukryć, że nic nie zrozumiał. Na pozostałych, którzy grzecznie czekali, czy za chwilę przełożę to na ludzki język.

I wtedy do mnie dotarło. Powtórzyłem formułkę z kursu, nie myśląc, co ona oznacza dla kogoś, kto pierwszy raz słyszy o architekturze transformerowej. Znałem słowa, ale nie potrafiłem ich przetłumaczyć na język, który faktycznie coś wyjaśnia.

"Przepraszam was" - powiedziałem wolniej, spokojniej. "To bardzo dobre pytanie, Kasiu. Mam w głowie odpowiedź - wiem, że wiem, dlaczego tak się dzieje. Ale zdaję sobie sprawę, że nie potrafię tego wytłumaczyć tak, żebyście zrozumieli bez znajomości technicznej. Muszę się nad tym zastanowić."

Praca nad prawdziwym zrozumieniem

Tego wieczoru siedziałem przy biurku z rozłożonymi notatkami z kursów. Próbowałem napisać wyjaśnienie własnymi słowami. Każda próba wychodziła albo zbyt techniczna, albo zbyt uproszczona i nieprawdziwa.

Otworzyłem Claude.

"Wytłumacz mi, dlaczego duże modele językowe halucynują fakty, ale tak, jakbyś mówił do piętnastolatka."

Przeczytałem odpowiedź AI. Lepiej, ale wciąż nie do końca to. Próbowałem przeformułować własnymi słowami, ale słyszałem w głowie głos nauczyciela z kursu i znowu wpadałem w żargon.

Następnego dnia złapałem bratanka w korytarzu - siedemnastolatek, zero zainteresowania technologią, żyje piłką nożną i muzyką. Idealny test.

"Posłuchaj, spróbuję ci coś wytłumaczyć..."

Po trzech minutach brataniek patrzył na mnie tak samo jak uczniowie na kole. Wciąż za trudne.

Wróciłem do Claude z dopytaniem: "To wciąż za skomplikowane. Spróbuj jeszcze prościej, użyj analogii z codziennego życia, czegoś, co każdy zna."

Tym razem poczułem, że coś drgnęło. Przeczytałem odpowiedź raz, drugi, trzeci. Próbowałem powtórzyć własnymi słowami, nie patrząc w ekran. Brzmiało to wreszcie jak wyjaśnienie, nie jak zaklęcie.

Moment prawdy

Tydzień później, następne spotkanie koła. Wróciłem z odpowiedzią. Tym razem byłem przygotowany. Tym razem miałem wyjaśnienie, które faktycznie działało.

"Okej, pamiętacie pytanie Kasi o wymyślanie książek? Obiecałem wytłumaczyć to prosto. Więc słuchajcie."

Uczniowie odłożyli telefony.

"Wyobraźcie sobie, że uczycie się języka obcego tylko ze słuchania. Nigdy nie widzieliście słownika, nie możecie sprawdzić znaczenia słów. Po prostu słuchacie tysięcy rozmów i zacynacie wyczuwać, jakie słowa zazwyczaj idą po sobie.

AI działa podobnie. Przeczytało miliony tekstów i nauczyło się wzorców - jakie słowa, zdania, pomysły zazwyczaj pojawiają się razem. Gdy Kasia pyta o książki o klimacie, AI 'czuje', że powinno podać tytuły, które BRZMIĄ jak prawdziwe książki naukowe. Wie, że takie tytuły zazwyczaj mają słowa typu 'globalne ocieplenie', 'emisja CO2', nazwiska, które kojarzą się z nauką.

Ale - i to kluczowe - AI nie ma w sobie wyszukiwarki Google. Nie może sprawdzić 'czy ta książka naprawdę istnieje'. Może tylko wygenerować coś, co statystycznie wygląda jak prawdziwy tytuł. Czasem trafia w istniejącą książkę, bo wzorce się zgadzają. Czasem wymyśla coś, co brzmi przekonująco, ale nie istnieje.

To jak gdybyście mieli zamknięte oczy i ktoś poprosił was 'podaj mi pięć polskich miast'. Powiecie Warszawa, Kraków, Gdańsk - to wiecie na pewno. Ale co, jeśli trzeba pięć? Możecie powiedzieć Katowice i nie być pewni, czy to duże miasto, czy dzielnica. Albo wymyślić coś, co brzmi jak polskie miasto - Nowakowo, Górniki - bo znacie wzorce, jak brzmią polskie nazwy.

AI robi dokładnie to samo. Nie kłamie celowo. Po prostu generuje to, co statystycznie pasuje do pytania, nie mając możliwości sprawdzenia, czy to prawda."

Kasia kiwnęła głową powoli. "Aha! Czyli to nie błąd, tylko właściwość?"

"Dokładnie. To konsekwencja tego, jak AI się uczy."

Tym razem wszyscy kiwali głowami.

Lekcja, która wykracza poza AI

Marcin słuchał w skupieniu. Teraz kiwnął głową powoli.

"Czyli najpierw próbujesz sam wytłumaczyć, potem..."

"Dokładnie. Jeśli się plączę, to znak, że nie rozumiem wystarczająco dobrze. Dopiero później dowiedziałem się, że to ma nawet nazwę - technika Feynmana. Od fizyka, który mawiał, że jeśli nie potrafisz czegoś wyjaśnić tak, żeby zrozumiał student pierwszego roku, sam tego nie rozumiesz."

"A jak często to robisz?"

"Za każdym razem, gdy zaczynam nowy temat na kole. I wiesz co? Czasem odkrywam, że rzeczy, które wydawały mi się oczywiste, wcale takie nie są. To jak sprawdzian dla samego siebie przed sprawdzianem uczniów."

Marcin wpisywał coś w telefon. "Muszę spróbować z tymi równaniami."

Zbierałem swoje rzeczy. "Jest fajny przewodnik o tym - 'Zeszyt 7 - Rozwój'. Opisuje siedem różnych metod sprawdzania, czy naprawdę wiesz to, co myślisz, że wiesz. Technika Feynmana to tylko jedna z nich. Mogę ci pożyczyć, jeśli chcesz."

"Podeślij mi link" - Marcin już był przy drzwiach, wyraźnie zamyślony. Pewnie już układał w głowie, jak wytłumaczyć funkcje trygonometryczne, jakby rozmawiał z dziesięciolatkiem.





Komentarze