Czy SkyNet śni o elektrycznych owcach?

¿Sueña Skynet con ovejas eléctricas?

W ciągu ostatnich czterech lat przyczyniliśmy się do gwałtownego postępu w dziedzinie dużych modeli językowych (LLM). Dla wielu, w tym dla mnie, na największą uwagę zasługują te modele, które „myślą, zanim odpowiedzą", zdolne do wygenerowania swoistej drogi pośredniej, którą postępują stopniowo, małymi krokami, w celu rozwiązania danego zadania. Pomysł ten ma charakter sugestywny: jeśli model zacznie „myśleć", może zbliżyć się do sposobu rozumowania ludzkiego, czyli naszego (i pomóc nam lepiej zrozumieć mechanizmy rządzące naszymi własnymi umysłami). Historia ta powinna jednak zostać opowiedziana spokojnie i bez upiększeń. Istotne jest to, aby wiedzieć, co te systemy LLM robią dobrze, co bardzo dobrze, ale także to, czego jeszcze nie potrafią, aby nie dać się wprowadzić w błąd.

Na początku lata opublikowano artykuł badawczy Apple [1] , który wywołał bardzo ciekawą dyskusję. Autorzy sugerowali, że powyżej pewnego progu trudności modele LLM nie tylko zaczynały częściej zawodzić, ale także zmniejszały swój „wysiłek rozumowania", nawet jeśli nadal dysponowały marginesem obliczeniowym. W przeprowadzanych przez nich eksperymentach, w obliczu łamigłówek znanych jako wieże Hanoi z wieloma dyskami, model zdawał się przedwcześnie rezygnować z czynienia dalszych wysiłków. Zachowanie to nazwali „zmęczeniem antycypacyjnym". Szczegółowa analiza przeprowadzona przez niezależnych recenzentów wykazała, że część tego efektu można wyjaśnić sposobem, w jaki zaprojektowano testy: zadania składające się z bardzo wielu kroków, w których jedno potknięcie prowadzi do kolejnych, oraz z wymaganiami pamięciowymi (okno kontekstowe) przekraczającymi to, co testowane LLM były w stanie obsłużyć na raz. W tym scenariuszu przedwczesna rezygnacja była nie tyle „efektem emocji", co praktyczną konsekwencją: trudno jest bowiem wytrwać w próbie dotarcia do celu, jeśli wiesz, że po drodze zabłądzisz.

Poza niuansami metodologicznymi, artykuł Apple wywołał niezwykle pozytywne skutki: zmusił społeczność do dogłębniejszej analizy i lepszego pomiaru tych strategii „myślenia na głos" oraz zbadania tego, jak uczynić je bardziej wiarygodnymi. Od tego czasu pojawiło się wiele rozmaitych podejść. Niektóre z nich inspirowane są ludzkimi nawykami, które sprawdzają się podczas rozwiązywania problemów: dzielenie zadania na małe kroki (które nazwiemy podkrokami), zestawianie jednego pomysłu z innym lub proszenie o drugą opinię przed podjęciem ostatecznej decyzji. Inne badają mniej intuicyjne ścieżki, takie jak uczenie posiłkowane, które nagradza przydatne zachowania, nawet jeśli nie wiemy, jak wyrazić je słowami. Mapa ta obejmuje nazwy takie jak OpenAI [2] lub Anthropic [3], z bardziej „ludzkimi" liniami, oraz inicjatywy takie jak DeepSeek, które wypróbowują rozmaite skróty [4].

Przydatną lekcją, jaką wyciągnięto z badań opublikowanych w minionych miesiącach letnich jest to, że gdy model próbuje rozumować w bardzo długich sekwencjach, możliwość popełnienia drobnych błędów, które następnie pociągają za sobą inne, jest zwielokrotniona. Czasami dzieje się tak, ponieważ system „uczepi się” konkretnego, dobrze brzmiącego wyjaśnienia, i przestaje szukać alternatyw, tak jakby ograniczył swoje zdolności do tzw. „widzenia tunelowego" [5]. Inną przyczyną jest utrata zaufania do własnego „toku myślenia" [6] - zaprzecza sobie i ostatecznie wybiera gorszą ścieżkę. Aby złagodzić skutki tego stanu rzeczy, usiłowano sprawić, by model generował kilka „linii myślenia" równolegle, a następnie trzymał się najbardziej obiecującej [7] lub ważonej kombinacji. Mechanizmy te w wielu przypadkach poprawiają wyniki, choć sprawiają również, że proces ten jest bardziej kosztowny pod względem obliczeniowym. Podczas tej naukowej eksploracji zdaliśmy sobie również sprawę z innego, dobrze znanego problemu: mianowicie z łatwości, z jaką modele „wymyślają” szczegóły. Robią to nie ze złośliwości, ale dlatego, że nauczyły się, iż w przypadku braku danych, uzupełnienie zdania czymś wiarygodnym jest często lepsze niż milczenie [8] (co technicznie nazywamy halucynacjami, które mogą nawet stać się poważnym problemem z dziedziny bezpieczeństwa komputerowego [9]). To właśnie dlatego prowadzone są obecnie badania nad tym, jak nauczyć te modele wątpienia, a także rozpoznawania błędów i dokonywania weryfikacji przed ostatecznym potwierdzeniem informacji.

Zawarta w tytule tego postu metafora wskazuje jednak na coś znacznie głębszego. Dziś to, co nazywamy „rozumowaniem" w tychże systemach, jest nadal bardzo ograniczoną i powierzchowną symulacją, jak będziemy mieć sposobność zaobserwować w kolejnym poście z tej serii. Modele wyróżniają się, gdy mogą ponownie wykorzystywać wzorce , które widziały już tysiące razy podczas sesji treningowych. Jeżeli zmienimy nazwy elementów problemu, jeśli wprowadzimy nieistotne i rozpraszające dane lub jeśli poprosimy je o uogólnienie na nowe struktury, ich wydajność znacznie spadnie. 

Moim zdaniem nazwa „modele rozumujące" jest mylącym terminem marketingowym, ponieważ dzisiejsze SI nie rozumują w taki sam sposób, jak czynią to ludzie. Uzyskane wyniki pokazują, że obecne modele mają ograniczenia nie tylko w rozumowaniu symbolicznym, ale także w uogólnianiu strukturalnym. Nie tworzą nowych znaczeń ani nie weryfikują w sposób intencjonalny. Działają na zasadzie korelacji, a nie zrozumienia. Symulują rozumowanie, ale go nie doświadczają. Inni badacze, tacy jak niedawny laureat Nagrody Nobla Yann LeCun, długo debatowali nad tymi kwestiami. LLM robią coś odmiennego, cennego w wielu kontekstach, ale odmiennego.

W żaden sposób nie umniejsza to wartości poczynionych postępów, które są ogromne i mają realne i korzystne zastosowania. Właśnie dlatego ważne jest, aby zachować krytyczne i uczciwe spojrzenie. Jeśli damy się zwieść górnolotnym i szumnym nagłówkom, możemy pomylić skuteczne ponowne wykorzystanie wzorców z głębokim myśleniem. A to nie to samo. Ponowne wykorzystanie to doskonała pomoc w szybszej i lepszej pracy nad realizacją powtarzających się czynności lub zadań o znanej strukturze. Z drugiej strony, głębokie myślenie pojawia się wówczas, gdy trzeba odkrywać nowe ścieżki, odrzucać opcje, sprawdzać wyniki, a czasem i po drodze zmieniać podejście. Aby automatyczny system mógł niezawodnie zbliżyć się do tego poziomu inteligencji, musi być w stanie zrobić coś więcej niż tylko łączyć poszczególne frazy: musi umieć badać, weryfikować i uczyć się w obrębie samego procesu.

Przed przekazaniem krytycznych decyzji tym modelom (w zakresie autonomicznej mobilności, cyberbezpieczeństwa, inżynierii systemów, a nawet polityki [10]), warto jest zadać sobie dwa proste pytania. Pierwsze: Czy ten problem jest wystarczająco podobny do innych, z którymi model LLM miał już do czynienia, czy też prosimy go o poruszanie się po niezbadanym gruncie? Drugie: Czy przeprowadzono niezależną weryfikację tego, co proponuje, czy jest to tylko odpowiedź, która sama w sobie brzmi przekonująco? Jeśli udzielimy poważnej odpowiedzi na te dwa pytania, unikniemy nieporozumień i podejmiemy lepsze decyzje. W niniejszej serii postów chciałbym prześledzić ten właśnie wątek. W ramach przyszłej edycji przyjrzymy się, dlaczego wiele z sukcesów modeli LLM to przede wszystkim genialne przypadki ponownego wykorzystania wzorców, a w trzeciej porozmawiamy o czymś, co szczególnie wzbudza moje zainteresowanie: jak zmienia się nasze własne zachowanie, gdy pracujemy z tymi narzędziami i jak bardzo wpływają one na sposób, w jaki myślimy i rozwiązujemy problemy.

W niniejszym artykule pragnę przybliżyć ludziom sztuczną inteligencję z zastosowaniem użytecznego, odpowiedzialnego i przejrzystego podejścia. Moim zamiarem jest dzielenie się w tej przestrzeni w sposób dydaktyczny tym, czego nauczyłem się przy realizacji projektów, nad którymi pracuję w GMV, aby pomóc odróżnić oczekiwania od rzeczywistości i aby każdy (od studentów po profesjonalistów) był w stanie podejmować lepsze decyzje. Chciałbym zaprosić Was do śledzenia tej serii oraz zadawania mi pytań i prowadzenia dyskusji.

Autor: David Miruat

 

BIBLIOGRAFIA:

[1] P. Shojaee, I. Mirzadeh, K. Alizadeh, M. Horton, S. Bengio i M. Farajtabar, "The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity", 18 lipca 2025 r., arXiv: arXiv:2506.06941. doi: 10.48550/arXiv.2506.06941.

[2] A. El-Kishky et al., "Learning to Reason with LLMs". OpenAI, wrzesień 2024 r. Dostęp: 2025-09-25 r. [Online]. Dostępny pod adresem: https://openai.com/index/learning-to-reason-with-llms/

[3]         Y. Chen et al., "Reasoning Models Don't Always Say What They Think", 8 maja 2025 r., arXiv: arXiv:2505.05410. doi: 10.48550/arXiv.2505.05410.

[4] D. Guo et al., "DeepSeek-R1 incentivizes reasoning in LLMs through reinforcement learning", Nature, vol. 645, nr 8081, s. 633-638, wrz. 2025, doi: 10.1038/s41586-025-09422-z.

[5] H. Wen et al., "ParaThinker: Native Parallel Thinking as a New Paradigm to Scale LLM Test-time Compute", 30 sierpnia 2025, arXiv: arXiv:2509.04475. doi: 10.48550/arXiv.2509.04475.

[6] A. Sinha, A. Arun, S. Goel, S. Staab i J. Geiping, "The Illusion of Diminishing Returns: Measuring Long Horizon Execution in LLMs", 11 września 2025 r., arXiv: arXiv:2509.09677. doi: 10.48550/arXiv.2509.09677.

[7] W. Zhao, P. Aggarwal, S. Saha, A. Celikyilmaz, J. Weston i I. Kulikov, "The Majority is not always right: RL training for solution aggregation", 8 września 2025, arXiv: arXiv:2509.06870. doi: 10.48550/arXiv.2509.06870.

[8] A. T. Kalai, O. Nachum, S. S. Vempala i E. Zhang, "Why Language Models Hallucinate", 4 września 2025 r., arXiv: arXiv:2509.04664. doi: 10.48550/arXiv.2509.04664.

[9] D. Miraut, "Slopsquatting: una amenaza silenciosa nacida de las alucinaciones de los LLMs", GMV Blog. Dostęp: 2025-09-25 r. [Online]. Dostępny pod adresem: https://www.gmv.com/es-es/media/blog/ciberseguridad/slopsquatting-amenaza-silenciosa-nacida-alucinaciones-llms

[10] RTVE.es, "El Gobierno de Albania nombra a una "ministra" creada con Inteligencia Artificial para acabar con la corrupción", RTVE.es. Dostęp: 2025-09-25 r. [Online]. Dostępny pod adresem: https://www.rtve.es/noticias/20250912/gobierno-albania-nombra-ministra-creada-inteligencia-artificial-acabar-corrupcion/16726028.shtml

Dodaj komentarz

Not show on Home
Inactiu

Source URL: https://www.gmv.com/media/blog/cyberbezpieczenstwo-wszystkie-podsektory/czy-skynet-sni-elektrycznych-owcach