Nie do końca rozumiem, dlaczego brzmienie świadome = jest świadome. Po wstępnym przeszkoleniu modelu przeprowadzasz wiele dostosowań na wysokiej jakości danych, aby uczynić go zdolnym do rozmowy, rozwiązywania problemów itd. i czy to nagle czyni go świadomym? Optymalizacja w celu stworzenia doświadczenia przypominającego ludzkie to jedna z wielu możliwych form, jakie może przyjąć LLM. Możesz go szkolić na arkuszach kalkulacyjnych, kodzie, jsonach, tokenach obrazów. Wydaje się strasznie stronnicze zakładać, że świadomość jest związana z silną replikacją ludzkiego zachowania.