Problemet med denne strategien er at det ikke fungerer som et menneske, der en har en eller annen formening i utgangspunktet (dvs en idé om hva som er sant) som en så prøver å formidle i språk. LLMer begynner ikke der, men med å formulere et språklig svar som ut fra sannsynlighetsberegning bør nærme seg noe et menneske kunne svart, basert på treningsdata. Det innebærer at om en utfordrer LLMen, så vil en bare gå nye runder med sannsynlighetsberegning, og ikke komme nærmere hva den "egentlig" mener - for noe sånt fins ikke.