Det er ihvertfall det skaperne ønsker å overbevise investorene om...Med denne AI og dens like har vi åpnet Pandoras eske har jeg på følelsen av. Dette lar seg ikke reversere, heller akselerere over i uante dimensjoner.
Det er ihvertfall det skaperne ønsker å overbevise investorene om...Med denne AI og dens like har vi åpnet Pandoras eske har jeg på følelsen av. Dette lar seg ikke reversere, heller akselerere over i uante dimensjoner.
Poenget var mer hva menneskelighet egentlig er? Hva er det vi egentlig projiserer? Er det mulig å forstå det menneskelige aspekt bedre i lys av AI?Du latet til å være opptatt av å projiere menneskelighet inn i en chatbot, så ja.Kanskje du fotstår ditt eget poeng bedre... Trenger egentlig ikke se mer enn 5-10 minutter før du skjønner tegninga.
Dette er til dels veldig annerledes enn min erfaring. Jeg får ofte «beklager, jeg har tatt feil» eller «det var et viktig poeng» type svar når jeg bruker dette i mitt daglige virke. Men, så opplever jeg like ofte at den går i sirkel. Da må man stort sett bare begynne dialogen på nytt og gjerne med en litt annen vinkling. Feilfritt? Neppe. Nyttig? Ja, definitivt! Det er som med alle verktøy; de må brukes riktig og har sine begrensninger.Problemet med denne strategien er at det ikke fungerer som et menneske, der en har en eller annen formening i utgangspunktet (dvs en idé om hva som er sant) som en så prøver å formidle i språk. LLMer begynner ikke der, men med å formulere et språklig svar som ut fra sannsynlighetsberegning bør nærme seg noe et menneske kunne svart, basert på treningsdata. Det innebærer at om en utfordrer LLMen, så vil en bare gå nye runder med sannsynlighetsberegning, og ikke komme nærmere hva den "egentlig" mener - for noe sånt fins ikke.
Enig , god artikkel. Holder på med den, litt lang men gir god innsikt.vi har strengt tatt en egen tråd om disse modellene, men for den som ikke leser den så minner jeg nok en gang om denne artikkelen. Den er nå tre år gammel, og den er veldig lang, men det er noe av det beste jeg har lest om hvordan disse modellene funker på innsiden
![]()
What Is ChatGPT Doing … and Why Does It Work?
Stephen Wolfram explores the broader picture of what's going on inside ChatGPT and why it produces meaningful text. Discusses models, training neural nets, embeddings, tokens, transformers, language syntax.writings.stephenwolfram.com
Nemlig, derfor synes jeg LLM er genial til å la meg føre en samtale med meg selv, ha noe å teste ideer mot selv om den tidvis misforstår og halve økten går til å forklare forutsettningene.Den prosessen du beskriver er vel egentlig en måte for deg å komme frem til et svar du på forhånd vet er riktig, eller er klar til å akseptere? Det vil jo ikke fungere om du ikke vet svaret på forhånd, for da har du jo ingen mulighet til å vurdere om den har tatt feil eller om det er riktig at du har et "viktig poeng".