Hva er det som gjør at ChatGPT bommer her?
Jeg tolker dette som et resultat av LLMers grunnleggende virkemåte. De er generaliseringsmaskiner som tar utgangspunkt i tekst. Når de trenes opp, så trenes de opp på (amerikansk) tekst og mønstre av symboler som er minst ett abstraksjonsnivå unna det du opplever når du holder en tusj.
Utfordringen for ChatGPT har alltid vært, og kommer alltid til å bli, et spørsmål om grenseverdier, fordi LLMer og mennesker forholder seg til verden på fundamentalt forskjellige måter. LLMer tar utgangspunkt i hvordan mennesker vanligvis beskriver verden og prøver å etterape det, og når det ikke funker, så bruker man forskjellige tiltak for å kunne gjøre etterapingen mer troverdig. Mennesker, på den andre siden, lever gjennom å navigere i en verden som består av mange forskjellige typer inntrykk og uttrykk – fysiske, sosiale, estetiske osv – som endrer seg hele tiden, og består av mye mer enn det vi klarer å sette ord på. Vi kan føle oss veldig komfortable med situasjoner som er filosofisk og logisk problematiske. For eksempel kan vi leve greit med at Thesevs' skip fortsatt er det samme skipet selv om alle bord og nagler er byttet ut gjennom årene. Eller at et
Jackson Pollock-maleri er fullt av mening. Eller at poesi fins i det hele tatt.
I
en artikkel fra 2007 kritiserer Hubert Dreyfus selv de beste KI-modellene for å være for rasjonelle. De ignorerer noe fundamentalt menneskelig, som er at mennesker ikke forholder seg til verden
som representasjoner, men som verden
som verden:
I repeated what I had written in 1972 in
What Computers Can’t Do: “[T] he meaningful objects. . . among which we live are not a
model of the world stored in our mind or brain;
they are the world itself.” And I quoted approvingly a Stanford Research Institute report that, “It turned out to be very difficult to reproduce in an internal representation for a computer the necessary richness of environment that would give rise to interesting behavior by a highly adaptive robot,” and concluded that “this problem is avoided by human beings because their model of the world is the world itself.”
Når et menneske bruker en hammer, så er det en kompleks prosess som er sentrert rundt menneskets opplevelse av å bruke den hammeren, ikke hammerens funksjon (slik KI-er forutsetter):
Heidegger wants to get at something more basic than simply a class of objects defined by their use. At his best Heidegger would, I think, deny that a hammer in a drawer has readiness-to-hand as its way of being. Rather, he sees that,
for the user, equipment is encountered as
a solicitation to act, not
an entity with a function feature.
[…]
As usual with Heidegger, we must ask: What is the phenomenon he is pointing out? In this case he wants us to see that, to observe our hammer or to observe ourselves hammering undermines our skillful coping. We can and do observe our surroundings while we cope, and sometimes, if we are learning, monitoring our performance as we learn improves our performance in the long run, but in the short run such attention interferes with our performance. For example, while biking we can observe passers by, or think about philosophy, but if we start observing how we skillfully stay balanced, we risk falling over.
Heidegger struggles to describe the basic way we are drawn in by the ready-to-hand. The Gestaltists would later talk of “
solicitations.” In
Phenomenology of Perception Merleau-Ponty speaks of “
motivations” and later, of “
the flesh.” All these terms point at what is not objectifyable—a situation’s way of directly drawing from one a response that is neither caused like a reflex, nor done for a reason.
[…]
Heidegger’s important insight is not that, when we solve problems, we sometimes make use of representational equipment outside our bodies, but that
being-in-the-world is more basic than
thinking and solving problems;that it is not representational at all. That is, when we are coping at our best, we are drawn in by solicitations and respond directly to them, so that the distinction between us and our equipment—between inner and outer—vanishes.
Dreyfus sin konklusjon er at KI-modeller som prøver å være menneske, ikke egentlig kan lykkes med det før de prøver å være menneske fullt og helt – og det er urealistisk at de kan få til, for det er så mye der som ikke kan modelleres.