Diverse OpenAI - sjukt imponerende AI

Diskusjonstråd Se tråd i gallerivisning

  • Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.810
    Antall liker
    8.774
    Sted
    Au recherche du futur perdu
    ^ Tenkte først å kommentera at akkurat dei omslaga er no ikkje så viktige, og såg bort på Skald sine flotte nyomsetjingar med stoffomslag.

    På vegen streifa blikket mitt Tolkien-hylla, og poenget ramla, splætt, til jorda. Det same kan ein seia om Hardyguttene, som vi las slik som ungar i dag les boka i saka. Eller om “Detektivbyrå nummer to”, der Hans Jørgen Sandnes er minst like viktig som Lier Horst for korleis lesaren opplever bøkene. Eller Thore Hansen for Ruffen (og alt anna han har teikna). Eller Ilon Wikland (Lindgren mm). Eller Iben Sandemose (særleg dei bøkene ho teikna og skreiv på 1980-talet). Eller dei litt rare teikningane til Anna Fiske.

    (Eg har ikkje så frykteleg sans for Lisa Aisato, men det er mest eit spørsmål om smak. Eg liker ikkje streken til Sandnes så godt, heller).

    Eg trur barn fort forstår at bøker med elendig AI-omslag er bøker ingen bryr seg om. Og det er jo leit, sidan Unni Lindell ikkje er ein dårleg forfattar.
     

    PederP

    Æresmedlem
    Ble medlem
    27.04.2019
    Innlegg
    13.348
    Antall liker
    32.950
    Sted
    Nordvest på Jæren
    Torget vurderinger
    9
    Nasjonalmuseet retter søkelyset på kopiens verdi i ny utstilling. I motsetning til det historieløse KI-genererte bildet vil dyktig utførte kopier kunne aktualisere originalen. Lamassu skulptur-kopien, som midlertidig voktet Stavanger domkirke i 2025, er ett eksempel, mens domkirkens nær 100 år gamle Rubens-kopi er for mange en godt bevart hemmelighet.

     

    Mar-a-Lago Club

    Hi-Fi freak
    Ble medlem
    14.02.2025
    Innlegg
    1.422
    Antall liker
    3.205
    Sted
    Halden
    Torget vurderinger
    2
    Open AI har store problemer, Kostnadene forbundet ved drift er skyhøye, inntektene er små. Måneds-/Årsabo dekker en liten brøkdel av reelle kostnader. Kunder vil måtte betale for tokenbruk og det blir dyre "kilowatt".
    Selskapet ønsker å gå på børs, men dets CFO er skeptisk, noe som da fører til at CEO (Altman) ikke snakker med sin CFO og ikke tar henne med på møter med potensielle investors.
    Han bedriver rundkjøp (NVIDIA låner ut penger som AI-selskap bruker for å kjøpe "compute" av NVIDIA, slik går dagene). Datasenterplaner skrinlegges og sakte går det opp for dem at LLM ikke er løsningen, og at AGI ikke vil kunne oppnås etter det prinsippet.

    Spanande.
     

    PederP

    Æresmedlem
    Ble medlem
    27.04.2019
    Innlegg
    13.348
    Antall liker
    32.950
    Sted
    Nordvest på Jæren
    Torget vurderinger
    9
    I begynnelsen av 2026 ble det for første gang målt mer aktivitet fra KI enn fra mennesker på internett, og aktiviteten fra KI vokser for øyeblikket åtte ganger raskere enn menneskelig aktivitet.

     

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.984
    Antall liker
    17.036
    Jeg har diskutert treningsopplegg i kvardagen, har foret modellen med litt praktiske detaljer, primært at det er minimum 6.5km til jobb en vei som kan utvides så mye man måtte ønsker, at jeg bor ca 130 meter høyere enn kontorlokasjonen, at jeg i utgangspunktet kan gjøre noe alle dager til og/eller fra jobb, at det skal tas hensyn til styrkeøkter to kvelder i uken, at jeg kan gå fort, løpe eller sykle til jobb og vil ha en grei miks av høy og lav intensitet.

    Forslagene som kommer er forsåvidt bra nok, men det er artig hva de sliter med. Det oppstår eksempelvis en del forvirring om hvilken vei det er netto oppover- eller nedoverbakke i forslagene. Kanskje også artigere med planer som involverer å sykle til jobb en morgen, løpe intervaller hjem og så sykle neste morgen. Ok, men hvor er sykkelen min da?

    Jeg har diskutert på engelsk så eventuell språkforvirring bør det ikke være, det å sykle en morgen, løpe en ettermiddag og sykle neste morgen er sikkert veldig vanlig, men den ikke så veldig subtile detaljen om at start- og sluttpunkt for øktene ikke er det samme ser ut til å forsvinne.
     

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.810
    Antall liker
    8.774
    Sted
    Au recherche du futur perdu
    Eg måtte bruka litt energi på å forstå dette, men forstår eg det rett når eg les dette som at:

    Fordi matrisane i KI er «sparse», er eigentleg GPGPU (typ NVIDIA i dag) feil medisin; dei har mange, raske kjerner, og er lynande raske på store operasjonar fordi matriseoperasjonar lèt seg så fint køyra i parallell.

    Veldig «sparse» matrisar er best å handtera med indeks-notasjon (som illustrert i teksten), men det er ikkje beint fram å setja CUDA-cores på denne jobben. Parallelliseringa må gjerast på ein annan måte (dataflow), og det betyr eigentleg ein ganske annan prosessorarkitektur.
     

    PederP

    Æresmedlem
    Ble medlem
    27.04.2019
    Innlegg
    13.348
    Antall liker
    32.950
    Sted
    Nordvest på Jæren
    Torget vurderinger
    9
    Eg måtte bruka litt energi på å forstå dette, men forstår eg det rett når eg les dette som at:

    Fordi matrisane i KI er «sparse», er eigentleg GPGPU (typ NVIDIA i dag) feil medisin; dei har mange, raske kjerner, og er lynande raske på store operasjonar fordi matriseoperasjonar lèt seg så fint køyra i parallell.

    Veldig «sparse» matrisar er best å handtera med indeks-notasjon (som illustrert i teksten), men det er ikkje beint fram å setja CUDA-cores på denne jobben. Parallelliseringa må gjerast på ein annan måte (dataflow), og det betyr eigentleg ein ganske annan prosessorarkitektur.
    Det er nok rett at ein annan arkitektur kan gjer dette meir effektivt.
    Eg brukte Transputerar i ein parallellarkitektur i si tid til å manipulera store matriser.
    Det er ikkje lett å lage til noko som er effektivt på "alt".
     

    KJ

    Æresmedlem
    Ble medlem
    10.10.2004
    Innlegg
    12.070
    Antall liker
    6.023
    Torget vurderinger
    1
    Jeg har diskutert treningsopplegg i kvardagen, har foret modellen med litt praktiske detaljer, primært at det er minimum 6.5km til jobb en vei som kan utvides så mye man måtte ønsker, at jeg bor ca 130 meter høyere enn kontorlokasjonen, at jeg i utgangspunktet kan gjøre noe alle dager til og/eller fra jobb, at det skal tas hensyn til styrkeøkter to kvelder i uken, at jeg kan gå fort, løpe eller sykle til jobb og vil ha en grei miks av høy og lav intensitet.

    Forslagene som kommer er forsåvidt bra nok, men det er artig hva de sliter med. Det oppstår eksempelvis en del forvirring om hvilken vei det er netto oppover- eller nedoverbakke i forslagene. Kanskje også artigere med planer som involverer å sykle til jobb en morgen, løpe intervaller hjem og så sykle neste morgen. Ok, men hvor er sykkelen min da?

    Jeg har diskutert på engelsk så eventuell språkforvirring bør det ikke være, det å sykle en morgen, løpe en ettermiddag og sykle neste morgen er sikkert veldig vanlig, men den ikke så veldig subtile detaljen om at start- og sluttpunkt for øktene ikke er det samme ser ut til å forsvinne.
    Det kan være et poeng å ha i mente at dagens LLM KI-modeller ikke har noen reell virkelighetsforståelse, og er ganske dårlige på enkel "hard logikk". «Virkelighetsforståelsen» i LLMen er «kun» styrt av læringen på verdensvevens ordsky, noen annen «virkelighet» eksisterer ikke for LLMen. Hva som er rett og galt (i de fleste betydninger) i denne ordsskyen har den i utgangspunktet ingen forståelse av. Det med grunnleggende «hard logikk» så har noen KI-modeller begynt å ta inn en sving innom programeringsspråk og regnemodeller slik at A=B+C og 2+2=4 ikke bare er ei tåke av sannsynlighetsfordelinger, der enkelte sannsynligheter nær sagt aldri er 0 eller 100. Tåken av sannsynlighetsfordelinger kan gi åpenbart feil svar på enkle oppgaver. Ett eller annet sted ute på nett er det garantert noen eksempler på at 2+2≇4 og da er det ikke lengre 100% sannsynlig i LLMen at 2+2=4. Så da gjetter den. Ofte riktig, men også ofte feil. Svaret fra KI-en er i hovedsak «bare» et «magisk speil», styrt av prompten opp mot ei tåke av sannsynligehter, ord, begreper, konsepter og verdensvevens ordsky. Ut kommer det likevel plausible, tilforlatelige og velformulerte svar.

    Jeg har hatt noen diskusjoner med google sin KI om den er språklig agnostisk, og det kom frem at den stort sett er det. Utgangspunket var at når jeg starter en tråd med google KI'en om ett eller annet datateknisk spørsmål, så åpner jeg ofte trådenmed å presentere problemstillingen på engelsk. Første respons fra KIen er ofte engelsk, men når jeg trykker på gå i dybdten så går KIen gjerne over på norsk. Dersom jeg fortsetter å gi prompt på engelsk så kan KI'en like godt fortsette på norsk. Men så et eller annet sted ute i tråden kan jeg finne på å legge inn en prompt på norsk om noe smalt og sært, og da kan google KIen plutselig svare tilbake på engelsk. Det virker som den har en "konfidens beregning" av hvilket språk svaret fungerer best på, med en betydelig bias til norsk i mitt tilfelle, men også justert for noen vekter i ift treningsgrunnlaget og linkene den kommer opp med. Når google KIen svarer på norsk så er det ofte med noen tekniske uttryk på engelsk. Når jeg da svarer tilbake på norsk med min egen oversettelse tekniske uttrykk til norsk, så aksepterer google KIen som regel mine oversettelser uten å blunke, og retter på mine skrivefeil. Et sted inne i tåken av sannsynlighetsfordelinger så er det en "kjerne" eller et lag av sturkturer, konsepter og objekter som er uavhengige av språk - "hund" er med stor sannsynlighet "objektivt" det samme på alle språk.

    I dag hadde jeg en diskusjon med google KI'en om hvordan KI kan hallisinuere når den ikke har noen reell virkelighetsforståelse. Etter noen vekslinger og utdypinger blei "vi" "enige" om at "plausibel fiksjon" er mer dekkende begrep for det som kommer ut av KI'en, og at hallisinueringen er en tankefeil hos menneskene som leser og tolker outputen fra KI - dvs at vi lagger attributter om "intelligens" til KI'en fordi svarene er så fordømt plausibelt, velskrevet og strukturert, da må det være noe mer enn "bare" ei diger tåke av sannsynligheter. At "vi" ble enige er sikker noe KI'en bare gjorde for å please meg. Den gikk i stå da jeg avsluttet tråden med QED.

    mvh
    KJ
     
    Sist redigert:
  • Laster inn…

Diskusjonstråd Se tråd i gallerivisning

  • Laster inn…
Topp Bunn