Diverse OpenAI - sjukt imponerende AI

Diskusjonstråd Se tråd i gallerivisning

  • Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.813
    Antall liker
    8.777
    Sted
    Au recherche du futur perdu
    ^ Tenkte først å kommentera at akkurat dei omslaga er no ikkje så viktige, og såg bort på Skald sine flotte nyomsetjingar med stoffomslag.

    På vegen streifa blikket mitt Tolkien-hylla, og poenget ramla, splætt, til jorda. Det same kan ein seia om Hardyguttene, som vi las slik som ungar i dag les boka i saka. Eller om “Detektivbyrå nummer to”, der Hans Jørgen Sandnes er minst like viktig som Lier Horst for korleis lesaren opplever bøkene. Eller Thore Hansen for Ruffen (og alt anna han har teikna). Eller Ilon Wikland (Lindgren mm). Eller Iben Sandemose (særleg dei bøkene ho teikna og skreiv på 1980-talet). Eller dei litt rare teikningane til Anna Fiske.

    (Eg har ikkje så frykteleg sans for Lisa Aisato, men det er mest eit spørsmål om smak. Eg liker ikkje streken til Sandnes så godt, heller).

    Eg trur barn fort forstår at bøker med elendig AI-omslag er bøker ingen bryr seg om. Og det er jo leit, sidan Unni Lindell ikkje er ein dårleg forfattar.
     

    PederP

    Æresmedlem
    Ble medlem
    27.04.2019
    Innlegg
    13.351
    Antall liker
    32.955
    Sted
    Nordvest på Jæren
    Torget vurderinger
    9
    Nasjonalmuseet retter søkelyset på kopiens verdi i ny utstilling. I motsetning til det historieløse KI-genererte bildet vil dyktig utførte kopier kunne aktualisere originalen. Lamassu skulptur-kopien, som midlertidig voktet Stavanger domkirke i 2025, er ett eksempel, mens domkirkens nær 100 år gamle Rubens-kopi er for mange en godt bevart hemmelighet.

     

    Mar-a-Lago Club

    Hi-Fi freak
    Ble medlem
    14.02.2025
    Innlegg
    1.425
    Antall liker
    3.223
    Sted
    Halden
    Torget vurderinger
    2
    Open AI har store problemer, Kostnadene forbundet ved drift er skyhøye, inntektene er små. Måneds-/Årsabo dekker en liten brøkdel av reelle kostnader. Kunder vil måtte betale for tokenbruk og det blir dyre "kilowatt".
    Selskapet ønsker å gå på børs, men dets CFO er skeptisk, noe som da fører til at CEO (Altman) ikke snakker med sin CFO og ikke tar henne med på møter med potensielle investors.
    Han bedriver rundkjøp (NVIDIA låner ut penger som AI-selskap bruker for å kjøpe "compute" av NVIDIA, slik går dagene). Datasenterplaner skrinlegges og sakte går det opp for dem at LLM ikke er løsningen, og at AGI ikke vil kunne oppnås etter det prinsippet.

    Spanande.
     

    PederP

    Æresmedlem
    Ble medlem
    27.04.2019
    Innlegg
    13.351
    Antall liker
    32.955
    Sted
    Nordvest på Jæren
    Torget vurderinger
    9
    I begynnelsen av 2026 ble det for første gang målt mer aktivitet fra KI enn fra mennesker på internett, og aktiviteten fra KI vokser for øyeblikket åtte ganger raskere enn menneskelig aktivitet.

     

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.986
    Antall liker
    17.043
    Jeg har diskutert treningsopplegg i kvardagen, har foret modellen med litt praktiske detaljer, primært at det er minimum 6.5km til jobb en vei som kan utvides så mye man måtte ønsker, at jeg bor ca 130 meter høyere enn kontorlokasjonen, at jeg i utgangspunktet kan gjøre noe alle dager til og/eller fra jobb, at det skal tas hensyn til styrkeøkter to kvelder i uken, at jeg kan gå fort, løpe eller sykle til jobb og vil ha en grei miks av høy og lav intensitet.

    Forslagene som kommer er forsåvidt bra nok, men det er artig hva de sliter med. Det oppstår eksempelvis en del forvirring om hvilken vei det er netto oppover- eller nedoverbakke i forslagene. Kanskje også artigere med planer som involverer å sykle til jobb en morgen, løpe intervaller hjem og så sykle neste morgen. Ok, men hvor er sykkelen min da?

    Jeg har diskutert på engelsk så eventuell språkforvirring bør det ikke være, det å sykle en morgen, løpe en ettermiddag og sykle neste morgen er sikkert veldig vanlig, men den ikke så veldig subtile detaljen om at start- og sluttpunkt for øktene ikke er det samme ser ut til å forsvinne.
     

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.813
    Antall liker
    8.777
    Sted
    Au recherche du futur perdu
    Eg måtte bruka litt energi på å forstå dette, men forstår eg det rett når eg les dette som at:

    Fordi matrisane i KI er «sparse», er eigentleg GPGPU (typ NVIDIA i dag) feil medisin; dei har mange, raske kjerner, og er lynande raske på store operasjonar fordi matriseoperasjonar lèt seg så fint køyra i parallell.

    Veldig «sparse» matrisar er best å handtera med indeks-notasjon (som illustrert i teksten), men det er ikkje beint fram å setja CUDA-cores på denne jobben. Parallelliseringa må gjerast på ein annan måte (dataflow), og det betyr eigentleg ein ganske annan prosessorarkitektur.
     

    PederP

    Æresmedlem
    Ble medlem
    27.04.2019
    Innlegg
    13.351
    Antall liker
    32.955
    Sted
    Nordvest på Jæren
    Torget vurderinger
    9
    Eg måtte bruka litt energi på å forstå dette, men forstår eg det rett når eg les dette som at:

    Fordi matrisane i KI er «sparse», er eigentleg GPGPU (typ NVIDIA i dag) feil medisin; dei har mange, raske kjerner, og er lynande raske på store operasjonar fordi matriseoperasjonar lèt seg så fint køyra i parallell.

    Veldig «sparse» matrisar er best å handtera med indeks-notasjon (som illustrert i teksten), men det er ikkje beint fram å setja CUDA-cores på denne jobben. Parallelliseringa må gjerast på ein annan måte (dataflow), og det betyr eigentleg ein ganske annan prosessorarkitektur.
    Det er nok rett at ein annan arkitektur kan gjer dette meir effektivt.
    Eg brukte Transputerar i ein parallellarkitektur i si tid til å manipulera store matriser.
    Det er ikkje lett å lage til noko som er effektivt på "alt".
     

    KJ

    Æresmedlem
    Ble medlem
    10.10.2004
    Innlegg
    12.070
    Antall liker
    6.027
    Torget vurderinger
    1
    Jeg har diskutert treningsopplegg i kvardagen, har foret modellen med litt praktiske detaljer, primært at det er minimum 6.5km til jobb en vei som kan utvides så mye man måtte ønsker, at jeg bor ca 130 meter høyere enn kontorlokasjonen, at jeg i utgangspunktet kan gjøre noe alle dager til og/eller fra jobb, at det skal tas hensyn til styrkeøkter to kvelder i uken, at jeg kan gå fort, løpe eller sykle til jobb og vil ha en grei miks av høy og lav intensitet.

    Forslagene som kommer er forsåvidt bra nok, men det er artig hva de sliter med. Det oppstår eksempelvis en del forvirring om hvilken vei det er netto oppover- eller nedoverbakke i forslagene. Kanskje også artigere med planer som involverer å sykle til jobb en morgen, løpe intervaller hjem og så sykle neste morgen. Ok, men hvor er sykkelen min da?

    Jeg har diskutert på engelsk så eventuell språkforvirring bør det ikke være, det å sykle en morgen, løpe en ettermiddag og sykle neste morgen er sikkert veldig vanlig, men den ikke så veldig subtile detaljen om at start- og sluttpunkt for øktene ikke er det samme ser ut til å forsvinne.
    Det kan være et poeng å ha i mente at dagens LLM KI-modeller ikke har noen reell virkelighetsforståelse, og er ganske dårlige på enkel "hard logikk". «Virkelighetsforståelsen» i LLMen er «kun» styrt av læringen på verdensvevens ordsky, noen annen «virkelighet» eksisterer ikke for LLMen. Hva som er rett og galt (i de fleste betydninger) i denne ordsskyen har den i utgangspunktet ingen forståelse av. Det med grunnleggende «hard logikk» så har noen KI-modeller begynt å ta inn en sving innom programeringsspråk og regneark, slik at A=B+C og 2+2=4 ikke bare er ei tåke av sannsynlighetsfordelinger, der enkelte sannsynligheter nær sagt aldri er 0 eller 100. Tåken av sannsynlighetsfordelinger kan gi åpenbart feil svar på enkle oppgaver. Ett eller annet sted ute på nett er det garantert noen eksempler på at 2+2≇4 og da er det ikke lengre 100% sannsynlig i LLMen at 2+2=4. Så da gjetter den. Ofte riktig, men også ofte feil. Svaret fra KI-en er i hovedsak «bare» et «magisk speil», styrt av prompten opp mot ei tåke av sannsynligehter, ord, begreper, konsepter og verdensvevens ordsky. Ut kommer det likevel plausible, tilforlatelige og velformulerte svar.

    Jeg har hatt noen diskusjoner med google sin KI om den er språklig agnostisk, og det kom frem at den stort sett er det. Utgangspunket var at når jeg starter en tråd med google KI'en om ett eller annet datateknisk spørsmål, så åpner jeg ofte tråden med å presentere problemstillingen på engelsk. Første respons fra KIen er ofte engelsk, men når jeg trykker på gå i dybdten så går KIen gjerne over på norsk. Dersom jeg fortsetter å gi prompt på engelsk så kan KI'en like godt fortsette på norsk. Men så et eller annet sted ute i tråden kan jeg finne på å legge inn en prompt på norsk om noe smalt og sært, og da kan google KIen plutselig svare tilbake på engelsk. Det virker som den har en "konfidens beregning" av hvilket språk svaret fungerer best på, med en betydelig bias til norsk i mitt tilfelle, men også justert for noen vekter ift treningsgrunnlaget og linkene den kommer opp med. Når google KIen svarer på norsk så er det ofte med noen tekniske uttryk på engelsk. Når jeg da svarer tilbake på norsk med min egen oversettelse tekniske uttrykk til norsk, så aksepterer google KIen som regel mine oversettelser uten å blunke, og retter på mine skrivefeil. Et sted inne i tåken av sannsynlighetsfordelinger så er det en "kjerne" eller et lag av sturkturer, konsepter og objekter som er uavhengige av språk - "hund" er med stor sannsynlighet "objektivt" det samme på alle språk. EDIT dette språkuvhengige laget er også en viktig del av google translate.

    I dag hadde jeg en diskusjon med google KI'en om hvordan KI kan hallisinuere når den ikke har noen reell virkelighetsforståelse. Etter noen vekslinger og utdypinger blei "vi" "enige" om at "plausibel fiksjon" er mer dekkende begrep for det som kommer ut av KI'en, og at hallisinueringen er en tankefeil hos menneskene som leser og tolker outputen fra KI - dvs at vi lagger attributter om "intelligens" og virkelighetsforståelse til KI'en fordi svarene er så fordømt plausibelt, velskrevet og strukturert. Da "må" det være noe mer enn "bare" ei diger tåke av sannsynligheter. At "vi" ble "enige" er sikker noe KI'en bare gjorde for å please meg. Den gikk i stå da jeg avsluttet tråden med QED.

    mvh
    KJ
     
    Sist redigert:

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.813
    Antall liker
    8.777
    Sted
    Au recherche du futur perdu
    Det er nok rett at ein annan arkitektur kan gjer dette meir effektivt.
    Eg brukte Transputerar i ein parallellarkitektur i si tid til å manipulera store matriser.
    Det er ikkje lett å lage til noko som er effektivt på "alt".
    Nvidia såg openbert potensialet i å bruka prosessorane til til matriserekning før KI-boomen, og marknadsførte CUDA mot «scientific workstations». At dei først vart brukt til å byggja supermaskiner til KI, var vel fordi det var det som var tilgjengeleg relativt billig.

    Hugsar at parallel-computing var det store nye ca 1990, då eg som 13-14-åring fekk ha arbeidsveke på Institutt for informatikk (UIB). Den store stoltheita var ei MasPar-maskin med 64 kjerner elns. Det var masse forsking på korleis ein kunne laga algoritmar som utnytta dette. Intel og Thinking Machines (Connection Machine) hadde også ein del eksperimentelle maskiner som utnytta parallellisme.

    (Seymour Cray var visst skeptisk (det berømte sitatet er «If you were plowing a field, which would you rather use: two strong oxen or 1024 chickens?» sjølv om den indre arkitekturen hans var «vector processing», altså ein slags begrensa, kontrollert parallellisme; og Cray seinare bygde parallellmaskiner sjølv).

    Utover det har eg alltid hatt ei interesse for problem som ikkje let seg parallellisera. Eric S. Raymond meinte han hadde eit slikt då han sleit seg ut på å skriva kode for å flytta store prosjekt frå gamle versjonskontrollsystem til Git. Trur han køyrde seg fast på GCC.

    Eg tykkjer dette (Onyx-prosjektet på Stanford) er interessant litt av same grunn. KI-læring let seg parallellisera brute force på svære parallellsystem, men det er frykteleg ineffektivt. Altså, med tilpassa hardware let oppgåva seg løysa vanvittig mykje billigare/meir effektivt.

    Eg trur interessa mi for problemkomplekset kjem av reint fysiske observasjoner i kvardagen: når er det slik at fleire kokkar gjev meir søl, og når er det slik at fleire hender er nyttig. Eg tykkjer ofte det er vanskeleg å be om hjelp, fordi eg då må fullstendig konseptualisera kva som lyt gjerast og korleis (altså: låsa løysinga)

     
    Sist redigert:

    Polka

    Hi-Fi freak
    Ble medlem
    11.07.2003
    Innlegg
    7.077
    Antall liker
    4.913
    Torget vurderinger
    96
    Jeg ville se hvordan overflatemontering tok seg ut, Chatgpt benyttet anledningen til å lansere helt ny driver teknologi.

    1000003264.png
     

    PeriodeLytter

    Hi-Fi freak
    Ble medlem
    26.02.2013
    Innlegg
    5.357
    Antall liker
    5.519
    Det er flere, meg inkludert som reagerer på bruken av hallisinuere. Ellers i programutvikling vil feil output være å regne som nettopp en feil. Men det er vel ingen investorer som hadde åpnet lommeboken om dem erfarte konsekvensene av lignende oppførsel i deres Excel regneark.
     

    Harry Stoteles

    Hi-Fi freak
    Ble medlem
    18.05.2020
    Innlegg
    3.514
    Antall liker
    4.220
    Sted
    Oslo
    Torget vurderinger
    0
    Et sted inne i tåken av sannsynlighetsfordelinger så er det en "kjerne" eller et lag av sturkturer, konsepter og objekter som er uavhengige av språk - "hund" er med stor sannsynlighet "objektivt" det samme på alle språk.
    En refleksjon om oversettelse:

    Det du nevner der samsvarer med det den tyske historikeren/filosofen Walter Benjamin kaller "Guds språk" i teksten som har fått det engelske navnet "The task of the translator". Oversetterens oppgave er å avdekke hva et ord eller utsagn i ett språk "egentlig" betyr, altså hva det heter på det overmenneskelige språket som forener alle språk, og så finne ut av hvordan man sier det ordet eller utsagnet på det språket man skal oversette til.

    Problemet med denne modellen er at man antar å kjenne til noe som man per definisjon ikke kan kjenne til, altså Guds språk, og det er relativt tydelig at Benjamins idé er knyttet til den helt ekstreme nasjonale stoltheten tyske intellektuelle hadde i første halvdel av 1900-tallet. Guds språk var tilfeldigvis veldig nær tysk og tekster som var gode kandidater for oversettelse overlappet i kjempestor grad med det som allerede var anerkjente tekster.

    Nyere oversettelsesteori har gått bort fra dette nettopp fordi det er for enkelt og en for praktisk forklaring i forhold til hva en oversetter opplever i sin hverdag. Det er for mange unntak, det viser seg at selv tekster som er antatt "dårlige" kandidater for oversettelse fint kan la seg oversette, og "gode" kan vise seg å være fryktelig vanskelige. De nyere teoriene tar opp mer kompliserte ideer som at det er en gjensidig konstruktiv dynamikk mellom kildeteksten, leseren/oversetteren, den kulturen som kildeteksten og oversetteren befinner seg i, og den kulturen og mer umiddelbare situasjonen som leseren befinner seg i – og denne dynamikken er i konstant bevegelse.
     
  • Laster inn…

Diskusjonstråd Se tråd i gallerivisning

  • Laster inn…
Topp Bunn