Diverse OpenAI - sjukt imponerende AI

Diskusjonstråd Se tråd i gallerivisning

  • W.Sand

    Hi-Fi freak
    Ble medlem
    02.05.2012
    Innlegg
    3.430
    Antall liker
    5.498
    Sted
    moelv
    Torget vurderinger
    3
    Uten å poste link, jeg lurer på hvor lenge det AI genererte showet " Merkel i knipe" får holde på
     

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.766
    Antall liker
    44.633
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    På den andre siden, det er nettopp den typen «friksjon, prøving og feiling» for å syreteste idéer hvor jeg for tiden har mest nytte av Google Gemini. Dialogen er gjerne av typen «Jeg har problemstilling X. Jeg tenker å løse det ved å gjøre Y. Har du en bedre idé?», «Det er ikke så dumt, men har du tenkt på Z? En alternativ løsning for å ta hensyn til det også kan være følgende». Man må bare ikke tro at tingen er i stand til å skrive koden for deg med mindre det er en rett frem anvendelse av et standard lærebokseksempel. Som illustrative, konseptuelle eksempler holder det derimot i massevis. Da kan man også gå tilbake med et «hmmm, jeg forsøkte å gjøre slik, og dette skjedde». Etter to-tre iterasjoner kommer man fort til noe mye bedre enn hva jeg ville vært i stand til å klekke ut på egen hånd.
     
    Sist redigert:

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.766
    Antall liker
    44.633
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Apples nye M5 chip begår drap på skybaserte AI-tilbud. Burde rykke litt i aksjeverdier, dette.
    Det må være vanvittige marginer på slike skytjenester, gitt hvilket gullrush det er etter å bygge fler og at prisene på tjenesten fort utgjør det samme etter to-tre måneder som å kjøpe tilsvarende hardware selv.

    Min nåværende hjemme-PC med en AMD Threadripper 3090x CPU og to RTX 3080 grafikkort gir ca 72 TFLOPS regnekapasitet. I ren regnekraft tilsvarer det 90000 stk Cray X/MP48, Gløshaugens stolthet fra 1984. Begrensningen hos meg er PSU’en på 1,2 kW for korte bursts, deretter selvsagt kjøling for å holde den varmeutviklingen over noe tid. Jeg kjøpte PC’en brukt for 35k. Jeg mener å huske at Cray’en kostet noen titalls millioner 1984-kroner og behøvde noen hundre kW strømforsyning.

    Microsoft forsøkte å selge meg noen skytjenester her forleden. Skryteeksemplet deres var noe om «5000 CUDA-kjerner!» Svaret var av typen «Jeg har 21000 bare på hjemme-PC’en. Gå vekk.»

    Mye av inntjeningen i denne bransjen må hvile på manglende teknisk kunnskap hos de som treffer beslutninger, og desto mer hype og «fear of missing out». Altså en boble. Om Apple bidrar til å punktere den med M5 er det helt OK for meg.
     
    Sist redigert:

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.708
    Antall liker
    16.646
    Det må være vanvittige marginer på slike skytjenester, gitt hvilket gullrush det er etter å bygge fler og at prisene på tjenesten fort utgjør det samme etter to-tre måneder som å kjøpe tilsvarende hardware selv.

    Min nåværende hjemme-PC med en AMD Threadripper 3090x CPU og to RTX 3080 grafikkort gir ca 72 TFLOPS regnekapasitet. I ren regnekraft tilsvarer det 90000 stk Cray X/MP48, Gløshaugens stolthet fra 1984. Begrensningen hos meg er PSU’en på 1,2 kW for korte bursts, deretter selvsagt kjøling for å holde den varmeutviklingen over noe tid. Jeg kjøpte PC’en brukt for 35k. Jeg mener å huske at Cray’en kostet noen titalls millioner 1984-kroner og behøvde noen hundre kW strømforsyning.

    Microsoft forsøkte å selge meg noen skytjenester her forleden. Skryteeksemplet deres var noe om «5000 CUDA-kjerner!» Svaret var av typen «Jeg har 21000 bare på hjemme-PC’en. Gå vekk.»

    Mye av inntjeningen i denne bransjen må hvile på manglende teknisk kunnskap hos de som treffer beslutninger, og desto mer hype og «fear of missing out». Altså en boble. Om Apple bidrar til å punktere den med M5 er det helt OK for meg.
    Problemet er vel ikke akkurat "inference" som er hva man gjør hjemme eller når man bruker en klient/app, men treningen av det hele. Å trene modellene krever lett absurde mengder regnekraft og ikke minst tilgang til data å trene de på. Jeg vet ikke hva ratioen er mellom ressurser krevd for å trene vs ressurser som trengs for å svare på et prompt fra den samme trente modellen, men jeg tipper det er et tall med en del nuller bak.

    Jeg har ikke sett på hva som finnes av open-source-ting man kan laste ned, altså modeller med parameterene. Men dersom man lever i den villfarelse at en Apple-datamsking med M-chip skal erstatte datasentere med tusenvis av GPUer for å trene modellene så har man røyka noe ganske kraftig i alle fall.

    Men bevares, bobletendensene og FOMOen er ikke spesielt vanskelig å se. Hvordan de har tenkt å regne dette hjem skjønner ikke jeg i alle fall.
     

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.766
    Antall liker
    44.633
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Jeg har jo lekt litt med det også. Ja, læringen drar mye mer regnekraft enn inferens, men det tok ikke så veldig lang tid å mate den med 20-25 bilder av meg og lære opp en LoRA tilleggsmodul til en billedgenererende AI, for så å sette meg selv i usannsynlige situasjoner på bilder jeg postet til Yammer/Viva Engage på jobb. Fikk litt kred blant de yngre ansatte. Størrelsesforholdet var vel ca en time kjøretid for læring og 10 sek for å generere på den forrige PC’en jeg hadde.

    Men man behøver ikke gjøre den læringen veldig mange ganger. Noen gjør den en gang på ett datasenter, og deretter kan andre laste ned vektene (kanskje 10-20 GB) og kjøre inferens lokalt. Det ligger ca 2,7 millioner modeller for nedlasting her:

    Edit: Man bør tenke seg veldig nøye om før man gjør seg mer avhengige av amerikansk-kontrollerte skytjenester nå. De vil slutte å virke når den orange brølapen bestemmer at de skal slutte å virke. Hendig maktmiddel mot folk han av en eller annen grunn vil straffe.
     
    Sist redigert:

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.708
    Antall liker
    16.646
    Jeg har jo lekt litt med det også. Ja, læringen drar mye mer regnekraft enn inferens, men det tok ikke så veldig lang tid å mate den med 20-25 bilder av meg og lære opp en LoRA tilleggsmodul til en billedgenererende AI, for så å sette meg selv i usannsynlige situasjoner på bilder jeg postet til Yammer/Viva Engage på jobb. Fikk litt kred blant de yngre ansatte. Størrelsesforholdet var vel ca en time kjøretid for læring og 10 sek for å generere på den forrige PC’en jeg hadde.

    Men man behøver ikke gjøre den læringen veldig mange ganger. Noen gjør den en gang på ett datasenter, og deretter kan andre laste ned vektene (kanskje 10-20 GB) og kjøre inferens lokalt. Det ligger ca 2,7 millioner modeller for nedlasting her:
    Joda, klar over det. Men spørsmålet blir hvor bra f.eks ChatGPT, Claude, Gemini og de andre kommersielle er sammenlignet med open source. Man kan trygt anta at datamengden og treningsbudsjettet og mengden data som kan dyttes inn i disse er veldig mye større enn hva som er tilfelle med de som er fritt tilgjengelig nedlastbare. Noe må man ant de har brukt det tårnet av dollares som er kastet på de på. Gitt tilnærmet uendelige ressurser enn så lenge så er jeg mildt overrasket over hvor stor forskjell det er på de ymse. Gemini, i alle fall i den versjonen jeg har, klarer ikke å forholde seg til en etter normal standard relativt kort roman, den tar til dels spektakulært feil om sentrale karakterer og påstår at karakterer som er nevnt mange ganger ikke er nenvt i teksten. Diskuterte Jan Kjærstads triologi om Jonas Wergeland (som på ingen måte er en kort romanserie) med den og en gang mente Gemini at Nefertiti og Margrete Boeck er samme person, en annen gang tenkte den ikke en gang i de baner og mente noe ala "jeg skjønner hvorfor man kan tenke slik, men det er ikke slik".

    Jeg fikk faktisk ChatGPT til å tenke i 18 minutter en gang før den spyttet ut en excel-fil. Det var en determinsitisk modell om utviklingen av pæng tilgjengelig gitt antagelser om avkastning på rente- og aksjeinvesteringer, det norske skattesystemet og en del slikt. Claude svarte mye fortere men trengte ganske mange iterasjoner før det begynte å bli bra, spesielt skjermingsfradrag var vanskelig for de. Excel-filen ChatGPT spyttet ut fremstod faktisk som i alle fall i alle hovedsak korrekt på første forsøk. Gemini kunne ikke generere en Excel-fil. På en annen side kan ikke Claude lage bilder, forståelig nok siden det neppe er det mest sentrale kommersielle use-caset. Milldt fascinerende er det at ChatGPT ikke klarer å telle ord i egen output, det er et helt banalt pyton-script, noe den ellers kan lange ganske avanserte saker i.

    Lavese tilgangsnivå koster vel rundt 20 dollar / måned for disse. Kan holde på ganske lenge med det før man når prisen på en kapabel rigg til hjemmebruk. Hva det koster om man bruker API-prising aner jeg ikke fordi jeg aldri har prøvd.
     
    Sist redigert:

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.495
    Antall liker
    8.363
    Sted
    Tid og rom
    Etter to-tre iterasjoner kommer man fort til noe mye bedre enn hva jeg ville vært i stand til å klekke ut på egen hånd.
    Eg opplever det same med ein del prosatekst eg har skrive privat (på hobbybasis) den siste månaden.

    Målet er jo ikkje å bryta med Den store Andre, det ville verta psykotisk rabling, men å behandla emne eg ikkje har funne nokon som har skrive det same om, men på ein måte som faktisk gjev meining for andre.

    Så, å sparra med eit utval av LLM-ar, aktivt spørja om kven som har tenkt liknande ting før, finna inkonsistens og først og fremst halda diskusjonen på andre-ordens nivå (der målet ikkje er å få tekst, men kommentarar): det funkar. Altså, kort sagt, bruka maskineriet som ein kjapp kollegaprat med kollegaar eg ikkje har.

    Eg ville lyga om eg ikkje sa at dette var nyttig.

    Edit: Elles vonar eg @Harry Stoteles kan seia litt om korleis Lacan vert brukt i teksten Peder linka til. Eg har kjensla av at det er ein litt pop-sci bruk, men kva veit eg?
     
    Sist redigert:

    Mar-a-Lago Club

    Overivrig entusiast
    Ble medlem
    14.02.2025
    Innlegg
    1.139
    Antall liker
    2.543
    Sted
    Halden
    Poenget, med Apples M5 Pro chip, er at man kan ha noen tusen av disse i en liten boks, under skjermen, og at man kan lage strategier for hvordan man skal håndtere egne data slik at man slipper å dele dem med "fåglarna vet".

    At man samtidig kan utnytte LLM-ressurser utenfor egne vegger er en annen sak. Det som skjer åpner store muligheter.

    Screenshot 2026-03-09 at 8.50.51 am.png

    Screenshot 2026-03-09 at 8.53.27 am.png



    Men kjør for all del ikke Open Claw, dersom det er skjerming man er ute etter.
     

    jane

    Hi-Fi freak
    Ble medlem
    27.06.2004
    Innlegg
    3.387
    Antall liker
    1.614
    Sted
    '
    Poenget, med Apples M5 Pro chip, er at man kan ha noen tusen av disse i en liten boks, under skjermen, og at man kan lage strategier for hvordan man skal håndtere egne data slik at man slipper å dele dem med "fåglarna vet".
    Selv om hver prosessor avgir bare 20 watt hver, vil det blir veldig varmt på kontoret ditt, eller hvor nå denne lille boksen under skjermer er plassert, med noen tusen M5 operative.
     

    Mar-a-Lago Club

    Overivrig entusiast
    Ble medlem
    14.02.2025
    Innlegg
    1.139
    Antall liker
    2.543
    Sted
    Halden
    Selv om hver prosessor avgir bare 20 watt hver, vil det blir veldig varmt på kontoret ditt, eller hvor nå denne lille boksen under skjermer er plassert, med noen tusen M5 operative.
    "Noen tusen av disse" viser til Cray-computeren du ser i bildet, tilsvarer én M5-chip.

    Screenshot 2026-03-09 at 10.04.57 am.png

    F. eks. i denne:

     

    Harry Stoteles

    Hi-Fi freak
    Ble medlem
    18.05.2020
    Innlegg
    3.474
    Antall liker
    4.164
    Sted
    Oslo
    Torget vurderinger
    0
    Hva er det som gjør at ChatGPT bommer her?

    Jeg tolker dette som et resultat av LLMers grunnleggende virkemåte. De er generaliseringsmaskiner som tar utgangspunkt i tekst. Når de trenes opp, så trenes de opp på (amerikansk) tekst og mønstre av symboler som er minst ett abstraksjonsnivå unna det du opplever når du holder en tusj.

    Utfordringen for ChatGPT har alltid vært, og kommer alltid til å bli, et spørsmål om grenseverdier, fordi LLMer og mennesker forholder seg til verden på fundamentalt forskjellige måter. LLMer tar utgangspunkt i hvordan mennesker vanligvis beskriver verden og prøver å etterape det, og når det ikke funker, så bruker man forskjellige tiltak for å kunne gjøre etterapingen mer troverdig. Mennesker, på den andre siden, lever gjennom å navigere i en verden som består av mange forskjellige typer inntrykk og uttrykk – fysiske, sosiale, estetiske osv – som endrer seg hele tiden, og består av mye mer enn det vi klarer å sette ord på. Vi kan føle oss veldig komfortable med situasjoner som er filosofisk og logisk problematiske. For eksempel kan vi leve greit med at Thesevs' skip fortsatt er det samme skipet selv om alle bord og nagler er byttet ut gjennom årene. Eller at et Jackson Pollock-maleri er fullt av mening. Eller at poesi fins i det hele tatt.

    I en artikkel fra 2007 kritiserer Hubert Dreyfus selv de beste KI-modellene for å være for rasjonelle. De ignorerer noe fundamentalt menneskelig, som er at mennesker ikke forholder seg til verden som representasjoner, men som verden som verden:

    I repeated what I had written in 1972 in What Computers Can’t Do: “[T] he meaningful objects. . . among which we live are not a model of the world stored in our mind or brain; they are the world itself.” And I quoted approvingly a Stanford Research Institute report that, “It turned out to be very difficult to reproduce in an internal representation for a computer the necessary richness of environment that would give rise to interesting behavior by a highly adaptive robot,” and concluded that “this problem is avoided by human beings because their model of the world is the world itself.”

    Når et menneske bruker en hammer, så er det en kompleks prosess som er sentrert rundt menneskets opplevelse av å bruke den hammeren, ikke hammerens funksjon (slik KI-er forutsetter):

    Heidegger wants to get at something more basic than simply a class of objects defined by their use. At his best Heidegger would, I think, deny that a hammer in a drawer has readiness-to-hand as its way of being. Rather, he sees that, for the user, equipment is encountered as a solicitation to act, not an entity with a function feature.
    […]
    As usual with Heidegger, we must ask: What is the phenomenon he is pointing out? In this case he wants us to see that, to observe our hammer or to observe ourselves hammering undermines our skillful coping. We can and do observe our surroundings while we cope, and sometimes, if we are learning, monitoring our performance as we learn improves our performance in the long run, but in the short run such attention interferes with our performance. For example, while biking we can observe passers by, or think about philosophy, but if we start observing how we skillfully stay balanced, we risk falling over.

    Heidegger struggles to describe the basic way we are drawn in by the ready-to-hand. The Gestaltists would later talk of “solicitations.” In Phenomenology of Perception Merleau-Ponty speaks of “motivations” and later, of “the flesh.” All these terms point at what is not objectifyable—a situation’s way of directly drawing from one a response that is neither caused like a reflex, nor done for a reason.
    […]
    Heidegger’s important insight is not that, when we solve problems, we sometimes make use of representational equipment outside our bodies, but that being-in-the-world is more basic than thinking and solving problems;that it is not representational at all. That is, when we are coping at our best, we are drawn in by solicitations and respond directly to them, so that the distinction between us and our equipment—between inner and outer—vanishes.

    Dreyfus sin konklusjon er at KI-modeller som prøver å være menneske, ikke egentlig kan lykkes med det før de prøver å være menneske fullt og helt – og det er urealistisk at de kan få til, for det er så mye der som ikke kan modelleres.
     
    Sist redigert:

    Mar-a-Lago Club

    Overivrig entusiast
    Ble medlem
    14.02.2025
    Innlegg
    1.139
    Antall liker
    2.543
    Sted
    Halden
    Hvordan kjøre store LLM-modeller lokalt, f.eks. Chat GPTs med 120 milliarder parametere, på egen Mac Studio server. Forklart i detalj. I dette tilfellet med en M4-chip. Han er forbauset over det lave strømforbruket og den lave driftstemperaturen under prosessering.
    Undres hva som skjer med aksjeverdien på skybasert "AI" når dette blir bedre forstått.


    "Just a reminder, I'm running this on a Macbook Pro, and the laptop is talking to my Mac Studio, which is acting as my server, and the important point here is the Mac Studio is entirely self-contained. It's not reaching out to the internet to pull this information down."

    M5 i forhold til M4

    #1: M5 chip
    “up to 20 percent faster multithreaded performance versus M4 for workloads like code compiling, and is perfect for multitasking or speeding through creative applications.”

    • up to 3.5x the AI performance
    • up to 1.6x faster graphics performance in pro apps
    • up to 1.6x higher frame rates in games
    #2: Higher memory bandwidth
    The M5 MacBook Pro offers 153GB/s of unified memory bandwidth. Last year’s M4 model only goes up to 120GB/s. Thus, the M5 model is an almost 30% improvement.

    #3: Faster SSD performance

    Apple says the SSD performance is “up to 2x faster” than the M4 model.

    #4: 4TB storage option
     
    Sist redigert:

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.708
    Antall liker
    16.646
    Fant eksempelt på nett skal jeg innrømme (visstnok noen som har spesilisert seg på denne type tester) men output er fra min egen ChatGPT - session - med betalt abo. Prøvde igjen med eksakt samme prompt, men "thinking mode" valgt og da kom dette svaret (kom kjapt)


    At 50 meters, driving would take more effort than it saves, and you avoid a needless cold start, parking fuss, and looking a bit ridiculous. Drive only if you need to move the car there because the wash requires the car to be in the bay and it isn’t already nearby for some other reason.

    If you mean “how should I get myself there,” walk. If you mean “how should I get the car there,” then of course drive the car those 50 meters.



    Google Gemini, "fast" - versjon

    Gemini said
    This is one of those classic "over-optimization" dilemmas. Honestly, the answer depends entirely on how much you enjoy a good workout—and how much you care about your car's engine health.
    Here is the breakdown of your 50-meter dash:
    The "Drive It" Perspective

    • Convenience: You’re already in the car once you arrive. No walking back and forth.
    • The "Cold Start" Problem: This is the big one. Driving 50 meters means your engine won't even begin to reach its operating temperature. Doing this frequently can cause moisture buildup in the oil and exhaust, which isn't great for the car long-term.

    • Laziness Factor: 10/10. We've all been there.
    The "Walk It" Perspective
    • Mechanical Sympathy: You avoid a "dry start" where the oil hasn't circulated effectively for a meaningful trip.
    • Step Count: It’s roughly 70 steps. You’ll spend more energy opening your garage door than doing the actual walk.
    • The Logistics: You’ll have to walk home, wait, and then walk back to pick it up. If it's a "stay in the car" drive-thru wash, walking isn't even an option!
    The Verdict
    • If it’s a full-service detail/hand wash: Walk. Save the engine the stress of a 30-second run and enjoy the fresh air.
    • If it’s an automated drive-thru: Drive. Unless you plan on jogging through the high-pressure rinse cycles (not recommended), you kind of need the car with you.
    One quick tip: If you do choose to drive, consider taking the "long way" around the block (maybe a 5-10 minute loop) just to get the fluids moving and the battery charged before you shut it off at the wash.
    Would you like me to look up the weather forecast for your area to see if it's actually a good day for a wash?



    Med Tenke-modus blir det slik


    This is the ultimate "overthinking it" dilemma, isn't it?

    Strictly speaking, since you’re washing the car, the car eventually needs to be at the car wash. Unless you've discovered a way to make your car follow you like a golden retriever, you’re going to have to drive it.

    However, if you're debating whether to walk there first to check the line or buy a token, here’s the breakdown:

    The "Drive" Argument (The Practical Choice)

    • Logistics: You can't wash the car if it's still in your driveway.
    • Efficiency: 50 meters is about a 30-second drive. You’ll spend more time putting on your seatbelt than actually moving.
    • Convenience: You’ll have all your supplies (towels, interior cleaners, quarters) right there in the cabin.
    The "Walk" Argument (The "I Need My Steps" Choice)
    • Scouting: If it's a busy Saturday, walking 50 meters to see if there’s a massive queue saves you from idling in line or doing an awkward U-turn.
    • Exercise: You’ll get a whopping 100 steps round-trip. Every bit counts!
    The Verdict: Drive the car over. Walking 50 meters just to walk back and get the car is basically a very short parade where you are the only participant.

    Would you like me to check the local weather to see if it’s actually a good day for a wash, or maybe find some pro tips for a streak-free finish?
     

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.495
    Antall liker
    8.363
    Sted
    Tid og rom
    Prøvde igjen med eksakt samme prompt, men "thinking mode" valgt og da kom dette svaret
    Eg testa Mistral, Gemini og ChatGPT (alle fri-utgåva) i går, og fekk same variasjon over tema.

    Konklusjon: LLM-ar har ikkje humor (eller, dei manglar den implisitte vekslinga mellom metanivå, og gleda over fleirtydigheit, som er føresetnaden for humor).
     

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.708
    Antall liker
    16.646
    Poenget, med Apples M5 Pro chip, er at man kan ha noen tusen av disse i en liten boks, under skjermen, og at man kan lage strategier for hvordan man skal håndtere egne data slik at man slipper å dele dem med "fåglarna vet".

    At man samtidig kan utnytte LLM-ressurser utenfor egne vegger er en annen sak. Det som skjer åpner store muligheter.
    Med en disclaimer om at jeg ikke har noen erfaring med OSS LLMer kjørt lokalt som @Asbjørn har så blir spørmsålet fort for de fleste hvor anvendelige disse er sammenlignet med SOTA som finnes kommerielt tilgjengelig. I eksempelet i videoen kjøres en LLM med 120B parametere, det krever kanskje 96 eller 128GB Ram-versjonen så hardwaren er ikke akkurat billig, har ikke sett studio-priser men en MacBook pro med så mye RAM og hissigste prosessoren koster et sted rundt 70k NOK, det er ganske mye penger sammenlignet med med betalt tilgang til noe. Hva det er "verdt" å ikke trenge å sende data ut er en helt annen sak, men det blir en litt annen diskusjon.

    Hvor mange parametere de beste kommersielle modellene har er ikke kjent, men det antas basert på internett at de store fra Google, Anthropic og OpenAI er veldig mye større enn dette i alle fall. Hva marginalnytten av ekstra parametere er skal ikke jeg mene noe om, men de fremstår ikke akkurat som noe man kan kjøre på en lokal maskin, selv om man hadde den faktiske modellen tilgjengelig.

    Basert på min egen beskjedne og ikke særlig metodiske testing så er det veldig stor forskjell på hvor bra de nåværende SOTA-versjonene er sammenligned med de tidligere som kom. Hvor mye dette har med veldig mye støre parametertall å gjøre eller noe annet skal ikke jeg mene noe om, men det har i alle fall skjedd mye.
     

    otare

    Æresmedlem
    Ble medlem
    04.04.2007
    Innlegg
    15.806
    Antall liker
    13.150
    Sted
    Trondheim
    Med kraftigste M4 Max og 128 GB koster den rundt 50 000. En M5 Pro er kraftigere enn det, men finnes foreløpig ikke i en Mac Studio. Det kommer nok en M5 Ultra (som vel er 2 M5 Max brikker satt sammen til en), men den blir nok dyr.
    Mac Studio med M3 Ultra og 256 GB RAM tipper 100 000.
     

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.708
    Antall liker
    16.646
    Disse frasene irriterer meg grenseløst. Det hjelper ingen at maskinen prøver å gi inntrykk av at den er menneske.
    Definitivt. Særlig Grok var ille på denslags da jeg lekte meg med den for en tid tilbake. Ellers har vi jo vært innom den åpenbare bias for å være oppfordrende, positiv nesten uansett hvor rart ting strengt tatt er. Om det er en greie for å faktisk være positiv eller mer for å holde samtalen gående skal ikke jeg mene noe om. på de mer diffuse kriteriene, hvordan samtalen føles, så foretrekker jeg sterkt Claude i alle fall. Å snakke med ChatGPT føles som å snakke med en maskin, og ikke på en god måte.

    Det er mulig å spesifisere bedre hvilken stil man faktisk vil ha og den slags, men det rapporteres en del rundtomkring at ting over lang tid drifter mot defaulten til den aktuelle LLMen.
     

    Harry Stoteles

    Hi-Fi freak
    Ble medlem
    18.05.2020
    Innlegg
    3.474
    Antall liker
    4.164
    Sted
    Oslo
    Torget vurderinger
    0
    Tipper det er et forsøk på å gjøre det mer attraktivt å bruke maskinen. Ideelt sett var det like festlig å bruke den som en kalkulator. De er veldig nyttige, men sjøl den mest lekne går fort lei av å taste 5318008.
     

    Mar-a-Lago Club

    Overivrig entusiast
    Ble medlem
    14.02.2025
    Innlegg
    1.139
    Antall liker
    2.543
    Sted
    Halden
    Det ble et verre oppstyr da OpenAI gikk fra versjon 3 til 4, fordi folk mente "de mistet en venn de kunne snakke med" fordi kommunikasjonen ble mindre personlig.
    Tror ordet "chat" har fått lov å påvirke, egentlig er småprat det siste man bør være ute etter. Men horder bruker ChatGPT som terapeut og rådgiver, og også som alt fra samlivsterapeut til skilsmisseadvokat, etterhvert som småpraten går fra "har jeg det godt sammen med min ektefelle?" til "hvordan får jeg med meg mest mulig ut av boet?"

    Blir litt rart når man stoler mer på ChatGPTs dømmekraft enn på sin egen:

    Nettet er fullt av "ChatGPT is blowing up marriages" innlegg/artikler.

    Så det er et marked for dette, tydeligvis og merkelig nok.

    Men OpenAI og de andre tjener selvsagt ikke penger, selv om man har forsøkt å gjøre tjenesten mer allment attraktiv og dermed har vridd den vekk fra saklighet og over til fri fantasi (hallusinering).
    Det hjelper jo ikke med noen trillioner (norske billioner) parametre om brorparten er fri diktning som "AI" selv har kommet frem til.
     

    weld77

    Æresmedlem
    Ble medlem
    19.09.2014
    Innlegg
    23.708
    Antall liker
    16.646
    Det ble et verre oppstyr da OpenAI gikk fra versjon 3 til 4, fordi folk mente "de mistet en venn de kunne snakke med" fordi kommunikasjonen ble mindre personlig.
    Tror det var 4 til 5 uten at det spiller noen veldig stor rolle. I webversjonen forsvant 4.0 men den kom ganske fort tilbake, nå er den borte igjen noe jeg ikke vet når skjedde. De som brukte til prosa klagde på at språket ble kaldt og kjedelig, det merket jeg forsåvidt selv. Det var også en del klaging fra de som hadde bygget ymse workflows rundt 4 som ikke funket med 5. Basert på det jeg har lest om de ymse i det siste så går det mer i retning av små forbedringer og mindre revolusjoner, noe som kanskje tyder på at ytelseskurvene begynner å flate ut.

    Men OpenAI og de andre tjener selvsagt ikke penger, selv om man har forsøkt å gjøre tjenesten mer allment attraktiv og dermed har vridd den vekk fra saklighet og over til fri fantasi (hallusinering)
    Det eventuelt lukrative markedet er jo ikke folk som sitter hjemm og "trenger noen å prate med" og som er villige til å betale +/- 20 dollar måneden for et abo, API-tjenestene til profsjonelle brukere og folk som utvikler apper oppå infrastrukturen vil jeg anta er hvor potensialet ligger. Claude tilbyr eksempelvis ikke bildegenerering i det hele, det krever en del ooopf (ChatGPT bruker en del tid på å lage bilder for eksempel, Gemini/NanoBanana er mye kjappere) og neppe er et veldig sentralt use case for kommersiell bruk vil jeg tro.
     

    PeriodeLytter

    Hi-Fi freak
    Ble medlem
    26.02.2013
    Innlegg
    5.259
    Antall liker
    5.434
    Brodern er seniorutvikler i et konsulentselskap som gjør egne applikasjoner, samt endringer på kundesystemer. Han forteller at han gjør minimalt med koding i disse dager. Faget hans er nå er mer å lære seg lage gode promt og korrekturlesing. Og det er ikke så lenge siden han klaget over at han de siste årene egentlig utførte svært lite original koding lenger da det aller meste benyttet eksisterende in-house og 3.part kodebiblioteker. Altså midt i blinken for KI til å utføre "gjenbruk".
     

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    7.495
    Antall liker
    8.363
    Sted
    Tid og rom
    Ein skulle tru at dei ufattelege mengdene med bibliotek, metaspråk og rammeverk som er laga (for nesten kva som helst programmerbart verktøy) skulle vera nok til at ein gjennomsnitteleg programmerer kunne løysa dei aller fleste tenkelege oppgåver - om ikkje sjølv, så ved å bruka eitt eller anna verktøy.

    Det ser ikkje slik ut.

    Emacs har rundt 4000 pakker tilgjengeleg, TeXLive (subset av CTAN) har 5000, CRAN (R) har 21'000 og PyPI har meir enn ein halv million.
     

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.766
    Antall liker
    44.633
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Brodern er seniorutvikler i et konsulentselskap som gjør egne applikasjoner, samt endringer på kundesystemer. Han forteller at han gjør minimalt med koding i disse dager. Faget hans er nå er mer å lære seg lage gode promt og korrekturlesing. Og det er ikke så lenge siden han klaget over at han de siste årene egentlig utførte svært lite original koding lenger da det aller meste benyttet eksisterende in-house og 3.part kodebiblioteker. Altså midt i blinken for KI til å utføre "gjenbruk".
    Det kommer vel litt an på hva man koder. Om det er enda et CRM-system i C# på Microsoft SQL og Windows tror jeg ikke at jeg hadde giddet å skrive veldig mye av koden selv, jeg heller. Å få det ut av døra fort har mer verdi enn nerdeperfeksjon, og da er det kanskje verdt å betale for å ha det seneste og beste tilgjengelig. En eneste programmerertime spart pr måned blir fort et helt OK business case.
     
  • Laster inn…

Diskusjonstråd Se tråd i gallerivisning

  • Laster inn…
Topp Bunn