A King's College London study pitted Claude Sonnet 4, GPT-5.2, and Gemini 3 Flash against each other in nuclear crisis simulations. Tactical nuclear weapons were deployed in 20 out of 21 games. No model ever surrendered.
Løs verre og verre sjakknøtter og bygg en seiersrekke. Det er ingen klokke, så ta den tiden du trenger. Ett galt trekk og det er slutt! Du kan imidlertid hoppe over ett trekk for hver runde.
A King's College London study pitted Claude Sonnet 4, GPT-5.2, and Gemini 3 Flash against each other in nuclear crisis simulations. Tactical nuclear weapons were deployed in 20 out of 21 games. No model ever surrendered.
A King's College London study pitted Claude Sonnet 4, GPT-5.2, and Gemini 3 Flash against each other in nuclear crisis simulations. Tactical nuclear weapons were deployed in 20 out of 21 games. No model ever surrendered.
But the question is not whether AI gets the launch codes. The question is whether AI models used for strategic analysis, war-gaming, and decision support will methodically bias the humans who do have launch authority toward escalation. If every simulation your AI advisor runs ends with nuclear deployment being the "rational" choice, that shapes how you think about your options - even if you are the one making the final call.
er det LLM-ane som har ein innebygd bias som trekk dei i retning å faktisk bruka taktiske atomvåpen (at treningsdata er skreive på ein eller annan måte som dreg dei i den retninga), eller det vår instinktive motstand mot atomvåpen som strengt tatt er irrasjonell (noko som også kan bety at vi ikkje har integrert grunnlaget for kvifor det å bruka dei a priori vil vera feil tilstrekkeleg godt i måten vi skriv og tenkjer om atomvåpen)?
Klønete formulert, men i den retninga.
Heile systemet av doktrinar for a-våpen dryp jo av kognitiv dissonas: Vi skal ha dei, og vera villige til å bruka dei (planar, prosedyrar, leveransesystem osb) men berre fordi det aldri skal vera naudsynt å bruka dei.
Tror det er viktig å ikke anse LLM-er som rasjonelle, nesten uavhengig av hvordan en definerer "rasjonell". De er en blanding av sannsynlighetsregning og people-pleasing, og fungerer ikke på bakgrunn av logiske matriser.
Tror det er viktig å ikke anse LLM-er som rasjonelle, nesten uavhengig av hvordan en definerer "rasjonell". De er en blanding av sannsynlighetsregning og people-pleasing, og fungerer ikke på bakgrunn av logiske matriser.
OpenAI forsøker å bygge Babels Tårn og Yann LeCun mener det er et feilspor. Richard Sutton, som grunnla "reinforcement learning", mener LLM er et blindspor, av den enkle grunn at disse modellene ikke kan lære av egen erfaring, men er refererende og rekursive. Man får ikke intelligens, det man får er "hyperfast autocomplete".
Virksomheter som har innført AI sliter med demotiverte ansatte som føler de har fått mer å gjøre enn før, mens ledelsen hadde en forhåpning om at man skulle bli kvitt ansatte. Amazon sparket en haug mellomledere, dette ble brukt av AI-pushere som bevis på at man ville spare penger med AI, mens Amazons egne folk sier at oppsigelsene var et naturlig resultat av for mange ansettelser under Covid, og at de ikke var relatert til AI.
Men twitters grunnlegger, Jack Dorsey, sparker nå en haug ansatte, for å gi støtte til antakelsen om at AI vil bidra til å redusere antall ansatte og spare kostnader.
Det er egentlig ingen enighet om hva AI er, og alt mulig kalles AI (eller KI). Sam Altman ser for seg en planet dekket av datasentra, fordi hans mål er å få menneskets bevissthet ut i Universet, i tråd med Effective Altruism - "vi trenger ikke menneskekroppen". Oracle setter seg i stor gjeld for å bygge datasentra, men noen velger å spørre: Øh, hvem skal egentlig betale hva det koster å drive disse datasenterne?
Og Musk vil ha dem opp i verdensrommet, mens de som har greie på verdensrommet ler av den tanken. Microsoft gir opp forsøket med å bygge datasentra på en kald havbunn.
Babels Tårn falt og førte til kaos og det motsatte av et universelt språk, og OpenAI må innse at Google har en bedre modell i Gemini, så nå haster det med å få inn penger til OpenAI, før det hele står avkledd tilbake.
Selv syns jeg at jeg får mye nyttig ut av de nye verktøyene, men jeg ser det ikke som intelligens, men som "hyperfast autocomplete" (HFAC), som åpner mange nye muligheter i forhold til referansematerialet man tar utgangspunkt i. En "interface" mellom menneske og HFAC kan tette hullene i hva verktøyene leverer, ved å avsløre hvor de er syntetiske.
I mellomtiden.
Gemini
Seedance
Kling
Suno
Higgsfield
Mye moro. Også mye moro i YouTube-kanalen There I Ruined It, som tar for seg kjente låter.
Jeg anbefaler Richard Suttons samtale med en AI-troende, som får en del av sine antakelser om hvordan mennesker lærer satt på prøve. Sutton er selvsagt "for gammel", men forstår:
Og Ed Sitron har et klart bilde av hvor økonomien i "AI" er på vei:
En god ting med det hele: Bitcoin miners gir opp og gjør om sine "gravere" til datasentra. Det er der pengene ligger nå. Selg dine BTC.
Bitcoin miners are rapidly pivoting to AI data centers, leveraging their existing, high-capacity power infrastructure and cooling systems to host high-performance computing (HPC) for AI, driven by shrinking mining margins
. Major players like MARA Holdings, TeraWulf, and IREN are repurposing sites, with notable deals including MARA’s 1GW-plus expansion and IREN's massive Microsoft partnership.
Key Aspects of the Shift:
Infrastructure Advantage: Mining facilities are ideal for AI because they possess large-scale, pre-existing energy access (often 100MW+) and cooling capacity, reducing the time-to-market for new data centers.
Revenue Diversification: Firms are moving from volatile, low-margin Bitcoin mining to fixed-rate revenue streams from AI companies, boosting stock potential.
Major Players: Companies like MARA Holdings, Terawulf, Cipher Mining, and Hut 8 are leading this transition, with MARA aiming for over 2.5 gigawatts of capacity.
Strategic Pivot: The 2024 halving squeezed profit margins, forcing miners to pivot from "protocol servants" to "energy arbitrageurs".
Datacenters.com +5
As of early 2026, this trend has intensified, with miners often acting as "powered shells" providing the energy infrastructure while tenants bring the GPU servers.
Apple avsluttet samarbeidet med OpenAIs Chat GPT og har nylig innledet et samarbeid med Googles Gemini AI, som skal integreres i kommende Apple Intelligence. Sistnevnte er blitt latterliggjort, men nå sitter folk rett i stolene, fordi man brått har innsett hva Apples M-serie chips er i stand til. Jeg har uthevd under.
Og i videoen forklares det hva man sikter mot. Om noen undrer seg over NVIDIAs styrtdykk i går, så er denne videoen og Sitrons gjennomgang over et greit sted å begynne.
As of early 2026, Apple has entered a multi-year collaboration with Google to integrate Gemini AI models into Apple Intelligence
This partnership will power a more advanced, personalized Siri and other AI features, with new capabilities expected in 2026, while maintaining Apple's privacy standards through Private Cloud Compute.
Key Details of the Partnership:
Enhanced Siri: Google Gemini will power the next generation of Apple's virtual assistant, offering better contextual understanding and personal awareness.
Apple Intelligence Integration: Gemini will support various features, including potential enhancements to writing tools, image generation, and notification summaries.
Privacy First: Despite using Google's models, Apple will maintain its privacy architecture, with processing occurring on-device or via Apple's Private Cloud Compute.
Timeline: The enhanced, personalized Siri experience is expected to roll out around March or April 2026 with iOS 26.4.
Strategic Shift: This deal complements Apple's internal AI development, offering a hybrid approach rather than relying solely on their own models.
This partnership builds upon the existing long-term relationship between the two companies, where Google already serves as the default search engine on Apple devices.
===
Apple wasn't supposed to win the AI race. But while everyone was watching NVIDIA, Apple quietly solved the problem that actually matters. In this video, I break down how Apple's M-series chips are changing the game for AI inference. They solved the part where AI actually runs in your business, on your desk, with your data staying exactly where it is. We cover: → The memory bottleneck that nobody talks about → Why unified memory architecture changes everything → What the Neural Engine actually does → Real-world benchmarks: M4 vs cloud GPU workloads → Why a Mac Studio draws less power than your toaster.
"Apple built a 70 billion parameter model that runs on a desktop and uses less power than your toaster.
With a combined CPU, GPU and Neural Engine, running on the same memory."
Dagen etter at Antrhopic CEO sa at de ikke ønsker at krigsdepartementet i USA kan bruke modellene deres - så kom Sam Altman ut og sa at de hadde i OpenAI nettopp signert avtale med dem. Striden slik vi forstår skal ha vært ønsket om å kjøre modellene mot egen befolkning.
Eksakt. Det er no frickin’ way at man vil sende forretningskritiske data til noens ombygde bitcoin-rigg et eller annet sted i verden bare fordi «AI».
Selv hadde jeg nylig fornøyelsen av å terminere konsernets rammeavtale med AWS fordi etiske retningslinjer forbyr våre leverandører å bestikke offentlige tjenestepersoner eller deres familier, og fordi Bezos stappet 260 mill eller så i Melania Trumps lomme på høylys dag. Kan ikke gjøre business med sånne, heller ikke ha tillit til at forretningskritiske data er trygge der hvis den korrupte kompisen hans bestemmer at tilgangen til dine egne data skal være et pressmiddel. Jeg hadde gleden av å forklare dem i detalj eksakt hvorfor de ble kastet ut. Sa også opp mine egne kontoer på amazon.com med det samme jeg var i gang, bare av farten. (Jeg bruker ikke skrive så mye om jobb her inne, men det der var jeg litt fornøyd med og gjør derfor et unntak. )
Jeg har lekt meg med Grok, Gemini, ChatGPT og Claude. Har eller har hatt betalte abonnementer på de. Basert på min ringe testing er - med stor margin - Claude den beste av disse. Har brukt de ymse til noen i alle fall passe kompliserte modellingingsoppgaver der jeg har et visst begrep om hva man må ta hensyn til og litt hvor de ymse variantene av djevelen ligger begravet og Claude er her i en helt egen liga. Det har primært dreid seg om simuleringer av lengere tidshorisonter av ymse porteføljer og deres utvikling over tid i det norske skattesystemet. Ikke at problemstillingen i seg selv er så forbannet interssant, men det er noe jeg i det minste kan en del om og hvor det er en del man må ta hensyn til Spesielt ChatGPT er veldig glad i å med stro bravur annonsere et resultat som er ganske langt fra faktiske forhold.
Jeg har lekt meg med Grok, Gemini, ChatGPT og Claude. Har eller har hatt betalte abonnementer på de. Basert på min ringe testing er - med stor margin - Claude den beste av disse. Har brukt de ymse til noen i alle fall passe kompliserte modellingingsoppgaver der jeg har et visst begrep om hva man må ta hensyn til og litt hvor de ymse variantene av djevelen ligger begravet og Claude er her i en helt egen liga. Det har primært dreid seg om simuleringer av lengere tidshorisonter av ymse porteføljer og deres utvikling over tid i det norske skattesystemet. Ikke at problemstillingen i seg selv er så forbannet interssant, men det er noe jeg i det minste kan en del om og hvor det er en del man må ta hensyn til Spesielt ChatGPT er veldig glad i å med stro bravur annonsere et resultat som er ganske langt fra faktiske forhold.
Så lenge du ikke bruker OpenClaw ... kommer noen nye modeller fra Claude som har gitt selv utviklerne mye å tenke på. Og kineserne har vært på pirattokt:
Three Chinese AI labs just ran 16 million conversations with Claude through 24,000 fake accounts to steal its capabilities. The headlines are calling it a cold war. That framing is wrong — and if you stop there, you’ll miss what this actually means for every AI tool your team is using right now. This post argues that distillation isn’t espionage. It’s piracy. And like every piracy wave before it, it doesn’t stop — it slows down. The real story is that the incentive to extract frontier capabilities applies to everyone, not just state-backed Chinese labs, and that distilled models fail in ways that no benchmark currently captures. The gap shows up exactly where AI value is headed: sustained, autonomous, agentic work.
Har brukt ChatGPT til å lega ein presentgasjon/kurs eg heldt innanfor mitt felt, men sjølv om innhaldet vart greit nok so var presentasjonen litt rudimentær. For dei som har meir erfaring, er det grunn til å tru at Claude vil vera betre? Vonar det, og grunna at dei kan sjå ut til å vera litt meir prinsippfaste enn andre på kva modellen kan nyttast til...
Har brukt ChatGPT til å lega ein presentgasjon/kurs eg heldt innanfor mitt felt, men sjølv om innhaldet vart greit nok so var presentasjonen litt rudimentær. For dei som har meir erfaring, er det grunn til å tru at Claude vil vera betre? Vonar det, og grunna at dei kan sjå ut til å vera litt meir prinsippfaste enn andre på kva modellen kan nyttast til...
Claude kan ikke generere bilder i det hele om det er hva du spør om - kan lage PowerPoint-slides trur eg. Dersom du er interessert i å prøve kan du sende meg grunnmaterialiet / prompt på epost så kan jeg teste for deg uten at jeg kommer til å legge hele min sjel i å få det bra. Send meg en PM eventuelt. Aboet jeg har koster uansett ikke allverdens, type 20 dollar / måneden eller hva det er så om du vil teste en måned selv er det ikke veldig dyrt. Noen usage caps etc men de skal du jobbe ganske hardt for å nå.
For de som har lest mine skriblerier gjennom årene har man muligens fått med seg at jeg er glad for ikke å bli utsatt for "ledelse" eller "karriere" eller "møter" i betydlig grad. "Lage PowerPoint" er også ganske langt oppe på den listen.
Eksakt. Det er no frickin’ way at man vil sende forretningskritiske data til noens ombygde bitcoin-rigg et eller annet sted i verden bare fordi «AI».
Selv hadde jeg nylig fornøyelsen av å terminere konsernets rammeavtale med AWS fordi etiske retningslinjer forbyr våre leverandører å bestikke offentlige tjenestepersoner eller deres familier, og fordi Bezos stappet 260 mill eller så i Melania Trumps lomme på høylys dag. Kan ikke gjøre business med sånne, heller ikke ha tillit til at forretningskritiske data er trygge der hvis den korrupte kompisen hans bestemmer at tilgangen til dine egne data skal være et pressmiddel. Jeg hadde gleden av å forklare dem i detalj eksakt hvorfor de ble kastet ut. Sa også opp mine egne kontoer på amazon.com med det samme jeg var i gang, bare av farten. (Jeg bruker ikke skrive så mye om jobb her inne, men det der var jeg litt fornøyd med og gjør derfor et unntak. )
Jeg tror deg jo når du sier det, det er ikke det, men det å kansellere en avtale med en av de stor skyleverandørene er ikke akkurat gjort i en håndvenning rent operativt for virksomheten. Vi har, som de fleste andre flyttet ting over til ymse skyer og basert på min riktig nok begrensede kunnskap om hvordan slikt funker ser jeg for meg at det ville involvere ganske mye leven, arms & legs og kostnader og arbeidstimer om vi skulle hive ut de sentrale av sorten.
Litt OT, men eg kjenner ein barnsleg form for triumf når eg kan bruka pandoc til å generera Word-docx frå Markdown (pandoc1 kan laga slides også, men berre som PDF gjennom LaTeX/Beamer). Dei aller fleste vil diverre ha Word-filer om dei skal arbeida med eller kommentera eit dokument.
Det er, akkurat som eksakte/etterprøvbare greier, ting eg ser lite poeng i å outsource til KI.
1. pandoc/citeproc er kanskje det mest imponerande stykket konvensjonell programvare eg har sett dei siste fem åra.
Claude kan ikke generere bilder i det hele om det er hva du spør om - kan lage PowerPoint-slides trur eg. Dersom du er interessert i å prøve kan du sende meg grunnmaterialiet / prompt på epost så kan jeg teste for deg uten at jeg kommer til å legge hele min sjel i å få det bra. Send meg en PM eventuelt. Aboet jeg har koster uansett ikke allverdens, type 20 dollar / måneden eller hva det er så om du vil teste en måned selv er det ikke veldig dyrt. Noen usage caps etc men de skal du jobbe ganske hardt for å nå.
For de som har lest mine skriblerier gjennom årene har man muligens fått med seg at jeg er glad for ikke å bli utsatt for "ledelse" eller "karriere" eller "møter" i betydlig grad. "Lage PowerPoint" er også ganske langt oppe på den listen.
Takkar for tilbodet 20 dollar skal eg nok kunna stå i for å testa Leiing unngår eg som pesten, kjem det spursmål om personalansvarhar eg nok full kalender på koking av egg og poleringa av hjulmuttrar. Likevel, nokon kom på den lure ideen om at kanskje kunne får til å auka kunnskapen hjå kollegene mine og då kan det vera greit å ha noko visuelt anna enn mitt ofseleg vene ytre. Difor Powerpoint.
Jeg tror deg jo når du sier det, det er ikke det, men det å kansellere en avtale med en av de stor skyleverandørene er ikke akkurat gjort i en håndvenning rent operativt for virksomheten. Vi har, som de fleste andre flyttet ting over til ymse skyer og basert på min riktig nok begrensede kunnskap om hvordan slikt funker ser jeg for meg at det ville involvere ganske mye leven, arms & legs og kostnader og arbeidstimer om vi skulle hive ut de sentrale av sorten.
Vi hadde heldigvis ikke bundet oss så hardt til den masten. Operativt høyst overkommelig, men dermed heller ikke så smertefullt for AWS som jeg skulle ønske, dessverre. De har nok langt større kunder enn hva vi var. Hegseth’s Department of War er vel den største etter Amazon selv.
KI-revolusjonen skjer nå, og den vil treffe alt kunnskapsarbeid som en tsunami.
www.morgenbladet.no
Mur.
Tore Wig (statsviter) melder i Morgenbladet at no, med Claude Code, kan akademia eigentleg greia seg fint utan andre vitskaplege stillingar enn professorar.
Ok. Det opnar ei lang rekkje spørsmål om kor lenge den akademiske infrastrukturen eigentleg kan stå seg.
Utan juniorstillingar, kvifor skal då nokon satsa på akademiske disiplinar?
Det er virkelig noe å tenke over, og jeg er enig med ham i at vi står i en slags revolusjon. Men det slår meg også at det er veldig mye av det som er akademias daglige arbeid som er på grensa til bullshit-jobber, eller som i det minste kan automatiseres veldig. Transkribering av intervjuer går for eksempel mye raskere når en kan gjøre det ved hjelp av KI (noen sekunder i forhold til timesvis, eller dagesvis, for hånd), og så vidt jeg forstår også kvantitative analyser.
Men det at KI-en kan skrive publiseringsklare artikler på nivå med det en PhD-student kan få til, så lurer jeg på om ikke det først og fremst er en fortelling om et fagfelt i krise. Sånn sett kan KI føre til en av to ting. Enten ufattelig mange publikasjoner av helt passe kvalitet og mer eller mindre interessante problemstillinger, eller færre og mer gjennomtenkte publikasjoner og mer meningsfylte argumenter. Jeg mistenker kanskje at det blir det første, dessverre.
Men det at KI-en kan skrive publiseringsklare artikler på nivå med det en PhD-student kan få til, så lurer jeg på om ikke det først og fremst er en fortelling om et fagfelt i krise. Sånn sett kan KI føre til en av to ting. Enten ufattelig mange publikasjoner av helt passe kvalitet og mer eller mindre interessante problemstillinger, eller færre og mer gjennomtenkte publikasjoner og mer meningsfylte argumenter. Jeg mistenker kanskje at det blir det første, dessverre.
Med forbehold om at jeg befinner meg temmelig langt unna akademia så har jeg inntrykk av at det er et problem at det publiseres altfor masse, det er jo skrevet en del om publiseringskrav, tellekantsystem og dets like og når alt ble digitalt så går kostnaden med publikasjon dramatisk ned må man anta, ditto at det popper opp nye steder å publisere. Allerede i min tid på universitetet, rundt tusenårsskiftet så stusset jeg på en del artikler som var pensum, altså hvorfor i huleste har noen publisert, og fått publisert dette??
Ja. Eller: iallfall for mykje til at artiklar kan utgjera ein slags løpande fagleg samtale. @Harry Stoteles kan sjølvsagt mykje meir om dette enn meg.
Her i landet, då sektoren vart reformert for ca tjue år sidan, vart artikkelpublisering det sentrale måltalet både for individ og institusjonar. Gamle professorar som ville snakka og skrive bøker prøvde seg på eit moralsk forarga opprør mot tellekantsystemet. Dei tapte.
Inntrykket mitt er at «ekstern finansiering» er i ferd med å erstatta publisering som avgjerande måltal. Sjølvsagt har amerikansk akademia leidd an, og sjølvsagt har denne endringa kome snikande, her i landet først i STEM-faga.
Besynderleg nok skrudde Ap-Sp-regjeringa til denne skruen når dei fjerna/reduserte publiseringar som grunnlag for finansiering, og samtidig bremsa budsjetta i sektoren.
Ja, tellekantsystemet er under avvikling. Det tar nok ganske lang tid før det er ute av ansettelses- og opprykkskomiteers bevissthet, men jeg tror det er en fornuftig bevegelse og ideen er helt klart at forskeren heller skal bruke tida på å tenke lange, kloke tanker enn å pumpe ut utallige artikler. Dessverre eksisterer ikke Norge i et vakuum og kvantitet er vanskelig å komme unna hvis en skal sammenligne seg med Det Beste fra Utlandet: https://www.khrono.no/svarer-langso...-toppforskning-med-norsk-arbeidsmoral/1021527
Jeg deler perspektiv med @weld77 om at det publiseres altfor mye. Og en skulle jo trodd at det er billigere nå, men så lenge vi ser på forlagene som garantister for fagfellevurderingsprosesser og skikkelige redaksjoner, så vet de å ta seg godt betalt.
Og så er det de gode gamle disiplinære spørsmålene om hva som egentlig er verdt å tenke og forske på, og å publisere om. Den enes gullkorn er støv for den andre, og sånn må det vel nesten være. Ett av problemene er de som jukser seg til en vitenskapelig publikasjon annenhver uke i motsetning til en-to i året, og det er overraskende vanskelig å avdekke siden det publiseres så ufattelig mye. Det drukner i mengden.
Og så er det de gode gamle disiplinære spørsmålene om hva som egentlig er verdt å tenke og forske på, og å publisere om. Den enes gullkorn er støv for den andre, og sånn må det vel nesten være.
Det er sant, og det er godt mogleg at eg har eit litt (for) romantisk bilete av korleis alt burde vera.
Men tanken slo meg: då eg låg utslått i helga og veksla mellom ei 34 år gamal framstilling av arbeidet til Lacan (Rekdal, Det umedvitne språket, 1992) og ein nesten like gamal presentasjon av Lévinas (Taureck, Lévinas – en indføring, 1995/2019):
Sjølv i det utflytande franske etterkrigslandskapet er det faktisk mogleg å orientera seg, i den forstand at ein overkomeleg mengde artiklar, bøker og seminarrapportar utgjer nodar i eit nettverk (av folk som byggjer på og diskuterer med einannan) som dannar ein slags basis.
Det same kan ein seia om mitt fagfelt, norsk historie, i allfall fram til nyleg var slik at det var mogleg å peika på ikkje berre phd-avhandlingar, men også hovudfagsoppgåver, som flytta feltet fordi dei tenkte nye tankar og tilførte nye perspektiv. Men det feltet var også, i mykje større grad enn nesten alt anna, nasjonalt lukka.
Det er noko med korleis den overveldande mengda av særleg kvantitative undersøkingar gjev kjensla av å plukka blomster i midt i eit anleggsområde; alt går så fort og er så overveldande. Korleis kan nokon få tid og plass til å sjå og tenkja? Og kor mykje betre vert det dersom Tore Wig skal beordra ein allhær av KI-lakeiar (der alle heiter Claude) til å ut-publisera konkurrentane sine? «Nei, eg har ikkje tid til å læra opp juniorar på feltet: eg må publisera, publisera, publisera! Arbeid snøggare, Claude 347!»
(Det er sjølvsagt urettferdig å klaga på Wig her, han tek jo faktisk opp problemet).
Men det at KI-en kan skrive publiseringsklare artikler på nivå med det en PhD-student kan få til, så lurer jeg på om ikke det først og fremst er en fortelling om et fagfelt i krise. Sånn sett kan KI føre til en av to ting. Enten ufattelig mange publikasjoner av helt passe kvalitet og mer eller mindre interessante problemstillinger, eller færre og mer gjennomtenkte publikasjoner og mer meningsfylte argumenter. Jeg mistenker kanskje at det blir det første, dessverre.
Ut fra min egen erfaring med AI’ene av i dag: Det kan de ikke. Ikke i noe fagfelt jeg har interesse av. Ikke kan de kode heller. Det er nyttige diskusjonspartnere for å finne rett design, og brutalt effektive i debugging når man selv har stirret seg blind, så det kan fort gi en produktivitetsgevinst på 10x eller så når man koder, men det er stor sannsynlighet for at de havner aldeles på bærtur hvis de selv skal forsøke å kode opp noe.
Det er mulig visse fagfelt er så bullshit-infisert at PhD-studenter kan erstattes med LLM’er, og nå kommer jeg til å tenke på et par forhenværende AP- og SP-statsråder, men da er det muligens et fagfelt man kan greie seg med langt mindre av.
Enig i det. Jeg reagerte med vantro da Morten Goodwin sa det samme som Wig, og tenkte at det fortalte mer om fagfeltet hans enn KI-enes kapabiliteter. Når det blir gjentatt av Wig, så antar jeg at det er et eller annet folk ser i dem, men jeg har samme erfaring som deg. De kan hive sammen noen greier som ser tilforlatelige ut, helt til en går over fra å skumme til å lese.
Sjølv i det utflytande franske etterkrigslandskapet er det faktisk mogleg å orientera seg, i den forstand at ein overkomeleg mengde artiklar, bøker og seminarrapportar utgjer nodar i eit nettverk (av folk som byggjer på og diskuterer med einannan) som dannar ein slags basis.
Det er et godt poeng, og et jeg nok nøt godt av da doktoravhandlingen min ble vurdert. I evalueringen fikk jeg lese at min tolkning av Derrida, som jeg hadde brukt som forståelsesramme for hele greia, var "ukontroversiell". Litt skuffende, kanskje (artigere å være grensesprengende), men det bidro nok til at de likte resten av arbeidet desto bedre. Det er lettere å være positiv til de som allerede er medlemmer i samme klubb som en sjøl.
Det er noko med korleis den overveldande mengda av særleg kvantitative undersøkingar gjev kjensla av å plukka blomster i midt i eit anleggsområde; alt går så fort og er så overveldande. Korleis kan nokon få tid og plass til å sjå og tenkja?
Ut fra min egen erfaring med AI’ene av i dag: Det kan de ikke. Ikke i noe fagfelt jeg har interesse av. Ikke kan de kode heller. Det er nyttige diskusjonspartnere for å finne rett design, og brutalt effektive i debugging når man selv har stirret seg blind, så det kan fort gi en produktivitetsgevinst på 10x eller så når man koder, men det er stor sannsynlighet for at de havner aldeles på bærtur hvis de selv skal forsøke å kode opp noe.
Det er mulig visse fagfelt er så bullshit-infisert at PhD-studenter kan erstattes med LLM’er, og nå kommer jeg til å tenke på et par forhenværende AP- og SP-statsråder, men da er det muligens et fagfelt man kan greie seg med langt mindre av.
The Sokal affair, also known as the Sokal hoax,[1] was a demonstrative scholarly hoax performed by Alan Sokal, a physics professor at New York University and University College London. In 1996, Sokal submitted an article to Social Text, an academic journal of cultural studies. The submission was an experiment to test the journal's intellectual rigor, specifically to investigate whether "a leading North American journal of cultural studies—whose editorial collective includes such luminaries as Fredric Jameson and Andrew Ross—[would] publish an article liberally salted with nonsense if (a) it sounded good and (b) it flattered the editors' ideological preconceptions."[2]
The article, "Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity",[3] was published in the journal's Spring/Summer 1996 "Science Wars" issue. It proposed that quantum gravity is a social and linguistic construct. The journal did not practice academic peer review at the time,[4] so it did not submit the article for outside expert review by a physicist.[3][5] Three weeks after its publication in May 1996, Sokal revealed in the magazine Lingua Franca that the article was a hoax.[2]
The hoax caused controversy about the scholarly merit of commentary on the physical sciences by those in the humanities; the influence of postmodern philosophy on social disciplines in general; and academic ethics, including whether Sokal was wrong to deceive the editors or readers of Social Text; and whether Social Text had abided by proper scientific ethics.
Geoffrey Hinton sa noe i en podcast med Tyson som fikk med til å tenke litt. Om det nå blir at KI tar arbeidsplasser blir en av ringvirkningene tapte skatteinntekter til fellesskapet. Han påpekte litt humoristisk at det var tvilsomt at KI selskapene ville dekke disse tapene. Så i tillegg til at offentlige nå må fø flere arbeidsledige må dem gjøre så med mindre resurser.
Elon Musk er jo en av dem som snakker om borgerlønn. Men om man ikke kan skattelegge KI og robotindustrien hvor tenker dem egentlig pengene til varehandel og velferdssamfunn skal komme fra?
Hinton snakker også kort om et eksperiment gjort innen helsevesenet. Hvor man kopierer den samme LLM, men gir dem ulike roller som helsearbeidere/spesialister. Får så la dem sammen debatere seg fram til en diagnose.
Jeg antar de fleste av oss som har lekt litt med noen av disse modellene kun har gjort dette alene som sparringspartner? Og opplever da gjerne at den går i loop. Jeg har ofte konkludert at det er min egen feil som ikke evner gi den promt som genererer nye triggere.
Vi kommer langt om vi skiller mellom hype og realiteter når det gjelder dette som nå kalles kunstig intelligens.
Dersom akademia handler om å pløye gjennom relaterte artikler og sette sammen en ny sitatrekke fra disse, er det ingen tvil om at "KI" vil kunne erstatte mye av det som begås idag. Samtidig må vi se i øynene at altfor mange har tatt høyere utdannelse og at altfor mange forsøker å utgi seg for å ha forskerhoder/betydelige tankeevner -- det går så langt at selv statsråder forfalsker sine master-/doktoroppgaver, som består av sitatrekker uten videre egne bidrag til hva de forsøker å konkludere med.
Det som skjer i slike sammenhenger er uvesentlig, ubetydelig og om det avvikles kan det bidra til at vi får hender og hoder engasjert i mer praktiske sysler, som samfunnet har langt mer behov for, enn at man skal etablere enda et "høyere lærested" slik at man skal få plass til overfloden av "tenkende hoder" samfunnet har finansiert seg frem til.
"KI" er hyperhurtig søkeevne innenfor rammer man har satt, med mulighet for oppsummering av søket. Dessverre er det veldig mange som innbiller seg at resultatet vil være originalt og overlegent hva et menneske kan komme frem til, men dette skyldes at mange som tror de vet noe om et emne egentlig ikke gjør det, og at disse er takknemlige fordi de får en oppsummering de selv ikke ville klart "å favne om seg til".
Nå har vi en stor andel ki-entusiaster som kommer med store overdrivelser om kommende kapabiliteter, fordi de har en aksjekurs de ønsker å drive; fremskyndet av personer og fond som trenger noe med avkastning å gå inn i. Mot disse står så en del som påpeker at disse resultatene, som ser veldig imponerende ut, egentlig ikke er noe annet enn "auto-complete" utfra eksisterende kjensgjerninger, der veldig lite nytt er skapt, mens man derimot kan ha skapt en oppsummering som virker ny, fordi den har favnet veldig bredt, i forhold til hva man som enkeltindivid kjente til.
"KI" kan jo gå gjennom tekster i språk man ikke kan, det kan gå gjennom alle skrevne bøker (Anthropic kjøpte inn millioner av bøker som de scannet, da de trente sine modeller. På den måten slapp de å betale copyrightinnehaveren. De eide boken og kunne scanne innholdet, mente de. Det krangles om "Project Panama" i retten. Jeg har lest mange bøker i løpet av mitt liv, sist jeg flyttet ga jeg bort/kastet jeg over 5000, men jeg har aldri tenkt tanken at jeg skulle kunne fylle eget hode med innholdet av millioner av bøker. Det kan jeg derimot nå kjapt oppsummere, ved hjelp av Anthropic).
De mange som innbiller seg at "KI" vil erstatte alle jobber og totalt endre samfunnet, har litt rett når det gjelder mange som nå betjener bullshit-jobs (se David Graeber), men om man tror dette er sant har man ikke kikket over skjermen og ut vinduet, og forestilt seg hva som egentlig foregår i et samfunn.
Og hype fra AGI-gjengen skal man se bort fra, det er bare aksjedriving, når det ikke er villfarelser av typen Effective Altruism, som skal "free the mind from the body and turn us into digital hybrids, capable of moving through the universe".
Det vi nå ser, tydeligere og tydeligere, er at LLM er et blindspor om man vil oppnå sann KI, og at OpenAi står overfor barrieren "scaling problem", som tilsier at de har nådd et platå de ikke kommer fri fra. Claude (og Cowork som er en lettere applikasjon av Claude) er imponerende, men kommer ikke til å erstatte akademia. Om det derimot slanker akademia kommer vi langt i riktig retning i samfunnet.
Kanskje både negativt og positivt, men det siste da som fagfellen man diskuterer ideer med ved kaffemaskinen og muligens sammen kommer frem til noe enda bedre enn den første løse tanken man startet med.
Tradisjonell arbeidsplass for en programmerer er gjerne strødd med utskrifter av kode og output, oppslåtte manualer med gulmarkeringer på utvalgte steder, skriblede PostIt-lapper og kaffeflekker på det meste. Det går faktisk veldig mye fortere å spørre «Hey Claude, why am I getting this error on line 74?» enn å selv RTFM til den milde grad at man finner ut av det. I beste fall lærer man noe også.
I saw this visualisation last week and it genuinely changed how I think about where we are with AI...
Each dot represents 3.2 million people.
2,500 dots for 8.1 billion humans.
The colour shows the most advanced AI interaction that person has ever had.
Look at all that grey. That's 6.8 billion people who have never used AI. Ever. In any form.
The green strip at the bottom? 1.3 billion free chatbot users.
The tiny yellow sliver? The 15-25 million who actually pay for it.
And that single red dot you can barely see? That's the 2-5 million people using AI for coding and development.
I spend too much time on Twitter convincing myself the whole world has lapped me with their AI knowledge....a new model drops every day. Someone automated their entire company overnight. A 19 year old shipped a startup from their bedroom...
Then I show some simple AI tool to a mate from my small hometown and they react like I've just shown them fire for the first time.
They had no idea any of this existed.
And that's most people.
Most people on earth have absolutely no idea what AI can do right now. They haven't tried it. They haven't seen it. They don't know that you can talk to a computer and have it reason, write, build, and think alongside you.
The average person's understanding of AI is still "that thing that makes weird pictures" or "the robot that writes essays for students."
They have no concept of agents, automations, coding assistants, or anything close to what's actually happening.
82% of American businesses still aren't using AI for anything.
Only 4% have mature AI capabilities.
78% of executives say it's moving too fast for their teams to keep up.
So when people ask me "how do I get into AI" or "how do I catch up" - the answer is almost laughably simple.
Pay for one AI tool. Use it every day for a month.
Read one book about it.
Watch one long explainer video.
That's enough to put you in the top 1% of AI knowledge on planet earth.
You don't need a computer science degree. You don't need to understand transformer architecture. You just need to lean in and get your teams to lean in!
We are so so so early!
Hvor flinke er store språkmodeller på logiske problemer? Forskere har utviklet en ny metode for å bedre forstå når og hvorfor tankegangen til modellene svikter.