Fullt klar over hvordan "ai" fungerer, og det er tatt ut av "big data" modellen som var populær for 10-15 år siden. Da handlet det om å samle inn mest mulig data, "ai" er bare en språkmodell som graver i denne møkka etter gull. Derfor er det dritskummelt å ta det ai sier som god fisk, kilde-info er alltid en fin ting å forholde seg til, noe som ingen gidder å forholde seg til lengre. Ai er derfor en veldig fin fake news generator. At den er blitt så utbredt som man ser på dette forumet også, gir jo noen tanker. Og ikke minst alle de feilene som presenteres som sannheter.
Microsoft hadde et forsøk for ca. 20 år siden med en bot man kunne chatte med, og samlet språkmodeller fra de som skrev til den. Den endte opp med å bli en rasistisk kødd og måtte bli tatt ned rett og slett etter svært kort tid, dagens språkmodeller/ai har nok lært så det er introdusert veldig mange filtre imot banning og rasisme tipper jeg med veldig mange linjer i koden så man ikke ender opp med å havne i den samme fella som MS gjorde.
AI er bare en søkemotor som presenterer innholdet den finner på internett, litt som google søkemotoren men enklere å finne informasjon et sted. Jeg for min del foretrekker heller å grave litt mer, og helst hente info rett fra kilden.
1. «AI er bare big data gjenbruk»
–
Faktum: Moderne språkmodeller trenes på store datasett med tekst.
–
Faktum: Treningen skjer ved statistisk mønstergjenkjenning ikke ved lagring av konkrete kilder eller tekster.
–
Inferens: Å kalle dette «big data modellen fra 2010» er en forenkling. Metodikken er fundamentalt annerledes enn klassisk søk og aggregering.
–
Konklusjon: Delvis riktig utgangspunkt men teknisk misvisende.
2. «AI graver i møkka etter gull»
–
Faktum: Modellen har ingen semantisk forståelse eller sannhetsbegrep.
–
Faktum: Output er probabilistisk tekst basert på treningsfordeling.
–
Inferens: Risiko for feil og hallusinasjoner er reell.
–
Konklusjon: Kritikken er legitim men retorisk overdrevet.
3. «AI er en fake news generator»
–
Faktum: AI kan produsere feilaktige påstander med høy språklig overbevisning.
–
Faktum: Uten kildekrav eller domenekontroll øker risikoen.
–
Inferens: Dette gjelder alle sekundærkilder inkludert forumbrukere Wikipedia og populærvitenskap.
–
Konklusjon: Problemet er ukritisk bruk ikke teknologien i seg selv.
4. Microsoft boten som ble rasistisk
–
Faktum: Det refereres til Microsoft Tay i 2016 ikke for 20 år siden.
–
Faktum: Tay lærte direkte fra brukere i sanntid uten tilstrekkelig filtrering.
–
Faktum: Dagens modeller lærer ikke slik etter lansering.
–
Konklusjon: Historien brukes korrekt som advarsel men feilaktig som analogi.
5. «Mange filtre i koden»
–
Faktum: Ja det finnes sikkerhets og policy lag.
–
Faktum: Disse styrer output ikke modellens faktiske treningsdata.
–
Inferens: Filtre påvirker stil og tema men ikke sannhetsgehalt.
–
Konklusjon: Riktig observert men feil implikasjon.
6. «AI er bare en søkemotor»
–
Faktum: AI indekserer ikke nettet i sanntid.
–
Faktum: AI henter ikke svar fra databaser slik Google gjør.
–
Faktum: AI genererer tekst basert på intern modell.
–
Konklusjon: Dette er objektivt feil.
7. «Foretrekker å gå til kilden»
–
Faktum: Primærkilder er alltid å foretrekke.
–
Faktum: AI kan ikke erstatte kildekritikk.
–
Inferens: AI kan fungere som orienteringsverktøy ikke autoritet.
–
Konklusjon: Dette er det sterkeste og mest holdbare poenget i hele innlegget.
Oppsummert:
– Kritikken av ukritisk AI bruk er legitim.
– Den tekniske forståelsen av hvordan AI faktisk fungerer er mangelfull.
– Påstanden blander riktige bekymringer med feil analogier.
– Problemet er epistemologi ikke AI.