LLM or not to LLM

2026-04-23

Mens det virker som om enkelte er coco crazy vedrørende «AI», enten man er for eller i mot slik det er nå, så har jeg et litt mer ambivalent forhold til det hele. Det meste er ikke min kopp te som det heter på gammelnorsk.

Å spørre en LLM med tilbakemelding eller om tips for en tekst du skriver, helt ok. Men ikke la den skrive konfirmasjonstalen for deg.

I det siste har jeg brukt Codex fra OpenAI for å lage to «programmer» (strengt tatt script) for meg. Den ene skulle la meg laste ned flasker med avhengigheter for Homebrew for riktig arkitektur (alle maskinene mine bortsett fra den viktigste på jobb er på nyeste macOS). Brukte litt tid på å få det til, men måtte til slutt forkaste v1. v2 baserer seg heller på at jeg har brukt Utm til å lage en kildemaskin med samme macOS som målmaskinen. Og bruker et script som bruker rsync til å kopiere den homebrewinstansen til en minnepinne, og det samme motsatt vei på målmaskinen.

Og det fungerte strålende, så nå har jeg en metode på å holde min homebrew installert. Codex la også inn en backupfunksjon jeg ikke hadde bedt om. Nå er det jo litt tregt å kopiere maaaange små filer til en kryptert minnepinne, men alt i alt en smart funksjon i tilfelle noe blir fscket opp.

Den andre var en funksjon for å logge inn og kjøre kommandoer på f.eks en ciscoboks, uten å logge inn manuelt, men hente passord fra nøkkelringen. En for del for meg er at da kan jeg pipe output flere ganger mens jeg bruker alt mulig fra av unixverktøy til å filtrere og manipulere resultatet

ssh bruker@ciscoboks
ciscoboks# sho int status | inc connected

versus

bash$ ccc ciscoboks sho int status | grep connected | grep -v trunk

Med Codex fink jeg ikke helt den i mål (delvis pga tingen over). Selv om den virket greit når jeg testet mot en linuxmaskin.

Men via Claude Code fikk jeg derimot et script som fungerte bedre (til slutt). Jeg er ingen utvikler, men har da litt forståelse. Første utgave fungerte halvveis. Men feilsøkingen via Claude Code imponerte meg en god del ettersom den foreslo faktiske debug-steg basert på mine tilbakemeldinger og kom med gode forklaringer om hva som feilen faktisk var. Codex var litt mer kjøre v1 -> forklare feil -> lage v2 -> kjøre v2 -> forklare feil -> etc. uten at forklaringen var så veldig pedagogisk.

Føltes litt mer lærerikt, og skjønner lovordene Claude Code har fått.

En siste ting er å spørre en llm om et konkret problem noen ganger kan være litt mer behjelpelig med å skille hveten fra klinten, konkretisere litt mer hva jeg bør se og lese på.

Jeg har et system som skal oppgraderes fra f.eks v3.2 til v4.2 (derav kan man f.eks anta at man også har v3.3, v3.4, v4.0, v4.1 osv). En LLM sa at jeg må oppgradere via alle mellomversjonene mellom 3.2 og 4.2, inkludert et stort antall rebooter. En annen sa at det skulle gå direkte.

Basert på det jeg kunne lese meg frem til hadde siste LLM korrekt. Men alle har gode linker til dokumentasjon osv.

Jeg har noen spesielle sære behov som jeg sikkert kunne løst med å lære meg litt mer bash eller være flinkere til å lese dokumentasjonen til f.eks rsync. Men både Codex og Claude Code brukte funksjoner og andre programmer jeg ikke visste eksisterte for å løse problemet jeg hadde.

På en måte er det flott at jeg får lagd det lille «programmet» jeg ønsker meg. Men samtidig har jeg jo mistet det lille insentivet jeg hadde til å lære meg dette på egenhånd. Men på den andre siden, jeg har sett flere ikke-programmerere lage programmer på null komma niks for å løse problemer de har på sin måte. Og en LLM får de som oftest ikke helt i mål (akkurat nå), det er alltid noen prosenter man må løse helt på egenhånd.

Og det fascinerer meg.

Men selvsagt, all hypen, all ai-skvipet, alle ressursene de bruker og suger til seg, det kunne jeg klart meg uten.

Så. Veldig ambivalent. Jeg ser problemet. Men jeg ser også nytteverdien.