Javascript must be enabled to continue!
Mer enn ord: Hvordan du kan vite hva KI kan (og ikke kan) hjelpe deg med i organisasjonslivet
View through CrossRef
Denne artikkelen presenterer og diskuterer konseptuelle rammeverk som ledere kan anvende for å vurdere når kunstig intelligens (KI) i form av språkmodeller kan bidra til bedre beslutninger. Utgangspunktet vårt er at teknologien bak KI i hovedsak bygger på prediksjonsmodeller, og at nytteverdien av disse vil være avhengig av hvilke typer beslutninger den anvendes på. Vi vil problematisere en utbredt antakelse om at språklig formulert informasjon kan likestilles med kunnskap i organisasjoner, og viser hvordan denne antakelsen kan føre til feil bruk av KI i ledelse. Vår diskusjon bygger spesielt på det såkalte Cynefin-rammeverket (uttales ku-nev-in) for å dele inn beslutningsoppgaver etter grad av forutsigbarhet, usikkerhet og årsakssammenhenger. Deretter knytter vi diskusjonen opp mot skillet mellom beregnelige problemer, estimerbare hemmeligheter og åpne mysterier. Til sammen utgjør disse begrepene et beslutningsheuristisk rammeverk for bruken av KI som støtte til analyse og prediksjon. Rammeverket åpner for å vise hvor menneskelig dømmekraft, fortolkning og koordinasjon må være viktigere enn teknologi. Artikkelens bidrag er tredelt. For det første argumenterer vi for at språkbasert KI er en teknologi som er avhengig av den epistemiske struktur i beslutninger. For det andre beskriver vi hvordan Cynefin-rammeverket kan fungere som et praktisk verktøy for avgrenset bruk av KI i organisasjoner. For det tredje illustrerer vi rammeverkets analytiske nytteverdi gjennom konkrete eksempler fra markedsføringsledelse, knyttet til medieallokering og etterspørselsplanlegging. Artikkelen viser at effektiv innføring av KI krever mer enn teknologisk kompetanse. Ledere må forstå forholdet mellom kunnskapsformer, prediksjon, forklaring og sosial samhandling. En sentral implikasjon er at ledere ikke bør starte med spørsmålet «hvordan kan vi bruke KI?», men med «hvilken type beslutningsproblem står vi overfor?».
English abstract
More than Words: How to Know What AI Can (and Can't) Help You with in Organizational Life
This article develops and discusses conceptual frameworks that help leaders evaluate when artificial intelligence, especially language models, can support better decision making in organizations. Our starting point is that AI is primarily a prediction technology. Its value therefore depends on the type of decision problem it is applied to. We challenge the widespread assumption that information expressed in language is equivalent to organizational knowledge, and we show how this assumption can lead to misuse of AI in management contexts. The discussion is grounded in the Cynefin framework, which classifies decision situations according to predictability, uncertainty, and the nature of causal relationships. We combine this with a distinction between calculable problems, estimable secrets, and open mysteries. Together, these concepts form a practical decision heuristic for evaluating when AI is useful for analysis and prediction, and when human judgment, interpretation, and coordination must take precedence. The article makes three contributions. First, it argues that language based AI is fundamentally constrained by the epistemic structure of the decision task. Second, it shows how the Cynefin framework can serve as a practical tool for defining the boundaries of AI use in organizations. Third, it demonstrates the analytical value of this approach through examples from marketing management, including media allocation and demand planning. The central implication is that effective AI adoption requires more than technical competence. Leaders must understand the relationship between knowledge forms, prediction, explanation, and social coordination. Rather than starting with the question “How can we use AI?”, leaders should begin with “What type of decision problem are we facing?”
Title: Mer enn ord: Hvordan du kan vite hva KI kan (og ikke kan) hjelpe deg med i organisasjonslivet
Description:
Denne artikkelen presenterer og diskuterer konseptuelle rammeverk som ledere kan anvende for å vurdere når kunstig intelligens (KI) i form av språkmodeller kan bidra til bedre beslutninger.
Utgangspunktet vårt er at teknologien bak KI i hovedsak bygger på prediksjonsmodeller, og at nytteverdien av disse vil være avhengig av hvilke typer beslutninger den anvendes på.
Vi vil problematisere en utbredt antakelse om at språklig formulert informasjon kan likestilles med kunnskap i organisasjoner, og viser hvordan denne antakelsen kan føre til feil bruk av KI i ledelse.
Vår diskusjon bygger spesielt på det såkalte Cynefin-rammeverket (uttales ku-nev-in) for å dele inn beslutningsoppgaver etter grad av forutsigbarhet, usikkerhet og årsakssammenhenger.
Deretter knytter vi diskusjonen opp mot skillet mellom beregnelige problemer, estimerbare hemmeligheter og åpne mysterier.
Til sammen utgjør disse begrepene et beslutningsheuristisk rammeverk for bruken av KI som støtte til analyse og prediksjon.
Rammeverket åpner for å vise hvor menneskelig dømmekraft, fortolkning og koordinasjon må være viktigere enn teknologi.
Artikkelens bidrag er tredelt.
For det første argumenterer vi for at språkbasert KI er en teknologi som er avhengig av den epistemiske struktur i beslutninger.
For det andre beskriver vi hvordan Cynefin-rammeverket kan fungere som et praktisk verktøy for avgrenset bruk av KI i organisasjoner.
For det tredje illustrerer vi rammeverkets analytiske nytteverdi gjennom konkrete eksempler fra markedsføringsledelse, knyttet til medieallokering og etterspørselsplanlegging.
Artikkelen viser at effektiv innføring av KI krever mer enn teknologisk kompetanse.
Ledere må forstå forholdet mellom kunnskapsformer, prediksjon, forklaring og sosial samhandling.
En sentral implikasjon er at ledere ikke bør starte med spørsmålet «hvordan kan vi bruke KI?», men med «hvilken type beslutningsproblem står vi overfor?».
English abstract
More than Words: How to Know What AI Can (and Can't) Help You with in Organizational Life
This article develops and discusses conceptual frameworks that help leaders evaluate when artificial intelligence, especially language models, can support better decision making in organizations.
Our starting point is that AI is primarily a prediction technology.
Its value therefore depends on the type of decision problem it is applied to.
We challenge the widespread assumption that information expressed in language is equivalent to organizational knowledge, and we show how this assumption can lead to misuse of AI in management contexts.
The discussion is grounded in the Cynefin framework, which classifies decision situations according to predictability, uncertainty, and the nature of causal relationships.
We combine this with a distinction between calculable problems, estimable secrets, and open mysteries.
Together, these concepts form a practical decision heuristic for evaluating when AI is useful for analysis and prediction, and when human judgment, interpretation, and coordination must take precedence.
The article makes three contributions.
First, it argues that language based AI is fundamentally constrained by the epistemic structure of the decision task.
Second, it shows how the Cynefin framework can serve as a practical tool for defining the boundaries of AI use in organizations.
Third, it demonstrates the analytical value of this approach through examples from marketing management, including media allocation and demand planning.
The central implication is that effective AI adoption requires more than technical competence.
Leaders must understand the relationship between knowledge forms, prediction, explanation, and social coordination.
Rather than starting with the question “How can we use AI?”, leaders should begin with “What type of decision problem are we facing?”.
Related Results
Hva er ansvar?
Hva er ansvar?
«Ansvar» og «ansvarlig» er ord som brukes mye når vi snakker om et næringsliv som integrerer etiske hensyn. Men hva betyr det egentlig å ha og å ta ansvar? I denne artikkelen drøft...
Podcastlytteren som hverdagskurator: En undersøgelse af podcastlytning som praksisfænomen i hverdagen
Podcastlytteren som hverdagskurator: En undersøgelse af podcastlytning som praksisfænomen i hverdagen
Streaming og on demand-mediebrug er en generel medietendens, der breder sig i disse år i kraft af digitaliseringen af medierne. Som et on demand-medie indebærer podcasten en meget...
Simpson's paradoks: noen eksempler fra trafikksikkerhet og akuttmedisin
Simpson's paradoks: noen eksempler fra trafikksikkerhet og akuttmedisin
Simpson’s paradoks ble oppdaget av Edward Simpson i 1951. Det betegner en statistisk samspillseffekt, som er slik at retningen på en sammenheng endres når man slår sammen ulike kat...
Trunk asymmetry in one thousand school children aged 7-10 years
Trunk asymmetry in one thousand school children aged 7-10 years
Screening for idiopathic scoliosis is not very popular in Poland. Some Polish towns and cities have prevention programmes aimed at discovering spine dysfunctions and disorders in c...
Om dyr og folk
Om dyr og folk
Et av de prekære spørsmålene i tenkningen om mennesket er hvordan vi skal forstå forholdet mellom menneske og dyr. Denne relasjonen sier noe om oss selv og vår egen plass i verden....
Minne som materiale
Minne som materiale
«Minne som materiale» har vært en undersøkelse av ulike måter å arbeide kunstnerisk med minner og hukommelse. Jeg har utforsket ulike materialer, prosesser og uttrykksformer gjenno...

