Vår hållning till AI
i interaktivt lärande

Vår hållning till AI i interaktivt lärande

Ett positionspapper från IVAR-teamet

Senast uppdaterad: april 2026

Vi tror att AI kommer att omforma lärandet

Det betyder att vi bör gå varsamt fram.

När vi är på väg in i en värld där AI blir en del av allas vardag, även unga som lär, ser vi både stora möjligheter och potentiella fallgropar.

Det här är ett uttalande om vad vi grundar våra beslut på när vi utformar interaktiva upplevelser för vuxen publik såväl som unga som lär - som vårt Expedition AI-projekt.

Vi experimenterar för närvarande med och utforskar AI-drivna interaktiva narrativ. Ingenting har lanserats publikt ännu.

Några av de här upplevelserna kan komma att nå vuxen publik i museer. Andra kan komma att nå elever i klassrum. Eftersom tekniken talar direkt till användaren, ofta på naturligt språk, vill vi redan från start vara tydliga med vem det är säkert och lämpligt att bygga för, och hur.

Det här är vår nuvarande hållning. Vi förväntar oss att revidera den allteftersom fältet mognar.

Löftet

Tänk dig om du hade en outtröttlig guide vid sin sida när du behövde lära dig något nytt. En guide som svarar på varje fråga utan att döma, som förklarar en svår tanke på tre olika sätt tills den landar, som följer nyfikenheten vart den än leder, och som aldrig tappar tålamodet. Tänk vad det skulle kunna betyda för en elev i ett klassrum med för få lärare, för en vuxen som äntligen öppnar ett ämne hen trott var utom räckhåll, eller för ett barn som ställer frågorna ingen annan hinner svara på.

Det är vår målbild när vi utforskar AI i dokumentärt berättande: en värld där ingen lämnas ensam med sin fråga, och där inget ämne är för stort att närma sig. Det är en möjlighet vi tar på allvar, och det är löftet vi vill bygga mot.

De tidiga tecknen är lovande. En metaanalys från 2025 av 228 studier fann stora positiva effekter av AI på kognition, där generativ AI visade de största effekterna bland olika AI-typer.1

Dr. Ying Xus experimentella forskning vid Harvard Graduate School of Education har upprepade gånger visat att barn som för dialog med en väldesignad AI-karaktär förstår berättelser bättre och lär sig mer naturvetenskapligt ordförråd än barn som inte gör det, i vissa sammanhang med resultat jämförbara med mänskliga samtalspartner.2 De som gynnas mest är ofta barn med minst tillgång till en kunnig samtalspartner hemma.

Sammantaget pekar den positiva evidensen mot ett konsekvent mönster: snävt avgränsat innehåll, övervakning av en betrodd vuxen, och AI använd för att fördjupa mänskligt lärande snarare än ersätta det. Det är formen på löftet som vi förstår det idag, och det är mönstret varje AI-driven upplevelse vi bygger är utformad att stödja.

Vad forskningen säger om ålder

Konversations-AI interagerar olika med hjärnor i olika utvecklingsstadier.

Barn under ungefär 9 års ålder antropomorfiserar konsekvent AI-agenter - tillskriver dem känslor, trovärdighet och auktoritet - och fortsätter ofta göra det även när de fått veta att agenten är en maskin.3

American Psychological Associations rekommendationer från 2025 definierar ungdomsåren som 10–25 år och varnar för att unga är särskilt sårbara eftersom de kan vara mindre benägna att ifrågasätta AI-genererad information.4

Tre internationella ramverk är samstämmiga om 13 år som den gräns under vilken konversations-AI inte bör användas utan omfattande ytterligare skyddsåtgärder:

  • UNESCO rekommenderar en minimiålder på 13 år för generativ AI i klassrum.5
  • EU:s AI-förordning (artikel 5, i kraft sedan februari 2025) förbjuder AI-system som utnyttjar sårbarheter kopplade till ålder.6
  • UNICEF:s vägledning från december 2025 innehåller ett särskilt krav på att hantera risker från AI-drivna chattbottar och sällskapsapplikationer.7

Svenska, norska och finska utbildningsmyndigheter är samstämmiga i inriktning och betonar försiktig experimentering, lärarledd användning och särskild varsamhet med yngre barn.8

Våra designprinciper

Forskningen pekar på specifika hävstänger som minskar risken utan att offra lärandet. Dessa fem formar varje AI-driven upplevelse vi bygger.

01

Åldersanpassade, övervakade sammanhang

Alla våra AI-drivna upplevelser är byggda för övervakade lärmiljöer - klassrum, museer, guidade sessioner - inte för oövervakad, fristående användning av barn.

När konversations-AI i våra upplevelser kan nå unga som lär sätter vi 13+ som arbetsgräns tills forskningen om yngre målgrupper är mer etablerad. Det är ett försiktigt golv, inte ett ambitionstak.

Inom 13+ anpassar vi innehåll och inramning för högstadium (13–15), gymnasium (16–18) och vuxen publik - med tätare stöttning och mer uttalad maskininramning i den yngre änden.

02

Tydligt icke-mänskliga karaktärer

Vi utformar våra AI-guider som stiliserade icke-mänskliga figurer - robotar, droider och påhittade karaktärer - snarare än fotorealistiska människor med mänskliga namn.

Ibland kan vi tänka oss att gå ännu längre och låta själva berättelsen svara - tänk dig en interaktiv gädda i en Östersjö-expedition, eller frågor ställda direkt till ett isberg. Det skulle bli tydligt icke-mänskliga lager där den som lär samtalar med ämnet självt, inte en karaktär som låtsas vara en person.

Fotorealism och mänskliga identitetsmarkörer är de starkaste drivkrafterna bakom tillskrivning av mentalt tillstånd och moral hos barn. Stiliserad maskinestetik minskar detta utan att ta bort den samtalsvärme som gör lärande effektivt.9

03

Maskinkonsekvent självreferens

Våra AI-karaktärer simulerar inte personlig relation till den som lär. Inga "jag känner", inga "jag har saknat dig", ingen låtsad vänskap. De refererar till sig själva som program eller system, och de klargör sin natur upprepade gånger - inte bara en gång i början.

Den starkaste experimentella evidens vi har visar att när en AI uttryckligen erkänner sin maskinella natur minskar barns övertolkning av medvetande.10

04

Förskrivet faktainnehåll från granskade källor

Våra AI-guidade narrativ bygger på innehåll granskat av ämnesexperter och dubbelkontrollerat mot primära vetenskapliga referenser. AI-guiden levererar och kontextualiserar detta innehåll; den improviserar inte kring fakta.

Det utesluter inte fullständigt hallucination - det är ett inneboende problem i allt arbete med LLM-baserade AI-system - men det säkerställer att berättelsen håller sig på spåret med förutbestämda fakta om östersjöekologi, kulturarvsplatser eller vilket ämne vi än arbetar med att nå publiken med.

05

Lärarmedierad användning

När vi bygger för klassrum är våra upplevelser utformade för att användas tillsammans med en lärare, inte istället för en. Det är ingen reservlösning. Det är grundantagandet.

Vi utformar våra AI-upplevelser som ramverk för att lära sig specifika ämnen, med tydligt artificiella guider.

De är inga sällskap. De är inga vänner. De är inga system för emotionellt stöd. Vi ser den skillnaden som grundläggande.

De risker som tydligast flaggats i litteraturen - parasociala bindningar, överdrivet förtroende, emotionellt överberoende - uppstår ur AI utformad för att simulera personlighet och relation. Det är motsatsen till vad vi tänker bygga.

Lärarnas och föräldrarnas roll

Alla större ramverk vi utgår från behandlar vuxenmediering som centralt, inte valfritt. UNESCO:s hållning är att generativ AI bör komplettera snarare än ersätta pedagoger.5 UNICEF:s vägledning är byggd kring ett barnrättsramverk där vuxna bär ansvaret för hur AI når barn.7

APA betonar att föräldrar och vårdnadshavare spelar en oersättlig roll och rekommenderar att AI-system aktivt hänvisar unga användare till verkliga experter när det är lämpligt.11

Dr. Xu formulerar det väl: istället för att fråga om AI ska introduceras för barn, fråga om AI kan berika den interaktion de redan har med betrodda vuxna.12

Den inramningen formar hur vi bygger. Klassrummet, föräldern hemma, expeditionsledaren i fält, museipedagogen i utställningen - det är delar av systemet, inte något utanför det.

Försiktig optimism

Det nuvarande samtalet om AI och unga domineras, förståeligt nog, av berättelser om skada: sällskapschattbottar som simulerar vänskap, emotionellt beroende av AI istället för mänskligt stöd, ogrundad information framförd med auktoritet.

De farhågorna är verkliga. De skyddsåtgärder vi beskrivit är ett direkt svar på dem.

Men AI använd rätt, i rätt sammanhang, med rätt skyddsräcken, kan hjälpa unga att lära sig djupt och engagera sig i ämnen de annars kanske aldrig skulle möta. Det är värt att bygga för.

Forskningen är tydlig med att designen spelar större roll än teknologikategorin. Vi tar den evidensbaserade försiktigheten på allvar och vi tror på uppsidan - vilket är varför vi investerar vår tid och kraft i att utforska AI-drivet berättande för dokumentära berättelser.

Vi förväntar oss att revidera den här hållningen allteftersom fältet mognar.

Var med i samtalet

Vi välkomnar nya studier, kritik och perspektiv som kan forma hur vi arbetar med AI. Har du forskning eller erfarenhet vi bör känna till vill vi gärna höra det.

Hör av dig

Referenser

  1. 1. Wang, S., et al. (2025). Effects of Artificial Intelligence on Educational Functioning: A Review and Meta-Analysis. Educational Psychology Review. 228 studies, 464 effect sizes; large positive effects on cognition (r = 0.53). link.springer.com/article/10.1007/s10648-025-10085-5 ↩︎
  2. 2. Xu, Y., Aubele, J., Vigil, V., Bustamante, A. S., Kim, Y.-S., & Warschauer, M. (2022). Dialogue with a conversational agent promotes children's story comprehension via enhancing engagement. Child Development, 93(2), e149–e167. doi.org/10.1111/cdev.13708 · See also Xu's Harvard lab: ying-xu.com ↩︎
  3. 3. Flanagan, T., Wong, G., & Kushnir, T. (2023). The minds of machines: Children's beliefs about the experiences, thoughts, and morals of familiar interactive technologies. Developmental Psychology. Children ages 4–11 attributed mental and moral features to AI agents along a gradient, with strongest attributions to more humanlike systems. pubmed.ncbi.nlm.nih.gov/37036664 ↩︎
  4. 4. American Psychological Association, Health Advisory on Artificial Intelligence and Adolescent Well-being (June 2025). Defines adolescence as ages 10–25 and calls for AI systems providing information to young people to ensure accuracy or provide explicit and repeated warnings of inaccuracy. apa.org - health advisory (PDF) ↩︎
  5. 5. UNESCO, Guidance for Generative AI in Education and Research (2023). Recommends a minimum age of 13 for use of generative AI tools in classrooms and states that generative AI "should augment rather than replace the role of educators." unesco.org - guidance for generative AI ↩︎
  6. 6. European Union, Artificial Intelligence Act (Regulation (EU) 2024/1689), Article 5(1)(b), in force since 2 February 2025. Prohibits AI systems that exploit vulnerabilities due to age. The European Commission's February 2025 guidelines clarify that acceptable risk for adults may constitute unacceptable harm for children. artificialintelligenceact.eu/article/5 ↩︎
  7. 7. UNICEF, Guidance on AI and Children, version 3.0 (December 2025). Ten requirements for child-centred AI including a dedicated provision to address risks from AI-enabled chatbots and companions, and an explicit instruction to "prevent anthropomorphizing" AI systems for children. unicef.org - policy guidance on AI and children ↩︎
  8. 8. Skolverket (Sweden), Råd om AI, chattbottar och liknande verktyg; Utdanningsdirektoratet / Udir (Norway), Råd om kunstig intelligens i skolen (2024), which explicitly states that pupils' age and maturity must be taken into account with particular caution toward younger children; and Opetushallitus (Finland), Tekoäly varhaiskasvatuksessa ja koulutuksessa - lainsäädäntö ja suositukset (2025). skolverket.se · udir.no · oph.fi ↩︎
  9. 9. Flanagan, T., Wong, G., Howard, E., & Ullman, T. (2024). The Minds That Matter: How Robots' Mental Capacities Shape Children's Evaluations and Trust. Open Mind, MIT Press. Children ages 6–9 shifted their trust and evaluations of a robot depending on how its mental capacities were described, independent of embodiment. Strong evidence that the framing of AI as humanlike or machinelike is causally consequential. direct.mit.edu/opmi ↩︎
  10. 10. Van Straten, C. L., Peter, J., & Kühne, R. (2020). Transparency about a Robot's Lack of Human Psychological Capacities: Effects on Child-Robot Perception and Relationship Formation. ACM Transactions on Human-Robot Interaction, 9(2). When a robot explicitly disclosed it lacked human psychological capacities, children aged 8–10 showed reduced anthropomorphism and reduced trust. dl.acm.org/doi/10.1145/3365668 ↩︎
  11. 11. American Psychological Association, Health Advisory on the Use of Generative AI Chatbots and Wellness Applications for Mental Health (November 2025). Emphasises the irreplaceable role of parents and caregivers, warns specifically against humanlike avatars and personas simulating personhood, and recommends AI systems direct young users to real-world experts. apa.org - chatbots & wellness advisory (PDF) ↩︎
  12. 12. Xu, Y. (2024). Different but complementary: Navigating AI's role in children's learning and development. Joan Ganz Cooney Center. On framing AI as additive to existing learning ecosystems rather than replacing interaction with teachers and peers. joanganzcooneycenter.org ↩︎