tisdag 15 maj 2012

Utblick från Framtidens Lärande

Nedanstående var vad hag tänkte säga på mina 10 minuter på framtidens lärande 2012. För dig som inte klarade av att motstå den hungriga magens ihärdiga sug följer här min spaning och spåning om hur verktyg som Algodoo och andra initiativ kan och kommer att förändra fysikundervisningen. Märk väl att texten är som den var skriven, ämnad att läsas upp, med stavfel och allt...
-------
Jag vill påstå att det råder konsensus kring det faktum att simuleringar är en effektiv metod för att visualisera, för att lära ut och in och ge förståelse för olika mer eller mindre komplexa skeenden, processer, färdigheter och orsakssamband. 


Jag vill även påstå att det råder konsensus kring det faktum att, om den som lär själv är med och förkroppsligar sitt lärande, är med och skapar det som studeras, så sätter kunskaperna sig generellt sätt bättre och lite hårdare här uppe. Förståelsen blir djupare. För att nå detta så krävs, enligt exempelvis peter Gärdenfors (som var här och lyssnade på Algoryx själva förra året), så krävs ett visst mått av personligt engagemang och motivation, gärna en inre motivation. De här mer eller mindre teoretiska kognitionsvetenskapligt baserde tankarna förklarar på detta sätt den rent pedagogiska möjligheten att få in ett moment av spel i lärandet, att anspela på samlaren och jägaren inom oss,

något man exempelvis gjort här (Planethunters.org) där användaren förmås sitta och klicka sig fram på skärmen, i sin lust att rent bokstavligt upptäcka nya världar.

En annan närliggande tanke även här kopplad till speldjävulen inom oss är att spela på på viljan och behovet av att se mönster. I det här (SETI) fallet nästan in absurdum - här har elektromagnetisk radiostrålning omformats till bilder av en typ där det mänskliga ögat och sinnet rent evolutionärt är oerhört känsliga för att se just mönster, ungefär som vi ser varelser och objekt i moln eller i kaffesump. I det här fallet för att kunna se signaler från intelligenta livsformer kring fjärran stjärnor. Ett uppenbart sätt att anspela på och sätta igång fantasin hos eleven, eller den som deltar.

Hur kan då Algodoo och andra verktyg använda sig av simuleringar och visualiseringar för att stärka förståelsen ta ytterligare ett steg? Hur kan vi blanda in eleven själv, rent kroppsligt i lärandet? Jag tänkte visa ett par exempel på hur kan det göras redan i dag och några utkast till idéer utifrån min horisont som fysiker, fysiklärare och forskare i medieteknik med Datorstött lärande, med inriktning på fysik i fokus.

Simuleringar kommer i olika former. De kan vara mer eller mindre verklighetsnära eller abstrakta. De kan fungera som en i det närmaste avbild av verkligheten, eller en utvidgning av verkligheten. Alternativt för att testa gränserna för vad som är möjligt exempelvis i en klassrumssituation. Vidare kan simulering och verklighet presenteras sida vid sida, för jämförelse, eller i olika lager. Efter varandra eller samtidigt i tid. Några av er har kanske hört talas om Augmented Reality där en simulerad verklighet läggs på och förändrar eller förstärker - eller i vilket fall tillför något till den verklighet vi erfar normalt med våra sinnen - här har vi en sandlåda med en projektor och en Kinect-enhet som blickar ned från ovan.


Ett annat exempel, i det här fallet ur ett projekt som vi själva medverkat i. Här ser vi, och hör eventuellt hur dopplereffekten kan visualiseras med hjälp av en miniatyr som rörs framför en kamera, där programvaran sedan lägger på ett lager med bild för att visa ljudvågornas utbredning och ljud för att illustrera hur det låter. En simulering som åskådliggör - visualiserar - det osynliga. Här jobbar vi med olika sinnen, och eleven själv är med och interagerar  och skapar i princip objektet för lärandet.

Ett exempel på en riktning som jag vet Algodoo skulle vara intresserade av att gå i, eller där någon annan säkert kommer att ta vid, om inte jag själv hinner först - är där verkligheten och simuleringen överlagras.


I det här fallet i form av en film - verkligheten - och algodoo-verktyget med sin simulering.  

Den pedagogiska poängen med just den här övningen, är inte själva försöket i sig, som kanske inte är så vansinnigt spännande, utan här vill jag mer testa ett koncept där användaren får anpassa den fysikaliska modellens parametrar, i det här fallet för luftmotstånd, för att få den att stämma med verkligheten och direkt kunna jämföra de bägge. Är det den linjära termen eller kvadratiska termen i modellen som är den viktigaste? Det är frågan.

I just det här fallet så gick det inte att skilja på de bägge modellerna som båda kunde beskriva situationen. Men de ger dock olika förutsägelser om man bara kunde låta det de olika virtuella modellerna och det verkliga kaffefiltret fortsatta falla. Det kan man nämligen se om man låter simuleringen fortsätta. Så, då går vi vidare med vår modellutveckling och gör slag i saken. Och här får man alltså tillfälle att testa hypotesprövning och att verkligen bygga sina modeller och testa dem i verkligheten. Här och här kan vi se vilken modell som vann.

Så, en tanke är att få in den här tekniken i exempelvis Algodoo, och strömlinjeforma användarupplevelsen.



Ett tidigt ganska grovt försökt till den här typen av verktyg har gjorts av Vernier i deras “Video Physics App”. Ett annat område, när vi ser framåt är hur vi med ny teknik kan förkroppsliga lärandet än mer genom att använda den enskilda individens rörselser för att studera fysiken bakom just rörelse och att stärka lärandet genom att vi använder flera modaliteter, flera olika representationer med olika sinnen för att skapa och interagera med det som vi studerar. Här tänkte jag visa lite vad jag menar

I ett paper av Stamatina Anastopoulou, Mike Sharples och Chris Baber [1] drygt året gamla papret, så har satte man en liten givare och sensor på försökspersonens hand, som då momentant skickar information om dess läge och hastighet till en dator som utan fördröjning visar personen en grafisk representation av handens rörelse. Testpersonen får alltså direkt feedback från systemet, och i processen använder sig han eller hon av olika modaliteter - syn och handens rörelse, den egna kroppen är alltså involverad i att generera föremålet för observationen och lärandet. Det visade sig att de som gör detta själva får bättre resultat när de sedan blir tillfrågade om de lite mer komplexa sambanden mellan och innebörden av dessa typer av grafer, exempelvis sambandet mellan hastigheten och lutningen på grafen som visar läget som funktion av tiden. Detta i jämförelse med de som får se det göras och får sambanden förklarade för sig, lite mer som en klassisk föreläsning, fast med samma teknik.

Ett av de stora problemen med denna lösning är att hård och mjukvara är dyr och inte speciellt vanlig. Min tanke här är att använda metoden i ett mer lättillgägligt format. Som en app exempelvis på en iPad. Så jag har tagit fram en prototyp färdig att testas för att se om motsvarande resultat som i detta paper kan fås (film: spola till 20 sek resp 54 sek)

Här ser vi exempelvis hur man kan utföra en rörelse, studera grafen för läge som funktion av tiden och göra en förutsägelse över hur motsvarande graf över hastigheten ser ut. Givetvis efter att ha övat en del.

Motsvarande kan faktiskt i lite förenklad version göras i Algodoo.

Och en förhoppning är att algodoo skall komma ut i en version, gärna med de olika funktioner jag visat och en massa andra man kan tänka sig, till iPad eller motsvarande.




Kanske kunde även algodoo komma i en version med möjlighet att styra objekten i programmet med hjälp av kroppens egna rörelser. Appen som jag tagit fram har vi även testa med hjälp av Kinect, där handens rörelse mappas mot ett objekt på skärmen, vars hastighet och läge kan plottas i form av rörelsefunktioner. Om ett par tre år borde vi se denna typ av innovativa nya pedagogiska verktyg. Det brukar bli så, med ny teknik så föds lösningar på problem vi ibland inte visste att vi hade, men i det här fallet så vet vi att det finns ett problem, elevernas svårighet till förståelse.