Vetenskap & Hälsa

Forskning om hur hjärnan förutspår omvärlden

2018-10-25

Hur gör hjärnan när den hanterar information som skapas då vi berör olika saker med handen, den djupare intelligensens spegel? Och kan den kunskapen lära oss att bättre förstå och ställa diagnos på hjärnans sjukdomar? För att få svaret undersöker forskare hur hjärnan gör när vi interagerar med vår omvärld.

De intentioner vi har då vi interagerar med saker vi berör, kan avläsas genom handen. Nu kartlägger forskare mekanismerna för hur detta går till. Kunskapen kan användas både till att avläsa hjärnans sjukdomar, men också för att förbättra exempelvis robotkirurgi. Målet är att ta fram ”dubbelriktade gränssnitt” där människan kan påverka maskiner, men där också maskiner kan påverka människan genom att sända tillbaka sensorisk återkoppling. Foto: istock.com/baona

Forskare inom neurovetenskap och robotik ska tillsammans undersöka och förstå vad som händer i hjärnan när vi berör saker omkring oss, och hur detta hjälper hjärnan att förutspå omvärlden.

När forskarna lärt sig detta vill de utgå från hjärnans principer för att utvinna och använda en rik känselinformation från interaktioner med omvärlden för att med nanoteknologisk forskning och finmekanik skapa olika typer av användargränssnitt. Tanken är att resultaten ska kunna användas både till nästa generations virtual reality, VR, men också inom medicinens område.

henrik joerntell
Henrik Jörntell. Foto: Ingemar Hultquist

– De intentioner vi har när vi interagerar med saker vi berör kan avläsas genom handen. På så vis kan man kalla handen för den djupare intelligensens spegel. Till exempel tror vi det är möjligt att identifiera olika typer av sjukdomar i hjärnan, redan på ett tidigt stadium, genom att registrera och läsa av hur någon använder sin hand i interaktioner med omvärlden, säger Henrik Jörntell, forskare vid Lunds universitet. Han leder ett internationellt konsortium med svenska, brittiska och franska forskare och företag som  EU:s program Future Emerging Technology  nu tilldelar 32 miljoner kronor. Projektet kallas ”ph-coding”.

Hjärnans sensorer vs kamerans sensorer

Till skillnad från en digitalkamera som har passiva sensorer som skapar en bild, så samverkar våra hudsensorer med musklerna. Hjärnan försöker sedan förutspå vad som är på väg att hända, utifrån den sensorinformation som musklerna skapar i varje given interaktion med omvärlden.

Man kan likna det forskarna vill ta fram vid ett dubbelriktat känselgränssnitt. Det innebär att en människa kan interagera mot en passivt mottagande maskin, som med hjälp av nanoteknologi designas så att den känner av användarens högre intentioner, men maskinen kan i sin tur påverka människan genom att den sänder tillbaka sensorisk återkoppling till användaren.

– Så småningom lär sig hjärnan att när vi rör oss på ett visst sätt kan den förvänta sig att få sensorisk information som ser ut på ett visst sätt. Vi vill utgå från hur hjärnan gör när den hanterar den här informationen för att ta fram en ny teknologi.

Kan förbättra människa-maskin-interaktioner

Henrik Jörntell ger exempel på en applikation som kan dra nytta av forskningen:
– Idag genomförs många titthålsoperationer, som begränsas av känsligheten i robottekniksystemen som kirurgen interagerar med. Där skulle ett förbättrat användargränssnitt dramatiskt kunna förbättra den kontroll kirurgen får över det fjärrstyrda verktyget. Därmed finns potential för kraftigt utökade möjligheter för vad man kan åstadkomma inom titthålskirurgi, säger Henrik Jörntell.

Text: TOVE SMEDS

Artikeln är tidigare publicerad på Lunds universitets hemsida.