Hjernen fanger opp lyd «for raskt»

1326695678JX3Zv8At hjernen er kompleks og fantastisk er ikke noe nytt. Fersk forskning på hørselen vår får likevel fagfolk til å spisse ørene. Vi prosesserer nemlig lyd raskere og mer presist enn noen teknologi vi har i dag er i stand til. Vi bryter en grunnleggende uskarphetsrelasjon. Grundig. Hvordan i alle dager greier hjernen det – og hva betyr det?

Tenk deg at du sitter i et mørkt, stille rom, og så spiller noen en lyd for deg. Hvor raskt klarer hjernen din å fange opp signalet? Så kommer en annen tone. Er den lysere eller raskere enn den første? Hvor raskt klarer hjernen din å fange opp det nye signalet, og dessuten sammenligne det med det forrige?

Hvis vi ber en PC om å gjøre dette, så vil den bruke en teknikk som kalles Fourier-analyse. Lyd er trykkbølger i luft, og en ren tone får vi når disse trykkbølgene er pene og jevne. Hvis du tenker på det som bølger på en vannflate så karakteriseres lyden av hvor langt det er mellom bølgetoppene, og hvor høye bølgene er. Disse to avgjør henholdsvis hvor lys eller mørk lyden er, og hvor sterk den er.

Fourier-analyse, eller Fourier-transform blant venner. Øverst: En enkel, pen lydbølge som den til venstre vil gi en like enkel og skarp topp i Fourier-spekteret til høyre. Nederst: En litt mer komplisert - og realistisk - lyd vil gi flere topper. Merk hvor mye lettere det er å se fra bildet til høyre at lyden her er satt sammen av fem toner med ulik styrke.

Fourier-analyse, eller Fourier-transform blant venner. Øverst: En enkel, pen lydbølge som den til venstre vil gi en like enkel og skarp topp i Fourier-spekteret til høyre. Nederst: En litt mer komplisert – og realistisk – lyd vil gi flere topper. Merk hvor mye lettere det er å se fra bildet til høyre at lyden her er satt sammen av fem toner med ulik styrke.

Fourier-analyse – en super teknikk

Vanlig lyd er nesten aldri ren og pen, men heller et virvar av ulike bølger oppå hverandre. Fourier-analyse ser på hvor langt det er mellom bølgetoppene og prøver å få fornuft ut av det – se bildet. Den kan avgjøre hvilke toner du hører ved å finne mønstre i bølgene. En smart teknikk, og veldig, veldig mye brukt i moderne lyd- og bildebehandling.

Men: Fourier-analysen har en begrensning. Tenk deg tilbake til det mørke rommet. Du vil finne ut både hvilken tone det er som kom, og akkurat når de to tonene startet. Det er ikke så lett. Fourier-analysen trenger minst en hel periode av lyden – en opp og ned – før den kan gi et fullstendig svar, helst mer. Vil du måle hvilken tone det er må du altså vente litt, og det er ikke så lett å avgjøre akkurat når tonen begynte. Alternativt kan du si veldig nøyaktig når tonen starter, men da mister du informasjon om hvilken tone det er.

Uskarphetsrelasjoner

Denne typen sammenheng kalles en uskarphetsrelasjon. To størrelser – her tonens frekenvs og starttid – kan ikke samtidig måles raskt og med veldig høy presisjon. Gabor-grensen er navnet på den nedre grensen for hvor fort du kan få det til for en gitt tone. Hvis du har lest litt om kvantefysikk så er dette helt analogt til Heisenbergs uskarphetsrelasjon for kvanter, selv Gabor-grensen ikke er fundamental på samme måte. Den er bare en begrensning ved akkurat denne måten å måle lyd på.

Her er en annen, muligens bedre, forklaring på hva en uskarphetsrelasjon er:

Dilbert_uncertainty_principle

Nuvel. Tilbake til øret og den nye forskningen. Forskere som har prøvd å forklare hørselen vår har en stund antatt at den fungerer omtrent som en Fourier-analyse. Dette ville Jacob N. Oppenheim ofg Marcelo O. Magnasco ved Laboratory of Mathematical Physics, Rockefeller University, New York, sette på prøve. De laget et eksperiment akkurat som det vi tenkte oss over, der folk fikk høre toner som skiftet raskt og ble bedt om å registrere om den som kom først var høyere enn den andre. Ved å gjøre ulike varianter av dette eksperimentet kunne de teste om hjernen klarte å nærme seg Gabor-grensen, som den måtte ha adlydd hvis den var en Fourier-analyse-maskin.

Resultatet var klart og entydig: Hjernen er bedre. Mye bedre. Den klarer å registrere både når toner starter og om de er høye eller lave samtidig, imponerende raskt.

Nå overrasker det vel ingen at hjernen ikke er så enkel som en simpel matematisk algoritme, men det åpner likevel et stort og flott spørsmål: Hvordan gjør hjernen det? Hørselen er bare en av mange analyser som til enhver tid foregår mellom ørene våre, og her ser vi at den jobber raskere enn den mest effektive algoritmen vi har klart å lage i teknologien vår per i dag. Det er opplagt (?) at det er en slags parallell prosessering på gang, men selv dette kan ikke være den endelige svaret for parallelle prosesser må også til slutt snakke sammen for å bli til et enhetlig sanseinntrykk. Som artikkelforfatter Magnasco uttaler til physicsworld.com:

«In signal processing, there are a very large number of time–frequency distributions that have been proposed in order to analyse these signals. The question is, since there are very many different ways in which you can do this and only the highly nonlinear ways can offer performance comparable to what humans do, which one of these is in the same family as what the brain does?»

Denne ferske forskningen, publisert i Physical Review Letters 23. januar 2013, bekrefter dermed på den ene siden bare det vi alt visste: Hjernen er fantastisk. På den annen side tar den oss et stort steg videre, for den gir detaljer om en av de mange måtene hjernen er fantastisk på. Skal vi forstå hjernen bedre er en enkel analogi med Fourier-analyse ikke veien å gå. Case closed.

Referanse: Human Time-Frequency Acuity Beats the Fourier Uncertainty Principle, Phys. Rev. Lett. 110, 044301 (2013) [5 pages]

8 comments

  1. Sverre Holm · februar 4, 2013

    Artikkelen i Physical Review Letters hang litt i lufta i sin konklusjon så jeg ble sittende og lure på om forfatterne/reviewerne egentlig vet at ikke-linearitet i hørselen er så kjent at det kan brukes til noe veldig nyttig? Alle nyfødte hørselstestes, men hvordan kan man gjøre det når du ikke kan be dem om å si om de hører eller ikke?

    Hvis man setter en mikrofon foran øret når to toner på f eks 2950 og 3050 Hz spilles, sender øret tilbake en ny tone – et forvrengningsprodukt på 2*2950-3050 = 2850 Hz. Dette kalles otoakustisk emisjon og skjer i det indre øret, i cochlea. Det er det fenomenet som brukes for å sjekke hørselen hos nyfødte. Men et lineært system ville ikke produsere nye toner på denne måten. I øret er det både harmonisk forvrengning (2. harmoniske) og intermodulasjonsforvrengning (differansefrekvens).

    Det har helt sikkert noe å si for oppfattelse av musikk også, uten at det er kvantifisert der (Låter vinyl bedre enn CD?)

    • Bjørn H. Samset · februar 4, 2013

      Hei Sverre,

      den var kjapp – hadde tenkt å be deg kommentere, men du tok den før jeg rakk å stå opp 😉 Veldig tøff anvendelse. Kanskje til og med verdt å skrive ut som et eget innlegg som oppfølger til dette?

      physicsworld-artikkelen nevner at ikke-linearitet og bruddet på uskarpheten egentlig har vært kjent siden 70-tallet, men at det viktige nå er hvor rigorøst målingene er gjort. Med bedre tall kan vi lage og teste bedre modeller o.s.v. Men jeg droppet som du ser å nevne akkurat begrepet ikke-linearitet, siden jeg også synes det ble litt svevende her. (Som en overtone?)

      Bjørn

      • Sverre Holm · februar 4, 2013

        Hei Bjørn – tidlig morgenutveksling i kommentarfeltet! Alt som har med ikke-linearitet å gjøre er ganske komplisert. Vi har et godt matematisk begrepsapparat for å karakterisere noe som er lineært (som f.eks Carbomontanus’ lissajous-figurer på oscilloskopet under her), også for å skille lineært fra ikke-lineært, men har ikke et så velutviklet verktøy for å karakterisere forskjellige typer av ikke-linearitet. Tror noe av utfordringen ligger i det.

  2. Carbomontanus · februar 4, 2013

    Samset
    Dette har jeg drevet med, og har brukt en meget suveren metode, RC- koblet scop. der en sinus blir en ring og andre lyder blir alt annet enn en ring. Og kvalitativ musikalsk hørsel er en metode som ligger særlig nær opp til hva det scopet viser. Vi hører straks og spontant selv små og minimale endringer i klangfiguren, og det har sikkert med vår språkhørsel å gjøre, men det er også direkte dyrisk. Skjæra sier: Skvatt skratt katt skva, og Katt skvatt ratt taa , og skatt skvatt ta ratt skva. Og som man ser, så vet den da helt klart hva den snakker om, nemlig typpisk slike ting som skjærer må ha nøye kontroll med.

    Hermann Helmholz har drøftet dette inngående. I et hav av lyd, så klarer man å høre ut bestemte og svake og meningsfulle signaler. Jfr Orkesterdirigenten som i et hav av lyd kakker av og sier: «tredje obo annet system femte takt… kan jeg få litt mer diminuendo på den…» eller den drevne bilmekaniker som med lukket motorpanser og motoren igang sier: «Det er viftereima… du har en fis i manifolden…det er en ventiltikk i tredje cylinder,… det er Bendixen..»

    Uten denne evnen ville ikke menneskeheten ha overlevet stenalderen og den var lang,.. med så¨mange viktige lyder i skogen. Og dyra kan det også.

    Men vi hører hva vi vil høre, og vi må «Ha det på¨rulla..» Bare merk selv at hvis du har setnings- menings – innholdet på rulla , så hører du mye bedre, og man er i høy grad istand til å undertrykke og overhøre det man ikke vil høre eller som ikke interesserer en.

    Jeg studerer det videre i musikken og nå med barna. Jeg var med en orgelstemmer en gang som mente jeg hørte meget bra, men det skyldtes også trening. Man hører etter svevning og coherens, fasekobling også på partialtonene, koblede klangfigurer og jeg er trenet med det.

    Barna og klaver og sang, der må også høyre og venstre forlabb være med, og det gjelder mye å kunne artikulere begreper om reelle og saklig relevante ting som det er mulig å følge med i og manipulere med. Akkurat som orkesterdirigenten og bilmekanikeren- maskinisten. Og ved barn og elever må man også ta utgangspunkt i deres gitte evner og reelle bevisstheter og vise dem, og lære dem å forholde seg til det gitte og tinglige og objektive.

    Det er viktig å kunne sette seg inn i fysikken og maskinene og apparatene også from audical minds point of wiew. La musica est figuraqzione delle cose invisibili skrev Leonardo. Såsant såsant.

    Da må du også ha et empirisk bølgebegrep og lydbølgebegrep, for det er hva du skal figurere.

    Da får man effektivt ineniørmessig grep på lydkildene og lydfysikken og kan gjøre det opplyst kyndig artistisk. .

    Nok en ting, man hører også med føtter og fingrer. For å lete opp et klirr eller en slark i maskinen så bruker du fingrene og kan gå rett på. Men det er mulig det også forutsetter trening og interesse for hva er kilden til lydene. Hører du brum brum i skogen så må du med en gang oppfatte at det er en bjørn og der er den, ellers er du svært dekadent i forhold til hva som overlevde stenalderen og den var lang.

    Prøv med fingrene, hold på veggen eller på et bord og bank på et annet sted, du merker det med en gang. Eller du kan med enkel sesmikk finne reisverket inni veggen.

    S.K.

  3. Carbomontanus · februar 4, 2013

    Samset

    Endel vesentlige ting til:
    Merk profetene Chladni, Fourier, og Lissajous.

    Hermann Helmholz skrev Die Lehre von den Tonempfindungen- als physiologische Grundlage für die Teorie der Musik.

    Og var Fourier- frelst! Helmholz banket og hamret med «Die Teorie!» og mente dermed Fourieroppløsningen, og tok feil i at fourieroppløsningen (Die Teorie) er klangenes fysiske år- sak. Og bekjempet like iherdig av alle krefter «En eldre oppfatning blant musikere..» ifølge hvilken klangens og tonens helhet betraktet som chladnisk kompleks klangfigur skulle være tonens eller lydens vesen og kvalitet.

    Det RC- koblede oscilloscop som jeg har beskrevet, hedrer og bekrefter til fulle denne «eldre oppfatning blant musikere» mens Bruel & Kjærs lydspektrometer med display på Fysisk Institutt med fourieroppløsningen ikke på langt nær er så utrykksfullt og enkelt å tyde og så anvendelig mange ganger.

    Jeg stiller imidlertid selv med en solid rem av den harmonicalt pythagoreiske hud akkurat som Helmholz, så jeg godtar begge metoder hvert til sitt bruk.

    Og om du ser på gangen på Fysisk Institutt så står det der en rad med messingkuler med tut til å stikke inn i ørene på dauhørte folk som ikke hører sånt uten videre, Partialtonene i klangene.

    Professor Higgins i Pygmalion er en Helmholz- paropdi som driver med grafer og stikker tuter inn i ørene på folk så de skal høre riktig teori. «The ræin in spæin fålls mæinli inthe plæin..» De korrekte vokaler you see, Helmholz-fonetikken.

    og så er det initial- transcienten «But in arfd ærrited ænd æmsted , Ørrikns ardly æppen!»

    Det kommer på Youtube, hele My Fair Lady (Med Rex Harrison og Audrey Hepburn) og vi ser laboratoriet til Higgins fullt av klassisk Helmhoz- apparatur.

    Lissajousfigurer kommer når man maler en hvit prikk på en violinstreng og betrakter denne gjennom et microscop- ocular som svinger langsetter strengen festet til en stemmegaffel. Og det er atter en annen måte å displaye komplekse lydsvingninger på.

    Hvilke av disse 3 metoder er den mest direkte og reelle trans- formasjon av hva vi faktisk egentlig hører og hvordan lydbølgen faktisk svinger? for det er allt sammen projiseringer.

    Vet vi bare dette, så er det igrunnen lett å få tak på og drøfte. Og vi ser med en gang også helt klart at formålet er viktig for valg av metode, og at grove feilvalg av metoder er relativt vanlig det også. Hensikten helliger midlet ikke bare hos de gamle Jesuitter, men i høyeste grad også blant mange moderne forskere og fysikere you see..

    Men der var A. Bernhard Shaw radical og genial med Pygmalion. Det går i surr underveis og på halvveien for denne Professor Higgins når Ilaisæææ også viser seg å være en realitet.

    Og det var Colonel Pickering som hele tiden arbeidet efter riktig teori, som gikk ut på at Elisa var A Lady, og behandlet forskningsmaterialet som hva det var.

    Ellers vil jeg si at Fourier helt klart var en pytagoreisk og harmonical freak eller svermer, klart frelst på saken. Fourieroppløsningen er slett ikke så allmenngyldig just som Samset selv er klart inne på, for alle typer klanger toner vibrasjoner og funksjoner, men egentlig bare velegnet når man har med enkle, klare, og coherente klanger å gjøre.

    For skurr og knirk og konsonanter og hurtige transcienter må man ha et helt arsenal av andre metoder og forklaringer å falle tilbake på for hurtigst å komme til saken Jfr: «det er viftereima… det er en fis i manifolden .. det er trustlageret…… det er Bendixen…!

    Jeg så inn i fonetikk til allmenn språkvidenskap på Hist Fil, slett ikke ueffent.

  4. Carbomontanus · februar 4, 2013

    Svverre Holm

    Endelig en reflex. Hva er det dere driver med?

    Mitt grunnlag er høy trening i å bygge exotiske radioer på øremål, og i neste omgang tyde og bygge pnevmatiske oscillatorer blokkføyter til høyt raffinemang igrunnen med samme innsikt og trening. (Tyde fysikken from the audical point of wiew)

    Det er viktig å ha kontroll med at hva man tar i er fysisk reelt og ikke «Hodeklang… Magaklang…» og slike ting.

    Med scop og sondemikrofon frekvensfilter som logger partialbølgene i rommet kommer jeg til at Den som skriver at C= lambda.ny og regner med det i rommet, skriver og regner feil!

    Konstant lydhastighet for alle partialfrekvenser er en grensetilstand man nærmer seg når man kommer langt nok vekk fra sterke lydkilder, eller når amplityden faller mot null, med andre ord, gjelder kun for den absolutte stillhet.

    Unlinear acoustics er altså hoved- regelen!.

    Bokstavene Psi eller C er det enkle kriterium på når man kan sette en teori eller avhandling om akustikk tilbake der det hører hjemme, In the library dusts, man mister intet.

    Man må trace og behandle lambda og ny hver for seg som i radio, og vite at begge også er amplitydeavhengige. Men det som har konstant utstrekning i rommet er de heltallige frekvensproporsjoner mellom partialene i en coherent og kompleks klangsvingning. Overtonene er der fysisk fasekoblet til grunntonen med svake krefter, som også kan ryke katastrofalt, tonen sprekker eller man får rumble wolf im Ton, Overtonesvevning. Finnes likeså på radio og i chladnis plate, om man kjører for brutalt eller klangsystemet skjærer seg partielt mot randbetingelsene.

    Helt lignende problemer har man i design av fly og rakett og jetmotorer og i turbiner og propeller. Vindtunnellen og skipstanken og prøvebenken er uunnværlig.

    S.K.

  5. Trond Arne Pettersen · februar 15, 2013

    At «Vi prosesserer nemlig lyd raskere og mer presist enn noen teknologi vi har i dag er i stand til.» er muligens riktig sånn ren før/etter, men teknologien slår oss likevel på noen felter. Da mine elever skulle lage en naturfagoppgave, var det en som uten andre ideer, ville knytte det opp til ishockey. Jeg foreslo da å måle og beregne utgangshastigheten til en ishockey-puck. Da må man konsentrere seg om små distanser, en meter eller to fra kølleslag, der farten ennå ikke er redusert vesentlig. Et smell fra kølla og det neste i vantet. Da er det nesten uråd å skille smellene fra hverandre, og stoppeklokke blir ubrukelig. Jeg foreslo å gjøre et lydopptak, hvilket kunne gjøres med en mobiltelefon og legges over i et lydbehandlingsprogram. Der kunne man, en del støy til tross, avlese toppene brukbart, og ved å zoome inn på tidsaksen kunne man finne et pent presist tidsintervall mellom smellene, på noen hundredels sekunder. Så kunne gjennomsnittsfart på denne korte distansen, tilnærmet lik utgangshastighet (fart) beregnes brukbart. Enkel kombinasjon av nå lett tilgjengelig teknologi og morsom problemstilling, i hvert fall for den som fascineres av det. Slikt var «umulig» å gjøre for noen år tilbake, men kan nå gjøres med lett tilgjengelig teknologi.

  6. Arnfinn Christensen · mars 2, 2013

    Dette var veldig spennende, men jeg forstod det ikke helt. Hvis Fourier-analysen trenger bare en periode av signalet, er den vel mye raskere enn øret? Jeg ville i alle fall ikke klart å høre frekvensen med bare en sinusperiode. Kan hjernens evner ha noe med å gjøre at den ligner mer en analog datamaskin enn en digital? Altså at den gjør noe som ligner Fourier, men bare ikke som en matematisk analyse, mer som en direkte, kontinuerlig prosess? Kanskje gjøres også tids- og frekvensbestemmelsen uavhengig av hverandre, med forskjellige analoge prosesser? Skulle ønske jeg hadde mer formell utdannelse i dette!

Legg igjen en kommentar

Fyll inn i feltene under, eller klikk på et ikon for å logge inn:

WordPress.com-logo

Du kommenterer med bruk av din WordPress.com konto. Logg ut / Endre )

Twitter picture

Du kommenterer med bruk av din Twitter konto. Logg ut / Endre )

Facebookbilde

Du kommenterer med bruk av din Facebook konto. Logg ut / Endre )

Google+ photo

Du kommenterer med bruk av din Google+ konto. Logg ut / Endre )

Kobler til %s