riepilogo: I ricercatori hanno scoperto che l’orecchio emette suoni sottili in risposta ai movimenti degli occhi, consentendo loro di determinare dove sta guardando una persona.
Lo studio mostra che questi suoni auricolari, potenzialmente causati da contrazioni muscolari o dall’attivazione delle cellule ciliate, possono rivelare la posizione degli occhi.
Questa scoperta mette in discussione le credenze esistenti sulla funzione dell’orecchio, suggerendo che i suoni dell’orecchio possono aiutare a sincronizzare la percezione della vista e del suono. L’approccio innovativo del team potrebbe portare a nuovi test clinici dell’udito e a una comprensione più profonda dell’integrazione sensoriale.
Aspetti principali:
- La ricerca ha rivelato che i suoni sottili dell’orecchio corrispondono ai movimenti degli occhi, fornendo informazioni su dove una persona sta guardando.
- Questo fenomeno è probabilmente il risultato della coordinazione del cervello con i movimenti oculari con le contrazioni dei muscoli dell’orecchio o con l’attivazione delle cellule ciliate.
- I risultati aprono possibilità per nuovi test clinici e per una migliore comprensione di come il cervello integra le informazioni visive e uditive.
fonte: Università Ducale
Gli scienziati ora possono determinare dove guardano gli occhi di qualcuno semplicemente ascoltando le loro orecchie.
“È possibile effettivamente stimare il movimento degli occhi e la posizione del bersaglio che gli occhi guarderanno, solo dalle registrazioni effettuate con un microfono nel condotto uditivo”, ha affermato Jennifer Groh, Ph.D., autrice senior dello studio. libro. Il nuovo rapporto e un professore nei dipartimenti di psicologia e neuroscienze, nonché di neuroscienze alla Duke University.
Nel 2018, il team di Groh ha scoperto che le orecchie emettono un rumore sottile e impercettibile quando gli occhi si muovono. In un nuovo rapporto apparso la settimana del 20 novembre sulla rivista Atti dell’Accademia Nazionale delle ScienzeOra, il team della Duke dimostra che questi suoni possono rivelare dove stanno guardando i tuoi occhi.
Funziona anche al contrario. Solo sapendo dove qualcuno stava guardando, Groh e il suo team sono stati in grado di prevedere la forma d’onda del suono sottile dell’orecchio.
Groh ritiene che questi suoni possano verificarsi quando i movimenti oculari stimolano il cervello a contrarre i muscoli dell’orecchio medio, che normalmente aiutano ad attenuare i suoni forti, o le cellule ciliate, che aiutano ad amplificare i suoni deboli.
Lo scopo esatto di questo cigolio dell’orecchio non è chiaro, ma la sua impressione iniziale è che potrebbe aiutare ad affinare la percezione delle persone.
“Pensiamo che questo sia parte di un sistema che consente al cervello di sintonizzarsi su dove si trovano immagini e suoni, anche se i nostri occhi possono muoversi quando la testa e le orecchie non lo fanno”, ha detto Groh.
Comprendere la relazione tra i suoni sottili dell’orecchio e la vista può portare allo sviluppo di nuovi test clinici sull’udito.
“Se ciascuna parte dell’orecchio contribuisce con regole individuali al segnale timpanico, potrebbe essere utilizzata come una sorta di strumento clinico per valutare quale parte dell’anatomia dell’orecchio è difettosa”, ha affermato Stephanie Lovich, una delle autrici principali dello studio. Il giornale e uno studente laureato in psicologia e neuroscienze alla Duke University.
Proprio come la pupilla dell’occhio si contrae o si dilata come l’apertura di una macchina fotografica per regolare la quantità di luce che entra, anche le orecchie hanno il loro modo di regolare l’udito. Gli scienziati credono da tempo che questi meccanismi di regolazione del suono aiutino solo ad amplificare i suoni deboli o a smorzare i suoni forti.
Ma nel 2018, Groh e il suo team hanno scoperto che gli stessi meccanismi di regolazione del suono vengono attivati anche dai movimenti oculari, suggerendo che il cervello comunica alle orecchie i movimenti oculari.
Nel loro ultimo studio, il gruppo di ricerca ha dato seguito alla scoperta iniziale e ha indagato se i deboli segnali uditivi contengono informazioni dettagliate sui movimenti oculari.
Per decodificare i suoni dell’orecchio delle persone, il team di Groh della Duke University e il professor Christopher Schirra, Ph.D. Dalla University of Southern California, ha reclutato 16 adulti con problemi di vista e udito nel laboratorio di Groh a Durham per un esame della vista abbastanza semplice.
I partecipanti hanno guardato un punto verde fisso sullo schermo di un computer e poi, senza muovere la testa, hanno seguito il punto con gli occhi mentre scompariva e riappariva su, giù, a sinistra, a destra o in diagonale dal punto di partenza. Ciò ha fornito al team di Groh un’ampia gamma di segnali uditivi generati quando gli occhi si muovono orizzontalmente, verticalmente o diagonalmente.
Un eye tracker ha registrato dove stavano andando le pupille dei partecipanti per confrontarle con i suoni dell’orecchio, che sono stati catturati utilizzando un paio di auricolari integrati nel microfono.
Il gruppo di ricerca ha analizzato i suoni dell’orecchio e ha trovato firme uniche per diverse direzioni di movimento. Ciò ha permesso loro di decodificare il suono dell’orecchio e calcolare dove le persone guardavano semplicemente esaminando l’onda sonora.
“Poiché il movimento oculare diagonale è solo una componente orizzontale e una componente verticale, il mio collega di laboratorio e coautore David Murphy si è reso conto che potresti prendere queste due componenti e indovinare come sarebbero se le mettessi insieme”, ha detto Lovich.
“Quindi puoi andare nella direzione opposta e guardare l’oscillazione per prevedere che qualcuno stava guardando un angolo di 30 gradi a sinistra.”
Il suo cucciolo sta ora cercando di verificare se questi suoni auricolari abbiano un ruolo nella percezione.
Un gruppo di progetti si concentra su come i suoni del movimento degli occhi e dell’orecchio differiscono nelle persone con perdita dell’udito o della vista.
Groh sta anche testando se le persone senza perdita dell’udito o della vista genereranno segnali auricolari in grado di prevedere quanto bene si comporteranno in un compito di localizzazione audio, come localizzare un’ambulanza durante la guida, che si basa sulla mappatura delle informazioni uditive su un dispositivo visivo. Scena.
“Alcune persone hanno un segnale che è davvero ripetibile giorno dopo giorno e puoi misurarlo rapidamente”, ha detto Groh. “Ci si aspetterebbe che queste persone fossero davvero brave nei compiti visivi e uditivi rispetto ad altre persone, dove è più vario.”
Finanziamento: La ricerca di Groh è stata sostenuta da un finanziamento del National Institutes of Health (NIDCD DC017532).
Sulle novità della ricerca sulle neuroscienze visive e uditive
autore: Dan Vahaba
fonte: Università Ducale
comunicazione: Dan Vahaba – Duke University
immagine: Immagine accreditata a Neuroscience News
Ricerca originale: Accesso libero.
“Le informazioni parametriche sui movimenti oculari vengono inviate alle orecchie“Di Jennifer Groh et al. Con le persone
un sommario
Le informazioni parametriche sui movimenti oculari vengono inviate alle orecchie
Quando gli occhi si muovono, l’allineamento tra le scene visive e uditive cambia. Non siamo consapevoli di queste trasformazioni, il che suggerisce che il cervello debba integrare informazioni precise sui movimenti oculari nell’elaborazione uditiva e visiva.
Qui mostriamo che i piccoli suoni generati dal cervello all’interno dell’orecchio contengono informazioni precise sui movimenti oculari contemporanei nel dominio spaziale: la direzione e l’ampiezza dei movimenti oculari possono essere dedotte da questi piccoli suoni.
I meccanismi sottostanti probabilmente coinvolgono varie strutture motorie dell’orecchio e possono facilitare la traduzione dei segnali uditivi in arrivo in un quadro di riferimento fissato nella direzione degli occhi e quindi nella scena visiva.
“Giocatore. Aspirante evangelista della birra. Professionista della cultura pop. Amante dei viaggi. Sostenitore dei social media.”