Apresentamos protocolos e métodos de análises para construir interfaces co-adaptativas que transmitem, parametrizam, analisam e modificam sinais humanos do corpo e do coração em loop próximo. Esta configuração interfaces sinais derivados dos sistemas nervosos periféricos e centrais da pessoa com entradas sensoriais externas para ajudar a rastrear a mudança biofísica.
Os campos que desenvolvem métodos de substituição sensorial e aumento sensorial têm como objetivo controlar metas externas utilizando sinais dos sistemas nervosos centrais (SNC). Menos frequentes, no entanto, são protocolos que atualizam sinais externos autogerindo por corpos interativos em movimento. Há uma escassez de métodos que combinam os bioritmos corpo-coração-cérebro de um agente em movimento para orientar os de outro agente em movimento durante a troca dídica. Parte do desafio para realizar tal feito tem sido a complexidade da configuração usando bio-sinais multimodais com diferentes unidades físicas, escalas de tempo diferentes e frequências de amostragem variável.
Nos últimos anos, o advento de biocons sensores vestíveis que podem aproveitar invasivamente vários sinais em conjunto, abriu a possibilidade de re-parametrizar e atualizar os sinais periféricos de díades interagindo, além de melhorar as interfaces cérebro e/ou corpo-máquina. Aqui apresentamos uma interface co-adaptativa que atualiza a saída de motor somatic eferente (incluindo cinemática e frequência cardíaca) usando biosensores; parametriza os bio-sinais estocásticos, sonifica esta saída e a alimenta de volta em forma reparammetida como entrada de reafferent visuo/audio-cinestésico. Ilustramos os métodos usando dois tipos de interações, um envolvendo dois humanos e outro envolvendo um humano e seu avatar interagindo em tempo quase real. Discutimos os novos métodos no contexto de possíveis novas formas de medir as influências da entrada externa no controle somatic-sensorial-motor interno.
O controlador natural de close-loop
A informação sensorial-motor flui continuamente entre o cérebro e o corpo para produzir comportamentos bem organizados e coordenados. Tais comportamentos podem ser estudados apenas no foco nas ações da pessoa, como em um estilo de monólogo (Figura 1A), ou durante ações dinâmicas complexas compartilhadas entre dois agentes em um díade, como em um estilo de diálogo(Figura 1B). No entanto, uma terceira opção é avaliar interações tão complexas através de um controlador proxy, dentro do contexto de uma interface de loop próximo entre humanos e computadores(Figura 1C). Tal interface pode acompanhar as flutuações momentâneas dos movimentos contribuídos por cada agente no díade, e pelo tipo de coesão que auto-emerge de suas interações síncronias, ajudando a orientar os ritmos do diádio de maneiras desejáveis.
Figura 1: Diferentes formas de controle. (A) Interfaces auto-controladas pelo cérebro dependem das relações de loop próximo entre o cérebro da pessoa e o próprio corpo da pessoa, que podem se autorregular e se auto-interagir no estilo “monólogo”. Este modo tenta o controle de movimentos autoger gerados, ou também pode visar controlar dispositivos externos. (B) O controle de estilo “Diálogo” é introduzido para dois dançarinos que interagem entre si e através de entranção física e turn-taking para alcançar o controle sobre os movimentos um do outro. (C) O controle de diálogo “Terceiro” do díade é introduzido como mediado por uma interface de computador que aproveita em conjunto os bio-sinais de ambos os dançarinos, parametriza-o e alimenta-o de volta aos dançarinos de forma re-parametrizada usando áudio e/ou visão como formas de orientação sensorial. A re-parametrização nos exemplos aqui apresentados foi alcançada utilizando feedback audiovisual ou visual, potencializado pela saída motora cinestésico em tempo real de um dos dançarinos para influenciar o outro; ou de ambos os dançarinos, revezando-se em algum padrão alternado. Clique aqui para ver uma versão maior desta figura.
O objetivo geral deste método é mostrar que é possível aproveitar, parametrizar e re-parametrizar as flutuações momentâneas nas atividades biorítmicas dos corpos em movimento, à medida que dois agentes se envolvem em trocas dídicas que podem envolver dois humanos, ou um humano e seu avatar auto-comovente.
Investigações sobre como o cérebro pode controlar ações e prever suas consequências sensoriais geraram muitas linhas de investigações teóricas nos últimos1,2,3 e produziram vários modelos de controle neuromotor4,5,6,7,8. Uma linha de pesquisa neste campo multidisciplinar envolveu o desenvolvimento de interfaces cérebro-máquina ou cérebro-computador de loop próximo. Esses tipos de configurações oferecem maneiras de aproveitar e adaptar os sinais CNS para controlar um dispositivo externo, como um braço robótico9,10,11, um exoesqueleto12,um cursor em uma tela de computador13 (entre outros). Todos esses dispositivos externos compartilham a propriedade que eles não têm inteligência própria. Em vez disso, o cérebro que tenta controlá-los tem, e parte do problema que o cérebro enfrenta é aprender a prever as consequências dos movimentos que ele gera nesses dispositivos (por exemplo, os movimentos do cursor, os movimentos do braço robótico, etc.) ao mesmo tempo em que gera outros suportes de movimento que contribuem para o feedback motor sensorial geral na forma de reagência cinética. Muitas vezes, o objetivo geral dessas interfaces tem sido ajudar a pessoa por trás desse cérebro a contornar uma lesão ou desordem, para recuperar a transformação de seus pensamentos intencionais em atos físicos controlados volientemente do dispositivo externo. Menos comum, no entanto, tem sido o desenvolvimento de interfaces que tentam orientar os movimentos dos corpos em movimento.
Grande parte da pesquisa original sobre interfaces cérebro-máquina se concentra no controle do sistema nervoso central (SNC) sobre partes do corpo que podem realizar ações direcionadas a metas9,14,15,16,17. Há, no entanto, outras situações em que o uso dos sinais derivados de atividades dos sistemas nervosos periféricos (PNS), incluindo os dos sistemas nervosos autônomos (ANS), é informativo o suficiente para influenciar e orientar os sinais de agentes externos, incluindo outro humano ou avatar, ou mesmo interagir humanos (como na Figura 1C). Ao contrário de um braço robótico ou cursor, o outro agente neste caso, tem inteligência impulsionada por um cérebro (no caso do avatar que foi dotado dos movimentos da pessoa, ou de outro agente, no caso de um díade humano interagindo).
Uma configuração que cria um ambiente de uma interface de close-loop co-adaptável com a troca dídica pode ser útil para intervir em distúrbios dos sistemas nervosos pelos quais o cérebro não pode controlar o próprio corpo em movimento à vontade, apesar de não ter cortado fisicamente a ponte entre o CNS e o PNS. Este pode ser o caso devido a sinais periféricos barulhentos pelos quais os loops de feedback para ajudar o cérebro a monitorar e ajustar continuamente seus próprios bioritmos autogeridos podem ter sido interrompidos. Esse cenário surge em pacientes com Mal de Parkinson18,19, ou em participantes com transtornos do espectro autista com excesso de ruído em sua produção motora. De fato, em ambos os casos, quantificamos altos níveis de relação ruído-sinal nos sinais cinestésicos que retornam derivados da velocidade de seus movimentos pretendidos20,21,22 e do coração23. Nesses casos, tentar dominar o controle cerebral de sinais externos, ao mesmo tempo em que tenta controlar o corpo em movimento, pode resultar em um sinal auto-reativo do fluxo de informações re-entrante (re-aferentes) que o cérebro recebe do fluxo motor contínuo (eferente) na periferia. De fato, as flutuações moment a momente presentes em tal fluxo motor eferente autogerado contêm informações importantes úteis para auxiliar na previsão das consequências sensoriais das ações propositais24. Quando esse feedback é corrompido pelo ruído, torna-se difícil atualizar previsivelmente os sinais de controle e fazer a ponte de planos intencionais com atos físicos.
Se estendermos esse ciclo de feedback a outro agente e controlarmos as interações da pessoa e do agente através de um terceiro(Figura 1C),podemos ter a chance de direcionar as performances um do outro em tempo quase real. Isso nos forneceria a prova de conceito de que precisaríamos estender a noção de interfaces cérebro-corpo ou cérebro-máquina co-adaptativa para tratar distúrbios dos sistemas nervosos que resultam em má realização de vontade física a partir de intenção mental.
Ações propositadas têm consequências, que são precisamente caracterizadas por assinaturas motoras e estocásticas que são dependentes do contexto e permitem inferência de níveis de intenção mental com alta certeza25,26. Assim, uma vantagem de um novo método que aproveita a troca dídica sobre abordagens centradas em pessoas anteriores à máquina cerebral ou interfaces de computador cerebral, é que podemos aumentar os sinais de controle para incluir os bioritmos corporais e cardíacos que ocorrem em grande parte sob a consciência da pessoa, sob diferentes níveis de intenção. Dessa forma, amortecemos a interferência reativa que o controle consciente tende a evocar no processo de adaptação do controle cérebro-cursor17. Podemos adicionar mais certeza ao processo preditivo, parametrizando os vários sinais que podemos acessar. Nesse sentido, existe trabalho prévio utilizando sinais cerebrais e corporais em conjunto27,28,29; mas o trabalho envolvendo interações dídicas capturadas por sinais cerebrais-corporais permanece escasso. Além disso, a literatura já se delineou a distinção entre segmentos deliberados da ação realizada sob plena consciência e movimentos transitórios que ocorrem espontaneamente como consequência dos deliberados30,31. Aqui fazemos essa distinção no contexto da troca dídica, e oferecemos novas formas de estudar essa dicotomia32,ao mesmo tempo em que fornecemos exemplos de movimentos coreografados (deliberados) vs. improvisados (espontâneos) no espaço de dança.
Devido aos atrasos de transdução e transmissão nos processos de integração sensorial-motor e transformação33,é necessário ter esse código preditivo em vigor, para aprender a antecipar a entrada sensorial futura com alta certeza. Para isso, é importante ser capaz de caracterizar a evolução da relação ruído-sinal derivada de sinais no fluxo de refesão cinestésico continuamente atualizado. Em seguida, precisamos de protocolos para medir sistematicamente a mudança na variabilidade motora. A variabilidade está inerentemente presente nas flutuações moment a momento do fluxo de motor34de saída . Uma vez que esses sinais são não estacionários e sensíveis às variações contextuais35,36, é possível parametrizar alterações que ocorrem com alterações do contexto das tarefas. Para minimizar a interferência de sinais reativos que emergem do controle consciente do CNS, e para evocar mudanças quantificáveis no fluxo de motor PNS efervescente, introduzimos aqui uma interface de loop próximo proxy que altera indiretamente o feedback sensorial, recrutando o sinal periférico que está mudando em grande parte sob a autoconsciência da pessoa. Em seguida, mostramos maneiras de medir sistematicamente a mudança que se segue às manipulações sensoriais, usando análises estocásticas favoráveis para visualizar o processo que a interface de loop próximo proxy evoca indiretamente em ambos os agentes.
Introduzindo um controlador de loop de fechamento de proxy
A variabilidade sensorial-motora presente nos sinais periféricos constitui uma rica fonte de informação para orientar o desempenho dos sistemas nervosos enquanto a aprendizagem, adaptação e generalização ocorrem em diferentes contextos37. Esses sinais emergem em parte como um subproduto do CNS tentando controlar ações voliavelmente, mas não são o objetivo direto do controlador. À medida que a pessoa interage naturalmente com os outros, os sinais periféricos podem ser aproveitados, padronizados e re-parametrizados; o que significa que suas variações podem ser parametrizadas e sistematicamente deslocadas, pois altera-se o fluxo motor eferente que reentra continuamente no sistema como reafidão cinestésico. Em tais configurações, podemos visualizar as mudanças estocásticas, capturando com alta precisão um sinal rico que de outra forma é perdido para os tipos de grande média que as técnicas mais tradicionais realizam.
Para alcançar a caracterização da mudança sob a nova plataforma estatística, introduzimos protocolos, tipos de dados padronizados e análises que permitem a integração da entrada sensorial externa (auditiva e visual) com sinais motores autogerados internamente, enquanto a pessoa interage naturalmente com outra pessoa, ou com uma versão avatar da pessoa. Nesse sentido, porque estamos buscando controlar os sinais periféricos (em vez de modificar os sinais CNS para controlar diretamente o dispositivo ou mídia externa), nós cunhamos esta uma interface de loop de fechamento proxy(Figura 2). Nosso objetivo é caracterizar as mudanças nos sinais estocásticos da PNS, pois impactam as do CNS.
Figura 2: Controle proxy de uma interação disádica usando interface multimodal de loop próximo. (A) Controle indireto de dois dançarinos (salsa dançante) através de uma interface co-adaptativa de computador vs. (B) um dyad interativo artificial pessoa-avatar controlado aproveitando os sinais dos sistemas nervosos periféricos e re-parametrizando-o como sons e/ou como entrada visual. (C) O conceito de sonificação utilizando um novo tipo de dados padronizado (os picos de micro-movimento, MMS) derivado das flutuações moment a momento nos sinais biorítmicos amplitude/tempo convertidos em vibrações e, em seguida, ao som. Da Física, emprestamos as noções de compressões e rarefações produzidas por uma onda sonora de saída de garfo de sintonia como vibrações mensuráveis. Esquemas de ondas sonoras representados como pressão modulada ao longo do tempo em paralelo às concentrações de pico para sonificação. Exemplo de um sinal físico para submeter-se ao pipeline proposto de MMS para vibrações e sonificação. Usamos o sinal de frequência cardíaca como entrada para a interface. Isso requer flutuações na amplitude do sinal alinhadas ao início do movimento a cada 4 segundos de movimento e constrói trens MMS representando as vibrações. Os trens de pico do MMS são padronizados a partir de [0,1]. A cor dos picos de acordo com a barra de cor, representa a intensidade do sinal. Então sonificamos essas vibrações usando Max. Este sinal sonificado pode ser usado para reproduzir em A, ou para alterar em B as interações com o avatar. Além disso, em B é possível incorporar o som no ambiente e usar a posição do corpo para reproduzir o som de volta em uma região de interesse (ROI), ou modular os recursos de áudio em função da distância ao ROI, velocidade ou aceleração de uma parte do corpo ancorada em outra parte do corpo, ao passar pelo ROI. Clique aqui para ver uma versão maior desta figura.
Os sinais PNS podem ser aproveitados de forma não invasiva com tecnologias de sensoriamento vestíveis que co-registram fluxos multimodais e diferentes de diferentes camadas funcionais dos sistemas nervosos, variando de autônomo a32voluntário . Podemos então medir em tempo real as alterações nesses fluxos e selecionar aqueles cujas alterações melhoram a relação sinal-ruído. Este sinal motor eferente pode então ser aumentado com outras formas de orientação sensorial (por exemplo, auditivo, visual, etc.) Como a PNS sinaliza a consciência total, elas são mais fáceis de manipular sem muita resistência 38. Como tal, nós os usamos para ajudar a orientar o desempenho da pessoa de maneiras que podem ser menos estressantes para o sistema humano.
Construindo a Interface
Apresentamos o design do controle proxy mediado por uma interface multimodal co-adaptativa de close-loop. Esta interface direciona o feedback multissensorial em tempo real. A Figura 3 exibe o design geral.
A interface close-loop é caracterizada por 5 passos principais. O primeiro passo é a coleta de dados multimodal a partir de múltiplos instrumentos vestíveis. A 2ª etapa é a sincronização dos fluxos multimodais através da plataforma do LabStreamingLayer (LSL, https://github.com/sccn/labstreaminglayer) desenvolvido pelo grupo MoBI 39. O terceiro passo é o streaming da estrutura de dados LSL para uma interface de linguagem python, MATLAB ou outra linguagem de programação para integrar os sinais e parametrizar empiricamente recursos fisiológicos (relevantes para nossa configuração experimental) em tempo real. O 4º passo é rememetificar as características selecionadas extraídas do fluxo contínuo do sinal corporal estudado e aumentá-lo utilizando uma modalidade sensorial de escolha (por exemplo, visual, auditiva, cinestésico, etc.) para reproduzi-lo na forma de sons ou visuais, para aumentar, substituir ou melhorar a modalidade sensorial que é problemática no sistema nervoso da pessoa. Por fim, o 5º passo é reavaliar as assinaturas estocásticas dos sinais gerados pelo sistema em tempo real, para selecionar qual modalidade sensorial traz as mudanças estocásticas das flutuações corporais para um regime de alta certeza (minimização de ruído) na previsão das consequências sensoriais da ação iminente. Este loop é reproduzido continuamente durante toda a duração do experimento com o foco no sinal selecionado, ao mesmo tempo em que armazena o desempenho completo para análises subsequentes (como retratado nos esquemas da Figura 3 e ver40,41,42,43,44,45,46,47 para um exemplo de análises posteriori).
Figura 3: A arquitetura do conceito de interface de close-loop periférico multimodal. Vários sinais corporais são coletados dados cinemáticos, atividade cardíaca e cerebral (passo 1). O LSL é usado para co-registrar e transmitir sincronizadamente os dados provenientes de vários equipamentos para a interface (passo 2). O código Python/MATLAB/C# é usado para parametrizar continuamente as flutuações nos sinais usando um tipo de dados padronizado e uma escala comum que permite selecionar a fonte de orientação sensorial mais adequada para amortecer a incerteza do sistema (passo 3). Este aprimoramento em tempo real da transmissão de sinal através de canais selecionados permite então a re-parametrização do sinal sensorial re-entrante para se integrar no fluxo de motor contínuo e melhorar o fluxo de entrada perdido ou corrompido (etapa de substituição sensorial 4). A reavaliação contínua fecha o loop (etapa 5) e salvamos todos os dados para análises futuras adicionais. Clique aqui para ver uma versão maior desta figura.
As seções a seguir apresentam o protocolo genérico de como construir uma interface de close-loop (como descrito na Figura 3) e descrevem resultados representativos de duas interfaces experimentais (elaboradamente apresentadas em Material Suplementar) envolvendo interação disádica física entre dois dançarinos (sistema de loop próximo real) e interação disádica virtual entre uma pessoa e um avatar (sistema de close-loop artificial).
Este artigo introduz o conceito de controle proxy através de interfaces co-adaptativas, interativas e multimodais que aproveitam, parametrizam e re-parametrizam o sinal periférico da pessoa no contexto da troca dídica. Visamos caracterizar mudanças estocásticas nas flutuações dos bioritmos da pessoa e parametrizar a mudança. Além disso, visamos direcionar sistematicamente as assinaturas estocásticas de seus bioritmos para níveis direcionados de regimes de ruído-sinal em tempo real.
Apresentamos um protocolo genérico para a construção de uma interface de close-loop que satisfez 5 elementos principais: 1) a coleta de múltiplos dados corporais provenientes do CNS, PNS e ANS utilizando vários instrumentos e tecnologias; 2) a gravação sincronizada e o streaming dos dados; 3) a análise em tempo real dos sinais selecionados; 4) a criação de aumento sensorial (áudio, visual, etc.) utilizando características fisiológicas extraídas para os sinais corporais; e 5) o rastreamento contínuo do sistema humano e o aumento sensorial paralelo fecha o laço da interação entre o humano e o sistema.
O protocolo genérico foi aplicado em duas interfaces de exemplo. O primeiro investiga a troca dídica entre dois agentes humanos e o segundo entre um humano e um agente avatar. Os dois tipos de disads foram usados para fornecer provas de conceito de que o sinal periférico pode ser sistematicamente alterado em tempo real e que essas alterações estocásticas podem ser precisamente rastreadas. Um diálido era composto por dois participantes interagindo fisicamente, enquanto o outro envolvia um participante interagindo com um agente virtual na forma de um avatar renderizado 3D dotado dos movimentos da pessoa e com variantes alteradas desses movimentos em tempo real. Tais alterações foram evocadas por manipulações interativas impulsionadas por entradas sensoriais auditivas e/ou visuais em um cenário de sensações aumentadas. Tanto no diáad real quanto no táad artificial, demonstramos a viabilidade de mudar remotamente os sinais periféricos, incluindo bioritmos corporais e sinais autônomos dos batimentos cardíacos.
Apresentamos novos protocolos experimentais para sondar tais mudanças na variabilidade motora eferente à medida que os fluxos de sinal cinestésico estão sendo manipulados e re-parametrizados em tempo quase real. Esta informação de re-entrante (reafidão cinestésico48) mostrou-se valiosa para mudar o desempenho dos sistemas em tempo real. Eles carregam informações sobre as consequências sensoriais da ação, que podemos ser precisamente rastreadas usando os métodos que apresentamos aqui.
Também mostramos tipos de dados e métodos estatísticos capazes de padronizar nossas análises. Fornecemos múltiplas ferramentas de visualização para demonstrar as mudanças em tempo real nas atividades fisiológicas que naturalmente evoluíram em diferentes contextos, com inferência estatística empiricamente guiada que se presta à interpretação dos sinais de sistemas nervosos autogerados e autocontrolados. É importante ressaltar que as alterações que foram evocadas pelo controlador proxy foram suaves e ainda quantificáveis, dando suporte à noção de que a atividade periférica é útil em mais de uma maneira. Embora possamos implementar esses métodos usando sensores vestíveis sem fio disponíveis comercialmente, podemos induzir sistematicamente mudanças de desempenho que são capturáveis nos ritmos biofísicos sem estressar o sistema. É importante traduzir nossos métodos para a arena clínica e usá-los como um testbed para desenvolver novos modelos de intervenção (por exemplo, como quando se usa realidade aumentada no autismo 49). Nesses modelos, poderemos rastrear e quantificar as consequências sensoriais das ações naturalistas da pessoa, pois as entradas sensoriais são precisamente manipuladas, e a saída é parametrizada e re-parametrizada em quase tempo real.
Oferecemos este protocolo como modelo geral para utilizar várias atividades biorítmicas autogeradas pelos sistemas nervosos humanos e aproveitadas não invasivamente com wearables sem fio. Embora tenhamos usado um conjunto de biosensores para registrar EEG, ECG e cinemática neste artigo, os métodos de gravação, sincronização e análise dos sinais são gerais. A interface pode, assim, incorporar outras tecnologias. Além disso, os protocolos podem ser modificados para incluir outras ações naturalistas e contextos que se estendem ao campo médico. Por termos voltado para comportamentos naturais, a configuração que desenvolvemos pode ser usada em ambientes lúdicos (por exemplo, envolvendo crianças e pais.)
Vários distúrbios dos sistemas nervosos poderiam se beneficiar de abordagens tão lúdicas para o problema de controle. Em ambos os tipos de interações disádicas que mostramos aqui, os participantes poderiam mirar conscientemente controlar a música, enquanto o controlador proxy usa a saída periférica para manipular inconscientemente e mudar sistematicamente suas assinaturas. Como os cientistas passaram anos mapeando empiricamente o plano de parâmetros gama e o espaço correspondente de momentos gama em diferentes faixas etárias (recém-nascidos a 78 anos de idade)19,50,51,52,53 e condições (autismo, Doença de Parkinson, acidente vascular cerebral, estado de coma e desafeto), para diferentes níveis de controle (voluntários, automáticos, espontâneos, involuntários e autônomos)25,47,54, eles têm critérios empiricamente medidos denotando onde nos espaços gama as assinaturas estocásticas devem ser para um bom controle preditivo. Pesquisas anteriores também mostraram que sabemos onde estão os parâmetros na presença de ruído aleatório espontâneo proveniente dos ritmos autogerálidos dos sistemas nervosos humanos7,19,55,56. Dentro de um esquema de otimização minimizando o ruído motor biorítmico, podemos, assim, apontar para conduzir os sinais de forma a atingir as áreas-alvo dos espaços gama onde a forma e as assinaturas de dispersão da família de PDFs de cada pessoa é propícia de alta relação sinal-ruído e valores preditivos. Nesse sentido, não perdemos dados brutos e usamos efetivamente para direcionar o sistema para níveis desejáveis de ruído dentro de uma determinada situação.
As interações dídicas são onipresentes em ambientes clínicos ou de treinamento. Podem ocorrer entre o treinador e o estagiário; o médico e o paciente; o terapeuta clínico e o paciente; e também podem ocorrer em ambientes de pesquisa que envolvem ciência translacional e engajar o pesquisador e o participante. Uma das vantagens dos protocolos atuais é que, embora sejam projetados para disads, eles também são personalizados. Como tal, é possível adaptar as interações co-adaptativas às melhores capacidades e predisposições da pessoa, de acordo com suas faixas de movimento, suas faixas de tempos de processamento sensorial e considerando as faixas de amplitude dos sinais através da hierarquia funcional dos sistemas nervosos da pessoa. À medida que a trajetória estocástica emerge e evolui no tempo, também é possível verificar as taxas de chance das assinaturas e usar essa série temporal para prever vários eventos iminentes, juntamente com possíveis consequências sensoriais.
Finalmente, interfaces de close-loop poderiam até ser usadas no mundo da arte. Eles poderiam oferecer aos artistas performáticos novos caminhos para gerar formas computacionais de danças modernas, danças tecnológicas e novas formas de visualização e sonificação da expressão corporal. Nesses contextos, o corpo do bailarino pode ser transformado em um instrumento sensorial para explorar de forma flexível diferentes modalidades sensoriais através da sonificação e visualização das atividades biorítmicas autogeridas, como mostrado pelo trabalho prévio nesta área40,41,43,46. Tal performance poderia aumentar o papel de um dançarino no palco e deixar o público experimentar sinais corporais sutis além do movimento visível.
Vários aspectos desta tecnologia requerem mais desenvolvimento e testes para otimizar seu uso em configurações em tempo real. O streaming síncrocros exige capacidade de energia e memória de CPU/GPU de alta velocidade para realmente explorar a noção de ganhar tempo e estar um passo à frente ao prever as consequências sensoriais dos comandos motores em curso. As taxas de amostragem do equipamento devem ser comparáveis para poder realmente alinhar os sinais, realizar a fusão sensorial adequada e explorar a transmissão de informações através dos diferentes canais do sistema nervoso. Estas são algumas das limitações presentes nesta nova interface.
Tudo e todos, este trabalho oferece um novo conceito para melhorar o controle do nosso sistema corporal, ao mesmo tempo em que emprega meios subliminares que, no entanto, permitem medições sistemáticas padronizadas de resultados de mudanças estocásticas.
The authors have nothing to disclose.
Agradecemos aos alunos que se ofereceram para ajudar a realizar esta pesquisa; Kan Anant e a PhaseSpace Inc. para nos fornecer imagens e vídeos necessários para descrever a configuração; e Neuroeletrônica para nos permitir usar material do canal www.youtube.com/c/neuroelectrics/ e seus manuais. Finalmente, agradecemos ao Prof. Thomas Papathomas do Rutgers Center for Cognitive Science por apoio profissional durante as etapas de submissão deste manuscrito, Nancy Lurie Marks Family Foundation Career Development Award ao EBT e ao Prêmio Gerondelis Foundation à VK.
Contribuições
Conceituação, VK e EBT; metodologia, EBT; software, VK, EBT, SK.; validação, VK e SK; análise formal, VK; investigação, VK, EBT, SK; recursos, EBT; curadoria de dados, VK; redação — preparação original do rascunho, EBT; redação — revisão e edição, VK, SK.; visualização, VK e EBT.; supervisão, EBT.; administração de projetos, EBT.; aquisição de financiamento, EBT Todos os autores leram e concordaram com a versão publicada do manuscrito.
Enobio 32 | Enobio | Hardware for EEG data collection | |
Enobio ECG Extention | Enobio | Hardware for ECG data collection | |
LabStreamingLayer (LSL) | Synchronization and streaming of data | ||
Matlab | Mathwork | Analysis and processing of data | |
Max | Cycling'74 | Sonification of bodily information | |
NIC.2 | Enobio | Software for EEG and ECG data collection | |
PhaseSpace Impulse | PhaseSpace | Hardware for collection of the kinematic data (position, speed, acceleration) | |
Python3 | Python | Analysis and processing of data | |
Recap | PhaseSpace | Software for collection of the kinematic data (position, speed, acceleration) |