O cérebro pode ser capaz de reter quase 10 vezes mais informações do que se pensava anteriormente, confirma um novo estudo.
Semelhante aos computadores, o armazenamento de memória do cérebro é medido em “bits”, e o número de bits que ele pode conter depende das conexões entre seus neurônios, conhecidas como sinapses. Historicamente, os cientistas pensavam que as sinapses existiam num número bastante limitado de tamanhos e intensidades, o que, por sua vez, limitava a capacidade de armazenamento do cérebro. No entanto, esta teoria tem sido desafiado nos últimos anos – e o novo estudo apoia ainda mais a ideia de que o cérebro pode conter cerca de 10 vezes mais do que se pensava.
No novo estudo, os pesquisadores desenvolveram um método altamente preciso para avaliar a força das conexões entre os neurônios em parte do cérebro de um rato. Essas sinapses formam a base de aprendizagem e memóriaà medida que as células cerebrais se comunicam nesses pontos e, assim, armazenam e compartilham informações.
Ao compreender melhor como as sinapses se fortalecem e enfraquecem, e em que medida, os cientistas quantificaram com mais precisão a quantidade de informação que estas ligações podem armazenar. A análise, publicada em 23 de abril na revista Computação Neuraldemonstra como este novo método pode não só aumentar a nossa compreensão da aprendizagem, mas também do envelhecimento e das doenças que corroem as conexões no cérebro.
Relacionado: O cérebro sabe quando está recordando uma memória falsa, sugere estudo
“Essas abordagens atingem o cerne da capacidade de processamento de informações dos circuitos neurais”, Jai Yu, professor assistente de neurofisiologia da Universidade de Chicago que não esteve envolvido na pesquisa, disse ao Live Science por e-mail. “Ser capaz de estimar quanta informação pode ser potencialmente representada é um passo importante para a compreensão da capacidade do cérebro de realizar cálculos complexos.”
No cérebro humanohá mais de 100 trilhões sinapses entre neurônios. Mensageiros químicos são lançados através dessas sinapses, facilitando a transferência de informações através do cérebro. À medida que aprendemos, a transferência de informações através de sinapses específicas aumenta. Este “fortalecimento” das sinapses permite-nos reter as novas informações. Em geral, as sinapses fortalecem ou enfraquecem em resposta à atividade dos seus neurônios constituintes – um fenômeno chamado Plasticidade sináptica.
No entanto, à medida que envelhecemos ou desenvolvemos doenças neurológicas, como Alzheimernossas sinapses tornam-se menos ativas e, portanto, enfraquecem, reduzindo o desempenho cognitivo e nossa capacidade de armazenar e recuperar memórias.
Os cientistas podem medir a força das sinapses observando a sua características físicas. Além disso, as mensagens enviadas por um neurônio às vezes ativam um par de sinapses, e os cientistas podem usar esses pares para estudar a precisão da plasticidade sináptica. Em outras palavras, dada a mesma mensagem, cada sinapse do par se fortalece ou enfraquece exatamente da mesma maneira?
Medir a precisão da plasticidade sináptica provou ser difícil no passado, assim como medir quanta informação qualquer sinapse pode armazenar. O novo estudo muda isso.
Para medir a força sináptica e a plasticidade, a equipe aproveitou teoria da informação, uma forma matemática de entender como as informações são transmitidas através de um sistema. Esta abordagem também permite aos cientistas quantificar como muito a informação pode ser transmitida através das sinapses, ao mesmo tempo que leva em conta o “ruído de fundo” do cérebro.
Essa informação transmitida é medida em bits, de modo que uma sinapse com maior número de bits pode armazenar mais informações do que outra com menos bits, Terrence Sejnowski, co-autor sênior do estudo e chefe do Laboratório de Neurobiologia Computacional do Instituto Salk de Estudos Biológicos, disse à WordsSideKick.com por e-mail. Um bit corresponde a uma sinapse enviando transmissões em duas intensidades, enquanto dois bits permitem quatro intensidades e assim por diante.
A equipe analisou pares de sinapses de um rato hipocampo, uma região do cérebro que desempenha um papel importante na aprendizagem e na formação da memória. Esses pares de sinapses eram vizinhos e ativados em resposta ao mesmo tipo e quantidade de sinais cerebrais. A equipe determinou que, com a mesma informação, esses pares se fortaleceram ou enfraqueceram exatamente na mesma quantidade – sugerindo que o cérebro é altamente preciso ao ajustar a força de uma determinada sinapse.
A análise sugeriu que as sinapses no hipocampo podem armazenar entre 4,1 e 4,6 bits de informação. Os pesquisadores tiveram chegou a uma conclusão semelhante em um estudo anterior do cérebro do rato, mas naquela época eles analisaram os dados com um método menos preciso. O novo estudo ajuda a confirmar o que muitos neurocientistas assumem agora – que as sinapses transportam muito mais do que um bit cada, Kevin Foxprofessor de neurociência da Universidade de Cardiff, no Reino Unido, que não esteve envolvido na pesquisa, disse ao Live Science por e-mail.
As descobertas baseiam-se numa área muito pequena do hipocampo do rato, por isso não está claro como se estenderiam ao cérebro inteiro de um rato ou a um cérebro humano. Seria interessante determinar como esta capacidade de armazenamento de informação varia no cérebro e entre espécies, disse Yu.
No futuro, o método da equipe também poderá ser usado para comparar a capacidade de armazenamento de diferentes áreas do cérebro, disse Fox. Também pode ser usado para estudar uma única área do cérebro quando está saudável e quando está doente.
Você já se perguntou por que algumas pessoas constroem músculos mais facilmente do que outras ou por que as sardas aparecem ao sol? Envie-nos suas dúvidas sobre como funciona o corpo humano para [email protected] com o assunto “Health Desk Q” e você poderá ver sua pergunta respondida no site!