DEFINICIÓN:
https://es.wikipedia.org/wiki/Neurociencia_cognitiva
http://psic-online13.blogspot.mx/2012/07/definicion-de-neurociencia-cognitiva_14.html
La mente y su capacidad de percibir el mundo van inextricablemente unidas. No solo importa qué información extraemos, sino también de qué modo percibimos; es decir, interesa conocer la mecánica de la percepción y la conjugación de los múltiples factores implicados, pues la percepción confiere sentido al mundo observado y, lejos de ser mera pasividad, viene guiada por la información procedente de los sentidos. La información sensorial que llega al cerebro no conforma directamente la percepción, sino que es un proceso retroalimentado por el cerebro. Nuestras expectativas modelan lo que percibimos y cómo integramos los aspectos percibidos del mundo. Pero el mundo impone límites a nuestras expectativas.http://psic-online13.blogspot.mx/2012/07/definicion-de-neurociencia-cognitiva_14.html
ANTECEDENTES HISTÓRICOS:
Neurociencia cognitiva podrían situarse en la filosofía antigua, periodo en el que los pensadores tenían una gran preocupación sobre de la mente.
Aristóteles creía que el cerebro era un órgano inútil y que sólo servía para refrigerar la sangre. Este filósofo atribuía al corazón el origen de la función mental.
Parecer ser que fue Galeno en el siglo II dC el que afirmó que el cerebro era el origen de la actividad mental. Aunque creía que la personalidad y la emoción se generaban en otros órganos.
Sin embargo, fue el médico holandés Andreas Vesalio en el siglo XVI, quien señaló que el cerebro y el sistema nervioso son el centro de la mente y las emociones. Estas ideas tuvieron gran influencia en la psicología, y a su vez, han contribuido al desarrollo de la neurociencia cognitiva.
Otro punto de inflexión en la historia de la neurociencia cognitiva fue el surgimiento de la frenología a principios del siglo XIX. Según esta neurociencia, el comportamiento humano podría estar determinado por la forma del cráneo.
Sus principales exponentes, Franz Joseph Gall y J.G. Spurzheim sostenían que el cerebro humano se dividía en 35 secciones diferentes. La frenología ha sido criticada porque sus premisas no fueron demostradas científicamente.
A partir de estas ideas se crearon dos corrientes de pensamiento que se llamaron localizacionistas y antilocalizacionistas (teoría del campo agregado). Según la primera de ellas, las funciones mentales se localizan en áreas específicas del cerebro.
CAMPOS DE ESTUDIOS DE LA NEUROCIENCIA COGNITIVA:
Análisis molecular: para conocer en detalle el funcionamiento de los procesos mentales es necesario estudiar el papel de las moléculas y sus interacciones. La neurociencia cognitiva busca describir las bases moleculares del impulso nervioso, la fisiología de los neurotransmisores, así como los mecanismos moleculares involucrados en las sustancias adictivas.
Análisis celular: la neurociencia cognitiva tiene a la neurona como su principal célula de estudio. Es importante conocer entonces su funcionamiento, sus tipos, su interacción con otras neuronas, cómo se desarrollan a lo largo de la vida, etc.
Análisis de redes neuronales: es el estudio del conjunto de neuronas que componen redes de actividad, que son la base de los procesos cognitivos y emocionales. Se analizan los circuitos neuronales relacionados con los sistemas circulatorio, visual, auditivo, motor, etc.
Análisis conductual: aquí se describe el funcionamiento de los sistemas neuronales que permiten conductas complejas como la memoria, las conductas motivadas como el hambre o el sexo, estados de alerta o sueño, etc.
Análisis cognitivo: este análisis implica comprender los procesos neuronales que permiten la realización de funciones mentales superiores como el lenguaje, el razonamiento, el control ejecutivo, la imaginación, etc.
También resulta fundamental para la neurociencia cognitiva el estudio de pacientes con déficits cognitivos causados por lesiones cerebrales. Esto sirve para comparar los cerebros sanos con aquellos que tienen algún trastorno. Así se pueden extraer conclusiones sobre los procesos cognitivos afectados e intactos y los circuitos neuronales involucrados.
https://www.lifeder.com/neurociencia-cognitiva/
MENTE
CEREBRO
En el marco de la nueva teoría, percepción, acción y atención convergen en una misma tarea. Las tres deben equilibrarse entre sí para aproximarse correctamente al mundo. La unidad de la percepción consciente, la naturaleza del yo y nuestro mundo mental personal se fundan en la optimización de las predicciones sobre la información sensorial. Y de manera aún más radical, el contenido de nuestros estados perceptivos no se apoyaría en lo que pensamos, sino en lo que somos. Minimizamos el error entre las hipótesis generadas sobre la base de nuestro modelo del mundo y la información sensorial. Habría un único tipo de mecanismo, reiterado a través del cerebro, que lo gestionaría todo. El mecanismo utilizaría diversas herramientas estadísticas estándar para minimizar el error y, al hacerlo así, da origen a la percepción, la acción y la atención. En última instancia, pese a su presentación estadística, se trataría de un mecanismo neuronal. Para describir y explicar el mecanismo de minimización del error de predicción, repetido una y otra vez por el cerebro, se parte de una concepción estadística, bayesiana, de la percepción. Nos vale también la analogía de minimización de la energía libre.
Aunque la maquinaria formal que rodea la exposición de la minimización del error de predicción es de desarrollo reciente, las ideas nucleares hunden sus raíces en el pasado. Fueron anticipadas por Ibn al-Haytham (nuestro Alhazen), quien, en el siglo xi, avanzó la idea de que muchas propiedades son percibidas por juicio e inferencia. Kant proponía en 1781 que la percepción se va concretando a medida que el cerebro utiliza sus concepciones previas sobre el mundo (categorías y formas de la intuición del espacio y el tiempo) para organizar los estímulos sensoriales que se nos ofrecen. La relación entre pensamiento (o inferencia) e información múltiple aportada por los sentidos se recoge en la sentencia kantiana que declara que los pensamientos sin contenido son vacíos y, ciegas, las intuiciones sin concepto. La intelección no puede intuir nada, ni los sentidos pueden pensar nada. Solo a través de esa unión surge el pensamiento.
Pero fue Hermann von Helmholtz quien presentó al cerebro constituido en cribador de hipótesis, en reacción a la tesis kantiana. Investigó el tránsito de las sensaciones del sistema nervioso al mundo real y dedujo que nos guiamos por las respuestas que la naturaleza despliega cuando la interrogamos, sirviéndonos de inferencias perceptivas inconscientes y fundadas en un conocimiento previo. En esa clase de inferencia se ancla la percepción. Las ideas de Helmholtz fueron retomadas en distintos momentos a lo largo del siglo xx. Así, por ejemplo, Jerry Fodor y Zenon Pylyshyn aceptaron básicamente la noción helmholtziana de inferencia inconsciente de bajo nivel.
Otra corriente vinculada con la historia de la minimización del error de predicción atiende a la causalidad y la inferencia inductiva. Para David Hume, una causa era un objeto seguido de otro y todos los objetos similares al primero eran seguidos de objetos similares al segundo. O con otras palabras, donde no se hubiera visto el primer objeto, tampoco existiría el segundo. Para Hume, la causalidad se refiere a la extracción de datos estadísticos y a la imagen que nos formamos cuando se interviene en el mundo de una manera controlada. Esa definición dual de causa fue subrayada por Ralph H. Lewis en su tratamiento contrafactual de la causalidad en términos de invarianza.
La confluencia de los avances en la noción de causa y la historia de la contrastación de las hipótesis propiciaron el desarrollo de la noción de minimización del error de predicción. En línea con al-Haytham y Helmholtz, la teoría de la minimización ocupa el núcleo de la psicología y la neurociencia. Constituye, además, la expresión de la forma en que el hombre infiere y se autoorganiza. El cerebro es, en efecto, un mecanismo de inferencia, razón por la cual se presenta la percepción en términos de causa y efecto. Pero no resulta fácil razonar a partir solo de los efectos conocidos para remontarse hasta sus causas escondidas, ya que una misma causa puede dar origen a muy diferentes efectos en nuestros órganos de los sentidos, y causas distintas, producir un mismo efecto. Ello hace difícil la labor del cerebro de acotar el efecto (información sensorial recibida) que depende de una causa determinada (objeto del mundo real). Si la única restricción sobre la inferencia causal del cerebro consistiera en la información sensorial inmediata, entonces, desde la perspectiva del cerebro, cualquier inferencia causal sería tan buena como la otra.
En matemática, se llama inferencia el proceso que conduce a una conclusión sobre una población basándose en una muestra. También se llama inferencia la conclusión alcanzada sobre una población mediante el proceso aludido. La inferencia estadística se ocupa de los métodos que pueden utilizarse y la teoría que los explica. La inferencia es una noción normativa que permite entender las regularidades observadas. La teoría de la probabilidad, o epistemología bayesiana, es también normativa porque nos informa sobre lo que hemos de inferir, dadas las pruebas disponibles.
Imaginemos una situación muy sencilla. Nos encontramos en una casa sin ventanas, ni libros, ni Internet. Oímos un sonido y queremos saber quién lo ha producido. Nosotros somos el cerebro, la casa es el cráneo y el sonido es la información sensorial. Queremos averiguar la causa del sonido y empezamos por enumerar una lista de objetos posibles: un pájaro carpintero que golpeara la pared, una rama caída, la música de un vecino, una lluvia de meteoritos, y así un largo etcétera. Cada una de las posibilidades de ese listado constituye una hipótesis. No todas las hipótesis tienen sentido una vez conocido el efecto: no admitiremos que quien golpea la pared sea un matemático que se entretiene con la conjetura de Goldbach. Es decir, se impone valorar el nexo entre la hipótesis y el efecto. Lo que nos lleva a fijarnos en la verosimilitud de que la hipótesis se adecúe al efecto observado. Tal verosimilitud designa la probabilidad de que las causas descritas en la hipótesis causen los efectos observados. La verosimilitud se basa en las regularidades conocidas (por ejemplo, los efectos causados por un pájaro carpintero). A partir de las regularidades causales observadas podremos jerarquizar las hipótesis de acuerdo con su verosimilitud.
Las predicciones se comparan con la señal sensorial real, o con la inferencia del nivel inferior; la diferencia, el error de predicción, se emplea como señal de retroalimentación para los modelos internos que generan las predicciones. No existe solo interacción entre causas escondidas en la producción de datos sensoriales, sino también una interacción entre estados diferentes del mundo y la incertidumbre o ruido asociado con pruebas sensoriales generadas por tales estados. El mecanismo de minimización del error de predicción habrá de tomar en consideración la dependencia del contexto y la incertidumbre que rodea dicho contexto.
En el caso del sonido percibido, contamos con dos herramientas para averiguar su causa: la verosimilitud (probabilidad del efecto observado consideradas las hipótesis particulares hasta ahora) y la probabilidad anterior de la hipótesis (estimación subjetiva del grado de probabilidad de la hipótesis independientemente de los efectos observados en ese momento). Verosimilitud y probabilidad anterior son los pilares de la regla de Bayes, arquetipo de la racionalidad.
http://www.investigacionyciencia.es/revistas/mente-y-cerebro/cartografa-cerebral-613/neurociencia-cognitiva-12597
No hay comentarios.:
Publicar un comentario