miércoles, 21 de abril de 2021

MECÁNICA CUÁNTICA Y CEREBRO: TEORÍAS SOBRE LA CONCIENCIA

 


La ciencia y la física cuántica nos ayudan a entender el universo.
Sonia Fernández-Vidal, física

   Sonia es doctora en Óptica e Información Cuántica y Física por la Universidad Autónoma de Barcelona, donde también es profesora, es conocida por su gran labor de divulgación científica con obras como "La puerta de los tres cerrojos", "El Universo en tus manos" o "Desayuno con partículas". Ha trabajado y colaborado en algunos de los centros científicos más prestigiosos del mundo, como el CERN, el ‘Laboratorio Nacional de Los Álamos’ (LANL) o el Instituto de Ciencias Fotónicas (ICFO). Méritos que le llevaron a ser seleccionada por la revista Forbes como una de las 100 personas más creativas del mundo.

   Desde niña, Sonia Fernández-Vidal tuvo muy claro que quería ser científica “porque quería saber el por qué de todo”. Para ella, la ciencia y el mundo cuántico nos demuestran que la frontera entre lo imaginario y lo real es mucho más etérea de lo que pensamos: "Los científicos han respondido a muchas de las grandes preguntas y sueños que la humanidad ha tenido desde la noche de los tiempos", asegura.


La mecánica cuántica del cerebro - Javier García. Conferencia en AULA 141

   En esta charla el físico Javier García habla de los posibles efectos cuánticos en el cerebro. Hace un repaso del funcionamiento de las neuronas, un recorrido rápido por los postulados básicos de la mecánica cuántica y por último afronta el reto de explicar las especulaciones que se están barajando en la actualidad para dotar  al cerebro de una base cuántica. Es un tema duro pero Javier intenta acercar lo máximo posible al no experto para que pueda juzgar por sí mismo.


Carlos Blanco: Cómo la filosofía puede mejorar nuestra vida

Carlos Blanco es doctor en filosofía y teología y licenciado en ciencias químicas. Fue un niño prodigio en su momento, dando su primera conferencia a los 12 años en el Museo Egipcio de Barcelona y apareciendo en Crónicas Marcianas a los 13 años con una sección semanal. 

En el 2015 fue elegido miembro de la World Academy of Arts and Science y en el 2016 miembro de la Academia Europea de las Ciencias y las Artes con sede en Salzburgo. Actualmente, Carlos es profesor en la Universidad Pontificia de Comillas en Madrid y escritor (ha publicado 22 libros). Algunos de sus libros más conocidos son "La integración del conocimiento" y "Dios, ciencia y filosofía", entre muchos otros.

En la entrevista de arriba a Carlos aborda temas diversos e interesantes como los límites de la ciencia, el papel de la filosofía, la idea de Dios, el poder del aburrimiento, entre muchos otros.


Mecánica Cuántica y Cerebro

TEORÍAS SOBRE LA CONCIENCIA


Las 7 maravillas del mundo cuántico

¿Qué tienen en común el Taj Mahal o la Gran Pirámide de Guiza con el efecto Hamlet o el entrelazamiento cuántico? ¡Que todas son consideradas maravillas del mundo! Eso sí, estas últimas del mundo cuántico. ¿Quieres saber cuáles son las 7 maravillas de la cuántica?


INTRODUCCIÓN

   Los mecanismos cerebrales implicados en la génesis de los procesos cognitivos superiores son todavía poco conocidos por la Neurociencia, en especial aquellos aspectos relacionados con la conciencia. Por ello, como todo campo de la ciencia insuficientemente establecido, puede abordarse por medio de hipótesis altamente especulativas. Existen numerosas opiniones y teorías con respecto a este problema. Sin embargo, un grupo de teorías han experimentado un auge relativamente importante en los últimos años: aquellas que utilizan la mecánica cuántica (MC) para explicar la aparición de la conciencia. Estas teorías no comparten un fondo filosófico común, ya que su aproximación puede ir desde el dualismo religioso de Eccles, hasta el fisicalismo de Penrose. Llama la atención que varios de los autores que defienden estas teorías sean personas ajenas al campo de la Neurociencia (Penrose, Zohar). Vamos a pasar revista a algunas de las teorías aparecidas acerca del tema, sin ánimo de ser exhaustivo. Se pretende, especialmente, abordar dichas teorías desde la perspectiva neurocientífica, con el objeto de intentar esclarecer qué grado de coherencia mantienen con el conjunto de conocimiento establecido a este respecto por la Neurociencia.     

   Se va a considerar las teorías de los tres autores siguientes: John Eccles, Roger Penrose y Dana Zohar, aunque no son las únicas posibles. Para ello, daremos una visión simplificada de aquellas partes de la MC que son pertinentes para el desarrollo de las teorías implicadas. Tampoco se pretende hacer una introducción detallada de la teoría física, para lo que existen excelentes obras asequibles a personas sin formación matemática, sino, únicamente, explicar aquellos términos de la MC necesarios para comprender las teorías analizadas.

 

INTRODUCCIÓN A LA MECÁNICA CUÁNTICA



¿Qué es la mecánica cuántica?

   La MC es la parte de la física que estudia el mundo de los átomos y las partículas subatómicas. Existe una constante fundamental en física, la constante de Planck, que se representa por el símbolo h y cuyo valor es de 6,6260755 × 10-34 Js. Esta cantidad mide la magnitud física denominada acción (energía × tiempo). Como puede comprobarse, el valor de la constante de Planck es realmente pequeño cuando se emplea en el estudio de sistemas macroscópicos. Como aproximación válida, puede considerarse que se utilizará la MC cuando la acción implicada en el sistema problema sea del orden de magnitud de la constante de Planck. Se emplea más frecuentemente una modificación de h, que es h’, que se define como h/2π (1,05457266 × 10-34 Js). El desarrollo de la MC tuvo lugar en el primer cuarto del siglo pasado. Puede fecharse su comienzo en diciembre de 1900, cuando Planck presentó ante la Academia de Ciencias de Berlín su teoría de la radiación de cuerpo negro. Posteriormente, contribuyeron a su desarrollo científicos de la talla de Einstein (efecto fotoeléctrico), DeBroglie (comportamiento ondulatorio de la materia), Bohr (concepto de complementariedad), Heisenberg (mecánica matricial y principio de incertidumbre), Schrödinger (mecánica ondulatoria y ecuación de onda), Pauli (principio de exclusión), Dirac (ecuación relativista del electrón) o Born (interpretación probabilista de la función de onda), entre otra pléyade de eminentes físicos y matemáticos. El formalismo matemático de la MC se ha establecido sólidamente, así como su validez experimental, hasta el punto de que la exactitud con la que pueden calcularse teóricamente algunos efectos se ajusta a los datos empíricos con una precisión aproximada de una parte en 10. Sin embargo, su interpretación dista mucho de unificarse. La MC describe los sistemas físicos bajo estudio (un electrón, un átomo o un conjunto de partículas) por medio de la llamada función de onda o función de estado, habitualmente denominada ψ (psi). Esta ψ representa toda la información que podemos extraer del sistema (energía, posición, momento, etc.) Una característica fundamental de la MC es que las funciones de onda obedecen el principio de superposición; es decir, si dos funciones de onda (ψ1 y ψ2) representan adecuadamente al sistema, la combinación lineal de ambas también lo representa. Por tanto, en general, la función de onda de un sistema puede darse por la combinación lineal de dos funciones de onda, multiplicadas cada una de ellas por un coeficiente adimensional. En este caso, se dice que el estado cuántico ψ0 es superposición coherente de los estados ψ1 y ψ2.

   ψ0=αψ1+βψ2 [Ecuación 1]. El número de funciones que contribuyan a un estado cuántico puede ser mayor de dos, incluso infinito. Este concepto de superposición resulta fundamental. No tiene contrapartida macroscópica, por lo que no es fácil su visualización. De alguna manera, podría decirse que el estado ψ0 es una mezcla de dos estados diferentes; sin embargo, esta mezcla no debe entenderse en el sentido de la física estadística, es decir, como si el sistema estuviera en una de dos posibles alternativas, con probabilidades diferentes dadas por los coeficientes complejos; al contrario, como si dicho sistema se diera por la existencia real y simultánea de dos estados que se superponen o entremezclan, ponderados por los coeficientes.

    La dinámica de un sistema mecano-cuántico es gobernada por una ecuación en derivadas parciales, cuyo comportamiento, en tanto que no se produzca una medida, es perfectamente determinista. En general, su resolución es muy complicada, y sólo en circunstancias favorables puede resolverse –sistemas con pocas partículas y funciones de energía potencial suficientemente simples, átomos con pocos electrones, etc.–. Lo verdaderamente importante para nuestro propósito no es la resolución ni la forma de dicha ecuación, sino el hecho de que su evolución es perfectamente determinista, en tanto no se realice ninguna medida sobre el sistema.

 


NO Estamos Hechos de Partículas

Si piensas que electrones, quarks y demás familia son como bolitas muy muy pequeñas... Oh, oh. Este vídeo te va a sorprender. Desde las entrañas del @CERN​, hoy os explicamos el corazón de la física de partículas.


Medición y mecánica cuántica

   Éste es uno de los puntos más espinosos de la interpretación de la MC. Por medición entendemos la interacción del sistema mecano-cuántico con otro sistema cuyos estados macroscópicos se correlacionarán con los posibles estados del sistema cuántico. Sin entrar en detalles, básicamente se trata de que, al medir un sistema como el dado en la ecuación 1, sólo podremos obtener como valor de la medida alguno de los estados que forman parte de ψ0. Precisamente, las probabilidades de obtener cada uno de dichos estados la dará el valor absoluto del cuadrado del coeficiente complejo que lo precede. Así, la probabilidad de que al medir ψ0 obtengamos ψ1 será |α|2. Observamos, por tanto, que, aunque la evolución del sistema es determinista, al hacer una medida, sus resultados serán siempre aleatorios, aunque seamos capaces de conocer a priori las probabilidades de ocurrencia de cada posible resultado. Esta transición irreversible desde un estado de superposición (incluso de infinitos estados) a un estado único es lo que se denomina colapso de la función de onda. El problema teórico de la medición tiene su origen en lo siguiente: sea un sistema mecano-cuántico que se quiere medir (ψ0), y sea un sistema de medición (S). Supongamos, por simplicidad, que ψ0 es una superposición coherente de dos estados con igual probabilidad de ocurrencia cuando S interacciona con ψ0, también debe obedecer las reglas de la MC, por lo que se formará un nuevo sistema, S’= S + ψ0. Por tanto, el nuevo sistema, formado por ambos sistemas iniciales, estará también en una superposición de dos estados. Sin embargo, cuando comprobemos cuál es el resultado de la medida, por ejemplo, al observar la posición de una aguja en una pantalla, nunca veremos una superposición de dos estados, sino que la aguja tendrá una posición definida. Este hecho suscita numerosas cuestiones, como, por ejemplo, ¿qué o quién ha producido el colapso de la función de onda?, ¿cuándo y cómo ha tenido lugar?, ¿por qué el paso desde el estado microscópico al macroscópico se produce a través de un paso aleatorio e irreversible? Para algunos autores, es precisamente la intervención de la conciencia del observador la que produce este colapso (Bohr y la escuela de Copenhague-Gottinga, Wigner).

 

El principio de incertidumbre

   Junto con la teoría de la medida en MC, otro de los tópicos importantes para nuestro propósito es el principio de incertidumbre de Heisenberg. Este principio se expresa de dos maneras distintas, que indican la imposibilidad de conocer de forma exacta la posición y velocidad de una partícula, o bien, la energía y el tiempo propio de un sistema. Algunos autores explican este principio como una dificultad técnica en la medición de sistemas microscópicos. Sin embargo, es mucho más que eso, ya que se trata de un principio básico e intrínseco de la naturaleza. Una posible interpretación, que va a resultar muy pertinente en lo que sigue, puede ser la siguiente: un sistema físico podría ‘tomar prestada’ una energía extra (p.ej., para atravesar una barrera de potencial) durante períodos cortos de tiempo, siempre que dicha energía ‘se devolviera’ por el sistema, antes de que se violara la relación expresada en la ecuación. De modo que, cuanta mayor energía se tomara prestada, menor sería el tiempo de préstamo. No debe olvidarse que este principio no es un camino para violar el de conservación de la energía.

 

La no localidad cuántica

   Este fenómeno consiste, básicamente, en que todas las partes que forman un sistema, aunque se encuentren espacialmente separadas, deben describirse en conjunto y mantener propiedades comunes. Supóngase un átomo radiactivo que emite dos protones y que se desea medir alguna característica importante de cada uno de ellos, como, por ejemplo, sus espines. Aunque los protones se encuentren separados espacialmente por distancias kilométricas, la medida del espín de uno de ellos determina de manera unívoca e instantánea la medida del espín del otro protón. Es decir, a pesar de que ambos protones estén distanciados varios kilómetros, forman todavía parte de un mismo sistema. Ambos protones se dice que se entrelazan (entangled). La comprobación experimental de esta predicción se realizó por primera vez en 1982. Este fenómeno resulta de extraordinaria importancia filosófica, pues pone en entredicho la separación de los cuerpos, la acción a distancia y la teoría de la causalidad. Además, también se utiliza mucho, como veremos, para explicar el mecanismo de la conciencia.

 

Clasificación de la materia según la MC

   Otro aspecto de la MC relevante para nuestros propósitos es la teoría de las estadísticas de Fermi-Dirac y Bose-Einstein.

   La teoría estándar distingue dos tipos de partículas en la naturaleza:

1. Fermiones: Partículas con espín múltiplo de ½ que forman la parte masiva de los átomos. Obedecen la estadística de Fermi-Dirac e incluyen a los electrones, protones o neutrones.


El bosón de Higgs, explicado para un niño

El Higgs tiene que ver con que el vacío no está vacío y, si se sacude, suena. El investigador del IFT Álvaro de Rújula nos lo explica como un juego de niños.

2. Bosones. Son partículas portadoras de fuerzas. Pueden o no tener masa y sus espines son cero (0) o números enteros. Obedecen la estadística de Bose-Einstein e incluyen a los fotones (fuerza electromagnética), partículas Z0 y W± (fuerza débil), gluones (fuerza fuerte) y gravitones (fuerza gravitatoria). El hecho fundamental es que los fermiones obedecen el principio de exclusión de Pauli, que impide que existan dos partículas exactamente con los mismos números cuánticos, es decir, exactamente con la misma función de estado ψ. Por el contrario, los bosones no obedecen este principio, por lo que pueden existir múltiples bosones con idéntica función de onda. Un ejemplo cotidiano de este fenómeno es el láser, en el que los fotones tienen todos la misma función de estado. Un efecto muy importante predicho para los bosones es la llamada condensación de Bose-Einstein (CBE). Este fenómeno consiste en que diversos bosones con funciones de estado distintas (ψi) pueden, bajo ciertas circunstancias –específicamente, a temperaturas próximas al cero absoluto–, tener una única función de onda (ψ), de modo que pasan a ser una única partícula.

 


 EL BOSÓN DE HIGGS

Computación cuántica

   Por último, otro concepto mecano-cuántico, desarrollado más recientemente pero que tiene importancia en alguna de las teorías consideradas, es el de computador cuántico. En esencia, consiste en un sistema mecano-cuántico superpuesto, que permite que cada uno de los estados que forman la superposición realice un proceso de cómputo. De este modo, el cálculo se realizaría de manera paralela a través de tantos canales como estados formen la superposición. Una vez realizados todos los cómputos a través de los diversos canales superpuestos, se produciría la descoherencia del sistema–colapso de la función de onda–, que daría lugar al resultado del cómputo. Este ordenador sería mucho más rápido que los actuales y permitiría simular comportamientos que hoy no son susceptibles de computación, como son los propios sistemas cuánticos. La MC resulta bastante más completa y compleja de lo que aquí se ha esbozado. Sin embargo, estos temas son suficientes para comprender y discutir las teorías seleccionadas en este trabajo.

 

TEORÍAS MECANOCUÁNTICAS DE LA CONCIENCIA

   Se expone, de la manera más concisa posible, las principales ideas de los autores discutidos. En muchos casos sus fundamentaciones implican, como ocurre con Zohar y Penrose, argumentaciones físicas previas. Siempre que no sean imprescindibles para el tema que nos ocupa, no se discutirán, aunque podrían tener relevancia filosófica.

 

Interacción dualista entre el alma y el cuerpo (John Eccles)

   Las obras en las que se han expuesto sus ideas son: 1. Do mental events cause neural events analoguously to the probability fieldsof quantum mechanics?, 2. La evolución del cerebro: creación de la conciencia, y 3. A unitary hypothesis of mind-brain interaction in the cerebral cortex.

   Se trata de una teoría claramente dualista, derivada de las profundas creencias cristianas del autor, según sus propias palabras. En opinión de Eccles, es imposible que la unicidad experimentada por uno mismo pueda originarse a partir de la infinidad de conexiones sinápticas cerebrales, estimadas en unos 100.000 millones, máxime al considerar la plasticidad sináptica. Por otro lado, tampoco es posible que esta unicidad emerja a partir del código genético de cada persona. Dado que las explicaciones materialistas fracasan, el autor propone que la unicidad del yo tiene su origen en la existencia de un alma espiritual creada de manera sobrenatural. Por lo tanto, el principal problema ahora consiste en describir qué es ese ente espiritual y cómo se relaciona con el cerebro. La existencia de teorías que preconizan identidad entre cerebro y mente  implica, en opinión de Eccles, la existencia de dos categorías de neuronas: aquellas que sólo tienen un comportamiento  físico, puramente neurobiológico, serían las neuronas de evento neural (EN), que corresponderían, por ejemplo, a las células de las vías motoras o sensitivas, y las células en las que se produce la identidad entre eventos mentales y neurales (EMN), situadas en determinadas áreas corticales concretas, probablemente en regiones de asociación. Según el autor, existe evidencia de que diversas actividades mentales (pensamientos, sentimientos, intenciones, etc.), generados internamente, son capaces de actuar sobre las neuronas. Este hecho demuestra que se necesita algo más que un sistema cerrado, puramente material, para explicar estos datos. Por lo tanto, el comportamiento humano y su conciencia precisan de la existencia de algo extra- material para dar cuenta de su funcionamiento. Cada columna cortical puede considerarse como una unidad funcional de neuronas, de modo que, las dendritas apicales de grupos de aproximadamente 200 de ellas, formarían un dendrón. Cada uno de estos dendrones se relacionará unívocamente con una unidad funcional del componente mental denominado psicón. Puede decirse que el conjunto de todos estos psicones, de naturaleza puramente inmaterial, forman el alma. El problema que surge a continuación es cómo explicar la interacción entre los dos constituyentes del hombre: dendrones (materiales) y psicones (espirituales). Para ello, la clave está en las sinapsis de las espinas dendríticas de las células piramidales de determinadas áreas corticales. Las sinapsis centrales en los mamíferos tienen dos grupos funcionales de vesículas sinápticas: un grupo adherido a la rejilla presináptica, estructura proteica reticular, de características casi cristalinas, que en cierto modo controla la exocitosis, y otro poole, de vesículas de reserva. La probabilidad de liberación de una vesícula sináptica en un botón es claramente inferior a 1, y esta probabilidad la regula la rejilla presináptica. Es en este punto donde Eccles utiliza el concepto de campo mecano-cuántico de probabilidad. Aunque no explica muy bien sus características, se trataría de un campo con existencia física real, cuya acción sería modificar la probabilidad de liberación de una vesícula presináptica y actuar, presumiblemente, sobre la rejilla presináptica. Con el principio de incertidumbre, según Eccles, no se violaría el principio de conservación de la energía, ya que, según sus propias estimaciones, la masa de una vesícula está en torno a 10-18 g. Este proceso explicaría la interacción del alma sobre el cerebro. La explicación del proceso inverso, es decir, la interacción entre la corteza cerebral y el alma espiritual se llevaría a cabo por medio de un proceso como el siguiente: la exocitosis de las terminaciones presinápticas de las fibras aferentes sobre las células corticales se detectaría por el campo cuántico de probabilidad, presumiblemente al interaccionar a través de la rejilla presináptica. En ese momento, el evento puramente neural se convertiría en mental, y se haría consciente. La existencia de este campo cuántico de probabilidad unitario permitiría explicar la unicidad radical del ser humano y su conciencia.

 

Teoría de la conciencia como condensación de Bose-Einstein (Dana Zohar)

   Hipótesis esbozada por la física Dana Zohar en el texto La conciencia cuántica. En esencia, se trata de lo siguiente: la principal característica de la conciencia es su unidad, por lo que el sustrato físico de la misma debe ser un ‘estado constante’, es decir, que sea uniforme en el espacio y persistente en el tiempo. Esta propiedad pone límite al tipo de teorías físicas que pueden aplicarse para la explicación científica de la mente. Obviamente, todo sistema físico puede estar en una fase coherente o fase condensada, donde, virtualmente, todas sus partes compartan idénticas propiedades, o en una fase no condensada, en la que cada parte del sistema presentaría propiedades diferentes. Resulta evidente que un sistema de fase condensada puede considerarse como una unidad, aunque se trate de un sistema macroscópico, pues se describe por una(s) única(s) ecuación(es) para todo punto del mismo. Por tanto, al relacionar ambos razonamientos, se concluye que la conciencia debe emerger a partir de un sistema de fase condensada. En MC existe un fenómeno que permite la máxima condensación de un sistema: la CBE: (condensación de Bose-Einstein). Esta propiedad permite, por ejemplo, fenómenos como la luz láser o la superconductividad. Por tanto, si existiera CBE en el cerebro, ésta podría ser el sustrato físico de la conciencia. Este mecanismo que permite una fase condensada a la temperatura del cuerpo se propuso hace unos 30 años y se denomina ‘sistema de bombeo’. Consiste en que las membranas celulares se componen de dipolos eléctricos que emiten fotones virtuales en el intervalo de las microondas, debido a su vibración térmica. Más allá de cierto umbral, las moléculas vibrarán al unísono, y aumenta su sincronización hasta que llegan a la CBE, de modo que todas aquellas membranas neuronales que formen el sistema se convierten en un todo único. En el fondo, se trata de un sistema de resonancia en el que la emisión de un fotón de una longitud de onda (λ) determinada dará lugar a la absorción del mismo por otro dipolo, que comenzará a vibrar con una frecuencia cada vez más parecida a la del dipolo emisor, de modo que, cuando alcance ésta, emita a su vez fotones de idéntica energía (es decir, frecuencia). Este sistema amplificado permite que todo el sistema de múltiples neuronas resuene al unísono. La energía necesaria para que los dipolos comiencen a oscilar y a “cebar” todo el sistema podría provenir de los potenciales de acción. Es decir, la generación de un potencial de acción podría ser suficiente para que los dipolos de la membrana neuronal comenzaran a emitir fotones que, al absorberlos las neuronas próximas, inducirían a éstas a ‘resonar’ y emitir, a su vez, fotones que aumentarían el sistema CBE mediante una reacción en cadena; ello, hasta abarcar regiones cada vez más distantes, de manera que las moléculas de los neurolemas adquirieran las propiedades de uniformidad, ausencia de rozamiento y totalidad indivisa, y generar un campo unificado que sería en realidad ‘una experiencia consciente’. Este mecanismo físico, intrínseco a las membranas biológicas, permite atribuir grados diferentes de conciencia a las membranas: desde los seres unicelulares como los protozoos hasta, por supuesto, las plantas o los animales; en realidad, cualquier estructura biológica –no tiene por qué ser una célula nerviosa– podrá presentar este proceso y ser, en algún grado, consciente. Un aspecto relevante de esta teoría, desde el punto de vista neurocientífico, es que la característica fundamental de la conciencia (su unidad) no tiene nada que ver con las conexiones de las neuronas individuales. Existiría un funcionamiento “clásico” del cerebro en el que las neuronas funcionarían tal y como lo conoce la Neurociencia actual, que permitiría la computación de los estímulos externos, la integración del instinto y las emociones o la memoria. Estos procesos son, todos ellos, inconscientes, y precisan una CBE para que los perciba el sujeto. El mecanismo que serviría de ‘puente’ entre ambos tipos de procesos, mecano-cuánticos conscientes y clásicos inconscientes, sería la actividad eléctrica observada en el EEG, cuando éste se presenta como actividad coherente estacionaria.

 

Teoría de la conciencia como coherencia microtubular (Roger Penrose)

   Las ideas de Penrose a este respecto se presentan en sus libros La nueva mente del emperador, Las sombras de la mente y Lo grande, lo pequeño y la mente humana. Para Penrose, son fundamentales dos ideas previas, que engarzan directamente en su teoría de la conciencia. Estas ideas son:

1. El pensamiento matemático y, por extensión, el resto de los procesos mentales, no se computa, es decir, no puede existir ningún programa de ordenador capaz de realizar los mismos procesos que un ser humano. Aunque no computable, considera que se trata de un proceso puramente físico.

2. La MC es incompleta, en el sentido de que la reducción de la función de onda no es un proceso objetivo, sino aleatorio. El autor propone un mecanismo por el que la reducción de la función de estado se realice de manera objetiva. Para ello, propone que la unificación de la MC con la relatividad general dará lugar a una teoría de la gravedad cuántica que permita la eliminación de la aleatoriedad en la MC. Además, igual que ocurre con las otras teorías, para Penrose resulta fundamental considerar la conciencia como una actividad global, por lo que cualquier mecanismo que sirva como explicación de la misma debería abarcar, de manera unificada, numerosas regiones del cerebro. A partir de estas dos ideas, y con una argumentación puramente física, Penrose desarrolla, con la utilización del concepto de Hameroff de la computación por microtúbulos, su teoría de la conciencia. Hameroff y Watt sugirieron que las moléculas de tubulina que forman los microtúbulos, formadas por dos subunidades (α y β), podían adoptar, al menos, dos configuraciones distintas.  Sise considera que cada una de estas configuraciones podría hacerse equivalente a los dígitos 0 y 1 de la computación binaria, cada microtúbulo podría comportarse como un autómata celular, es decir, como un ordenador capaz de llevar a cabo computaciones simples e, incluso, ser capaz de enviar señales complicadas a través suyo. Para Penrose, los microtúbulos permiten aislar lo que hay en su interior de la actividad aleatoria del exterior. El contenido de los microtúbulos podría así permanecer en un estado de superposición coherente a gran escala que se acoplara a las paredes de tubulina, de modo que el microtúbulo (paredes e interior) se comportara como un computador cuántico. Sin embargo, esta actividad no sólo serviría para realizar cómputos cuánticos, sino que, debido al elevado grado de coherencia, se extendería sobre áreas muy amplias del cerebro, y daría lugar así a una actividad cuántica a gran escala, en virtud del efecto de la no localidad cuántica. Durante algunos instantes, estas computaciones cuánticas, extendidas como un único sistema sobre regiones cerebrales extensas, permanecerían aisladas del resto del cerebro. Sería durante este tiempo cuando se produciría el fenómeno de la autoconciencia. Esta actividad coherente, que incluye a la pared, deberá aislarse del resto del citoplasma por medio de una ‘barrera’ de moléculas de agua polarizadas, que garanticen la coherencia durante períodos significativos. El hecho de que los microtúbulos se unan entre sí dentro de la misma célula por medio de puentes de proteínas asociadas a los microtúbulos (MAP, del inglés Microtubules Associated Proteins), asegura la extensión del sistema a los microtúbulos próximos, de modo que, virtualmente, todos los microtúbulos de la misma neurona estén en el mismo estado cuántico (ψ). Penrose utiliza los experimentos de Libet como ejemplo para demostrar que una persona necesita aproximadamente medio segundo para ser consciente de un estímulo o para realizar una tarea motora tras una cognitiva.

 

CRÍTICAS A LAS TEORÍAS

   Puede hacerse numerosas críticas, tanto desde el punto de vista científico como filosófico, de estas teorías. Todos los autores indican la unicidad de la conciencia como un hecho distintivo sobre el que justifican parte de sus hipótesis. Existe, sin embargo, una serie de experimentos que merecerían discutirse en relación con la unicidad de la conciencia, como son los resultados de Gazzaniga y Sperry, y que, por cuestiones de espacio, no se van a discutir en este trabajo. Además, estos resultados refutarían la hipótesis unitaria, pero en el presente artículo el objetivo es discutir la pertinencia de la MC, y los trabajos de Gazzaniga y Sperry no abordan este problema.

Interacción dualista entre el alma y el cuerpo

   Existe un apriorismo en la teoría que puede resultar suficiente para refutarla: en efecto, el autor considera que determinadas actividades generadas internamente (pensamientos, sentimientos, etc.) son mentales, y se les adscribe una categoría ontológica diferente de la materia. Por lo tanto, se precisa introducir un ente extramaterial que los explique. Sin embargo, es evidente que dichas actividades internamente generadas podrían tener una explicación neurobiológica –el sistema límbico para los sentimientos, determinados circuitos subcorticales inconscientes para los pensamientos que, súbitamente, parecen surgir a la conciencia, etc.–, en cuyo caso, no sería preciso ningún ente espiritual. Por lo que respecta al aspecto formal de la teoría, el concepto de campo de probabilidad resulta equívoco. Se pretende que sea real, pero que no sea material, entendido en sentido amplio. Sin embargo, ¿cuáles son las propiedades físicas de dicho campo?, ¿pueden aplicarse sobre dicho campo las operaciones propias de la teoría de campos?, ¿es un campo conservativo?, ¿qué ocurre con ese campo tras la muerte del sujeto? Ya que se trata de un campo real, obviamente debería tener propiedades que le permitieran interaccionar con la materia; sin embargo, esto le haría perder la inmaterialidad buscada. Otra posibilidad es que se trate de un campo tomado de la teoría cuántica de campos. Sin embargo, esta posibilidad es todavía peor, porque los campos cuantificados pueden entenderse como partículas, en algunos casos con tanta masa como un átomo de tamaño mediano. Se trata de campos con existencia real y con comportamiento absolutamente material. Una tercera posibilidad, que en mi opinión es la que pretende utilizar Eccles, es que se trate de un campo nuevo, tanto en sus pro-piedades físicas como en su definición. Se parecería más a una estructura matemática que a una física, de modo que se pudieran postular las propiedades necesarias, junto con su existencia, sin que ésta fuera material. Sin embargo, un ente similar no reúne propiedades susceptibles de estudiarse científicamente. Un campo tal, no susceptible de refutación empírica, no entra dentro del campo de la ciencia. Si se supone, incluso, que existiera dicho campo, Eccles no explica cómo se produce la interacción entre éste y las vesículas presinápticas. Una interacción física entre dos sistemas distintos implica un intercambio en la energía o en la materia, de modo que, si no existe este intercambio, no habrá interacción. Eccles propone que el campo ‘aumenta’ la probabilidad de exocitosis de una vesícula y que este cambio de probabilidad sirve para que, en virtud de la pequeña masa de la vesícula y del principio de incertidumbre, se produzca la liberación sin que se viole ningún principio físico. Eccles calcula la incertidumbre en la velocidad (∆v) para una vesícula sináptica de unos 3 × 10-19 g, que según el autor equivale a 3,5 nm en 1 ms. Pero con la ecuación 3 y unidades del sistema internacional, se obtiene un valor de 1.758 × 10-4 m/s, que, en las medidas consideradas por Eccles, equivale a 175,8 nm/ms. Para calcular el tiempo propio para el que podría aplicarse el principio de incertidumbre (a partir de la ecuación 4), debemos calcular la incertidumbre de la energía (∆E). Para ello, emplearemos la aproximación no relativista, según la ecuación 2) (21vmE∆=∆) [Ecuación 5] Si se sustituye directamente, se obtiene un valor de 4.634 × 10-30 J. Por tanto, si se despeja ahora ∆t y se sustituyen los valores obtenidos, se calcula un tiempo característico de 14 µs. Este tiempo produce dos órdenes de magnitud menor que el característico para un proceso biológico, en el que el orden de magnitud típico son los milisegundos. Por tanto, si la vesícula sináptica debe liberarse, necesita un aporte de energía convencional, o bien es un proceso que viola el principio de conservación de la energía, o bien es un milagro (posibilidad más próxima a la filosofía del ocasionalismo de Malebranche). Los procesos biológicos pueden describirse por medio de la física clásica; hecho éste, por otro lado, conocido, ya que toda la teoría biofísica clásica se desarrolla a partir de conceptos termodinámicos (ecuaciones de Nernst y Goldman-Hodgkin-Katz), dinámica clásica de sistemas (teoría de Hodgkin y Huxley), electromagnetismo y teoría de circuitos (corrientes iónicas), etc. No aclara tampoco el autor en qué regiones corticales se produce la interacción: si se trata sólo de la corteza prefrontal, o bien de todas las áreas de asociación, o de todo el neocórtex, incluidas áreas de proyección (somestésicas, visuales, auditivas) y áreas motoras (primaria, premotora, área motora suplementaria). Aunque no sea exclusivamente neurocientífica, una importante crítica a la teoría de Eccles, aunque éste haya pretendido hacer una síntesis monista, es que el dualismo cartesiano no se toma muy en serio ni entre los científicos ni entre los filósofos. 

Teoría de la conciencia como condensación de Bose-Einstein (CBE)

   La autora hace hincapié en la característica de unidad de la conciencia para llegar a la conclusión de que ésta se debe a una CBE. En su sistema, el funcionamiento neuronal tiene una relevancia mínima en el proceso de ser o no consciente. La autora menciona que las lesiones cerebrales, salvo cuando afectan a regiones corticales extensas, no afectan a la conciencia. Por tanto, cabe pensar que las áreas del cerebro que no sean sensoriales o motoras no tienen la menor utilidad, excepto, quizá, la de aumentar el número de células que aporten membrana celular. Sin embargo, podría pensarse, de acuerdo con Zohar, que estas áreas de asociación, que forman una gran parte de la superficie cerebral, aun cuando sólo las constituyeran células gliales, servirían para generar conciencia. Podría ocurrir que la llegada de aferencias sensoriales originara el número suficiente de potenciales de acción como para que se generaran biofotones que dieran lugar a la CBE, ya que ésta no depende de la actividad eléctrica más que para su inicio. Esta teoría resulta fácilmente contrastable. En casos de encefalopatía anóxica, las neuronas son las células que primero mueren, y son más resistentes las células gliales. Si estuvieran mínimamente respetadas las áreas de proyección, para cebar el proceso o, incluso, por medio de oscilaciones en el potencial de membrana de los astrocitos, quizá por oscilaciones en el K+ extracelular, debería existir conciencia.

   Sin embargo, todos los clínicos sabemos que no ocurre así. No se aclara suficientemente cómo un estado condensado en el que, supongamos, gran parte de la corteza está en el mismo estado, origina las eferencias cerebrales. Si toda la corteza está en idéntico estado, digamos ψ, es evidente que el córtex motor y premotor también lo estará. Si ψ es capaz de generar variaciones en el potencial de membrana suficientes como para dar lugar a potenciales de acción, que se proyecten a las motoneuronas espinales –lo que es absolutamente necesario para la realización de movimientos–, también ocurriría este fenómeno en las áreas corticales primarias; con ello, la experiencia consciente realimentaría a dichas zonas y originaría verdaderas percepciones imaginarias de todo tipo sin causa exterior, que convertirían la vida cotidiana en algo imposible de sobrellevar, absolutamente llena de múltiples y erráticas alucinaciones. Además, y según esta misma línea argumental, hay que explicar cómo ψ excitaría sólo a las neuronas corticales que inervan selectivamente los músculos que deseáramos mover, y no a otros músculos. Hay que describir un mecanismo razonable por el que la generación de fotones produzca oscilaciones del potencial de membrana: ¿actuando sobre canales iónicos específicos?, ¿modificando la permeabilidad de la membrana, al oscilar los dipolos que la forman? Otro hecho experimental del que debería dar cuenta esta teoría y que, en mi opinión, sirve de refutación, es el cambio evidente en la experiencia consciente de una persona cuando se ingieren mínimas cantidades de fármacos, como por ejemplo el ácido lisérgico (LSD), que actúa sobre los receptores específicos de membrana. En efecto, podría argumentarse que el efecto de los anestésicos sobre la conciencia se debe a su acción sobre la membrana. Sin embargo, el LSD actúa de forma selectiva sobre los receptores de serotonina de tipo 5-HT2 y ello es capaz de alterar por completo la conciencia de la persona que lo ingiere, en cantidades tan pequeñas como 150 µg. No obstante, el mecanismo neuronal que supuestamente desencadena la CBE, no se ha modificado; por tanto, ¿por qué ha cambiado la conciencia? 

Teoría de la conciencia como coherencia microtubular

   La belleza de esta teoría radica en su integración global con el pensamiento cosmológico del autor. Aunque las teorías previas también se engloban en el pensamiento de sus autores, considerado como un todo, esta teoría es parte de otra de mucho más calado que, desde el punto de vista estético, la teoría de Penrose es de extraordinaria profundidad y belleza. Da la impresión, a partir del trabajo de Penrose, que la actividad eléctrica de las neuronas no tiene una especial relevancia –menos incluso que en la obra de Zohar–. Podría tratarse, al igual que ocurre con Eccles, de una distinción tácita entre EN y eventos mentales; enfoque dualista, no obstante, rechazado por el propio Penrose. Supóngase que se estimula la piel de un sujeto, de manera que, a través de las vías nerviosas aferentes, llega el estímulo, en forma de ráfaga de potenciales de acción, al tálamo, y de aquí, por medio de las proyecciones talamocorticales, al córtex somestésico primario en áreas 3a, 3b, 1 y 2 de Brodmann. ¿Qué ocurre a partir de aquí? Podría ocurrir que las propias neuronas que reciben la secuencia de potenciales iniciaran el proceso de conciencia, pero no se explica exactamente en virtud de qué mecanismo los cambios de voltaje y las corrientes a través de la membrana celular producen la coherencia tubular. Por otro lado, es posible explicar la codificación de un estímulo por la secuencia temporal de potenciales de acción, de modo que se puedan diferenciar estímulos intensos de otros leves; pero, ¿cómo se hace consciente esta diferencia cuando el proceso de conciencia es la coherencia tubular?, ¿existen estados diversos de superposición coherentes, cada uno específico para cada intensidad y tipo de estímulo? Estas preguntas deben contestarse para que el modelo propuesto sea verdaderamente explicativo. De modo parecido a lo visto anteriormente con Dana Zohar, la inespecificidad de la acción postulada hace que surjan dudas sobre la localización anatómica donde se origina el proceso de la conciencia. Las neuronas con más cantidad de microtúbulos son las neuronas medulares y de los nervios periféricos, dada su gran longitud axónica. Por otro lado, la actividad eléctrica en dichas células suele ser lo suficientemente sincronizada como para que se registre en la superficie corporal en forma de potenciales evocados. ¿Significa que dichas células son las más idóneas para que surja la conciencia? Supóngase ahora el proceso inverso, en el que un sujeto consciente ‘decide’ realizar un movimiento simple. Debe suponerse que la decisión se ha tomado durante el tiempo de coherencia tubular; pero el problema ahora surge en cómo puede este evento mental generar la despolarización umbral necesaria en las células piramidales para dar lugar al movimiento. El fenómeno de coherencia –¿o sería durante la descoherencia y colapso de la función de onda? – debería generar corrientes intracelulares despolarizantes –¿salida de K+ o entrada de Cl–? – para iniciar el potencial de acción. Con respecto a este ejemplo, Penrose cita los experimentos de Libet et al para demostrar que se genera un prepotencial previo al movimiento muscular. Sin embargo, este potencial previo puede no ser otra cosa que la suma escalar –ya que se trata de voltaje– de actividades neuronales alejadas del punto de registro y que, en una interpretación biológica válida, podrían significar procesos neuronales previos de computación necesarios para que disparen las células del área registrada. El tiempo característico del proceso de superposición propuesto es del orden de los milisegundos o segundos. Sin embargo, es evidente que una persona normal tiene conciencia de sí misma durante períodos de, al menos, varias horas seguidas –entre períodos consecutivos de sueño–. Sería muy difícil explicar cómo puede mantenerse la coherencia de un sistema tan complejo durante períodos tan largos. Tampoco explica el autor por medio de qué mecanismo se sincronizan o se superponen coherentemente las actividades de microtúbulos situados en neuronas distintas. Ya que éstas no se conectan entre sí, debe existir un proceso de sincronización. Dado que no puede ser sináptico, pues es muy lento, el recurso a la no localidad cuántica resulta evidente. Sin embargo, la no localidad no se establece entre sistemas diferentes, sino sólo dentro de un mismo sistema, aunque esté espacialmente disperso. Pero las neuronas de áreas corticales diferentes, con mucha probabilidad, pueden considerarse sistemas diferentes, cada uno implicado en su procesamiento local. Por ello, no es fácil ver cómo pueden sincronizarse áreas grandes del cerebro. Por último, en caso de ser cierta la estructura de barrera formada por moléculas de agua en torno a los microtúbulos, esta estructura altamente ordenada debería ser susceptible de comprobación empírica, y variar probablemente las propiedades de refracción de la luz a través de una neurona o, acaso, como señal de resonancia magnética (RM) altamente ordenada durante la transición desde la fase desordenada del agua a la fase de barrera.

 

¿Qué es y cómo nos afecta el Bosón de Higgs?

En el programa sobre ciencia 'Teknopolis' nos hemos reunido con Jose Ignacio Latorre, miembro del centro Cern y profesor de la Universidad de Barcelona, para hablar sobre el Bosón de Higgs.


DISCUSIÓN

   Se ha revisado tres teorías que pretenden explicar el fenómeno de la conciencia con el uso de la MC. Una de ellas la ha elaborado un neurocientífico (premio Nobel de Medicina y Fisiología, en 1963) y las otras dos, físicos. La teoría elaborada por Eccles posee unos fundamentos neurocientíficos sólidos, pero en cambio contiene importantes defectos en la justificación física. Las teorías de base física se argumentan mejor desde el campo de la física, y no se detectan incoherencias importantes, pero sí pueden observarse en sus aspectos biológicos. Las extraordinarias propiedades del campo de probabilidad postulado por Eccles hacen muy difícil su contrastación empírica, por lo que, de acuerdo con el pensamiento de su amigo y colaborador, Sir Karl Popper, no debería considerarse como una teoría científica. Deja gran parte de los procesos inexplicados y sólo se limita a trazar las líneas generales. Se trata, en resumen, de una teoría cuyos fundamentos filosóficos no comparten la gran mayoría de los neurocientíficos, quienes, de una manera u otra, tienen un pensamiento generalmente materialista, aunque pueda matizarse con mayor o menor contenido de emergencia. Respecto a las teorías de Penrose y Zohar, su contenido neurobiológico se fundamenta peor que en el caso de Eccles. Sus teorías van en contra o, cuando menos, ignoran gran parte del conjunto de conocimiento de la neurociencia actual. Penrose no propone ningún mecanismo que ligue la actividad eléctrica de la membrana celular con la coherencia de los microtúbulos, mientras que, para Zohar, da la impresión de que la importancia concedida a la membrana iguala la función de neuronas y de la glía en la génesis de la conciencia.  Los profesionales del campo de la Neurociencia discrepan en cuanto a los mecanismos neurales responsables de la conciencia: para algunos, el mecanismo consistiría en la sincronización de amplias áreas corticales; para otros, la conciencia surgiría del balance dinámico entre los sistemas que regulan la vigilia y el sueño, de la relación entre diversos estados cerebrales, especialmente de aquellos que implican las experiencias personales y la memoria, de la representación, instante a instante, de la continuidad del organismo, por medio de una representación de segundo orden, o por la comparación recursiva de la información que llega desde diferentes regiones cerebrales, comparación que, fundamentalmente, se realizaría en los circuitos tálamo-corticales. En cualquier caso, aunque se postulen diversos mecanismos neuronales, parece claro que los procesos que originan la conciencia son puramente cerebrales y la física que parece subyacer a los mismos no precisa de la colaboración de la MC, ni de ningún otro mecanismo fisiológico o físico que no se aplique a sistemas nerviosos más sencillos: es decir, la aparición de la conciencia sólo dependería de la mayor complejidad del neocórtex humano. Es obvio que los profesionales de otros campos pueden tener ideas interesantes cuando tratan problemas de neurociencias, pero, en algunos casos, realizan planteamientos que obvian gran parte del conjunto experimental y teórico conseguido tras arduos y, en ocasiones, penosos esfuerzos científicos. En palabras de un físico, cuando se especula acerca de la conciencia, en especial por parte de personas ajenas al campo de las neurociencias, ‘a menudo se tiene la impresión de que se quiere esconder, en un lenguaje aparentemente científico y riguroso, algunas cosas que (...) no pasan de ser meras especulaciones’.

 APÉNDICE

   Los números complejos (C) son una ampliación de los números reales (R), desarrollada para poder realizar raíces cuadradas de números negativos. Para ello, incorpora el número i= (–1)1/2. Por tanto, i2= –1. Una forma habitual de escribir los números complejos es considerarlos como una suma de dos partes, una real (Re) y otra imaginaria (Im), que incluye al número i. Por ejemplo, el número complejo α puede escribirse así: α= a + ib [Ecuación 6] donde a, b R. En este caso, Re(α)= a, e Im(α)= ib. Por lo que respecta a nuestros propósitos, nos interesan dos aspectos: el concepto de conjugado complejo y el producto de complejos. El conjugado de un complejo α, que se denomina α*, es aquel complejo que tiene la misma parte real que α, pero con la parte imaginaria de signo contrario. Por ejemplo, si α es el número visto más arriba, su conjugado complejo será: α*= a – ib [Ecuación 7] El producto de complejos se realiza al multiplicar cada miembro del complejo por cada uno de los miembros del otro. Veamos un ejemplo. Sean α= a + ib, y β= c + id, donde α, β C, y a, b, c,d R; su producto será: α β= (a + ib)(c + id)= ac + iad + icb – bd. A partir del producto de complejos, podemos obtener el cuadrado de un complejo, que se define de la siguiente manera: α2= αα*= a2 – b2[Ecuación 8]

 

BIBLIOGRAFÍA

1. Churchland PM. A neurocomputational perspective. The nature of mindand the structure of science. Cambridge: MIT Press; 1989.

2. Crick F. La búsqueda científica del alma. Una revolucionaria hipótesis para el siglo XXI. Madrid: Debate-Pensamiento; 1994.

3. Churchland PM, Sejnowski T. The computational brain. Massachusetts:MIT Press; 1992.

4. Laín-Entralgo P. Cuerpo y alma. Madrid: Espasa Calpe; 1991.

5. Dossey L. Tiempo, espacio y medicina.3 ed. Barcelona: Kairós; 1999.

6. Selleri F. El debate de la teoría cuántica. Madrid: Alianza Universidad; 1986.

7. Ortoli S, Pharabod JP. El canto de la cuántica. 3 ed. Colección Límites dela Ciencia. Barcelona: Gedisa; 1991.

8. Investigación y Ciencia. Temas 10. Misterios de la física cuántica. Barcelona: Prensa Científica; 1998.

9. Wichmann EH. Física cuántica. Berkeley Physics Course. Vol. 4. Barcelona: Reverté; 1996. p. 29-30.

10.García-González P, Alvarellos JE, García-Sanz JJ. Introducción al formalismo de la mecánica cuántica. Cuadernos de la UNED. Madrid: UNED; 2000.

11. Englert BG, Scully MO, Walther H. La dualidad en la materia y en la luz. In Investigación y Ciencia. Temas 10. Misterios de la física cuántica. Barcelona: Prensa Científica; 1998. p. 68-74.

12. Pascual R. La física y la relación mente-cerebro. In Mora F, ed. El problema cerebro-mente. Madrid: Alianza Editorial; 1995. p. 175-206.

13. Aspect A, Grangier P, Roger G. Experimental realization of Einstein-Podolsky-Rosen-Bohm Gedankenexperiment: a new violation of Bell’sinequalities. Phys Rev Lett 1982; 48:91-4.

14. Diccionario de Física. Estadística cuántica. Madrid: Complutense; 1998. p. 193-4.

15. Diccionario de Física. Bose-Einstein, condensación. Madrid: Complutense; 1998.

16. Deutch D. Quantum theory: the Church-Turing principle and the universal quantum computer. Proc R Soc Lond A 1985; 400: 97-117.

17. Lloyd S. A potentially realizable quantum computer. Science 1993; 261:1569-71.

18. Cirac JI, Zoller P. Quantum computations with cold rapped ions. PhysRev Lett 1995; 74: 4091-4.

19. Eccles J. Do mental events cause neural events analogously to the probabilityfields of quamtun mechanics? Proc R Soc Lond B 1986; 227: 411-28.

20. Eccles J. La evolución del cerebro: creación de la conciencia. Barcelona: Labor; 1992.

21. Eccles J. A unitary hypothesis of mind-brain interaction in the cerebralcortex. Proc R Soc Lond B 1990; 240: 433-51.

22. Feigl H. The ‘mental’ and the ‘physiscal’. Minneapolis: University ofMinessota Press; 1967.

23. Mountcastle VB. An organizing principle for cerebral function. The unitmodule and the distributed system. In Schmitt FO, ed. The mindful brain. Cambridge: MIT Press; 1978. p. 7-50.

24. Peters A, Kara DA. The neuronal composition of area 17 or rat visual cortex.IV. The organization of pyramidal cells. J Comp Neurol 1987; 260: 573-90.

25. Bradford HF. Neuronas: organización para la interacción. In Fundamen-tos de neuroquímica. Barcelona: Labor; 1988. p. 37-47.

26. Eccles JC, Eccles RM, Lundberg A. Synaptic actions on motoneuronesin relation to the two components of the group I muscle afferent volley. JPhysiol Lond 1957; 136: 527-46.

27. McNaughton BL, Barnes CA, Andersen P. Synapticefficiency and EPSPsummation in granule cells of rat fascia dentata studied in vitro. J Neuro-physiol 1981; 46: 952-66.

28. Margenau H. The miracle of existence. Woodbridge: Ox Bow Press; 1984.

29. Zohar D. La conciencia cuántica. Barcelona: Plaza y Janés; 1990.

30. Fröhlich H. Long-Range coherence and energy storage in biological sys-tems. Intern J Q Chem 1968; 2: 641-9.

31. Fröhlich H. Long range coherence and the actions of enzymes. Nature1970; 228: 1093.

32. Fröhlich H. The extraordinary dielectric properties of biological materialsand the action of enzimes. Proc Natl Acad Sci 1975; 72: 4211-5.

33. Penrose R. La nueva mente del emperador. Barcelona: Grijalbo Monda-dori; 1995.

34. Penrose R. Las sombras de la mente. Hacia una comprensión científicade la consciencia. Barcelona: Drakontos; 1996.

35. Penrose R, Shimony A, Cartwright N, Hawking S. Lo grande, lo pequeñoy la mente humana. Madrid: Cambridge University Press; 1999.

36. Hameroff SR, Watt RC. Information processing in microtubules. J TheorBiol 1982; 98: 549-61.

37. Hameroff SR, Watt RC. Do anesthetics act by altering electron mobility?Anesth Analg 1983; 62: 936-40.

38. Libet B, Alberts WW, Wright EW Jr, Finstein B. Responses of human somatosensory cortex to stimuli below tresh olds of consciuos sensation. Science 1967; 158: 1597-1600.

39. Libet B, Wright EW Jr, Feinstein B, Pearl DK. Subjective referral of thetiming for a consciuos sensory experience. Brain 1979; 102: 193-224.

40. Gazzaniga MS, Sperry R. Simultaneous double discrimination responsefollowing brain bissection. Psychonocim Sci 1966; 4: 261-2.

41. Gazzaniga MS, Smylie CS, Baynes K, Hirst W, McClearly C. Profiles orright hemisphere language and speech following brain bisection. BrainLang 1984; 22: 206-20.

42. Gazzaniga MS. Organization of the human brain. Science 1989; 245: 947-52.

43. Sperry RW. Miental unity following surgical disconnection of the cerebral hemispheres. Harvey Lect 1968; 62: 293-323.

44. La lógica de la investigación científica. Madrid: Tecnos; 1962.

45. Pastor J. Mecanismos biofísicos de la actividad neuronal. Rev Neurol 2000; 30: 741-55.

46. Bradford HF. Células gliales: células de soporte mecánico y funcional del sistema nervioso. In Fundamentos de neuroquímica. Barcelona: Labor; 1988. p. 59-112.

47. Kirsch JR, Koehler RC, Traystman RJ. Cerebral anoxia: experimental view. In Niedermeyer E, Lopes da Silva F, eds. Electroencephalography. 3ª ed. Williams and Wilkins; 1993. p. 419-29.

48. Cooper JR, Bloom FE, Roth RH. The biochemical basis of neuropharmacology. Oxford: Oxford University Press; 1986. p. 335-8.

49. Carlson NR. Neural communication: physiology and pharmacology. In Physiology of behavior. London: Allyn and Bacon; 1991. p. 64-5.

50. Gardner EP, Kandel ER. Touch. In Kandel ER, Schwartz JH, Jessell TM, eds. Principles of Neural Science. 4 ed. New York: McGraw-Hill; 2000.p. 451-70.

51. Mauguière F, Desmedt JE, Courjon J. Neural generators of N18 and P14 far-field somatosensory evoked potentials studied in patients with lesions of thalamus or thalamo-cortical radiations. Electroencephalogr Clin Neu-rophysiol 1983; 56: 283-92.

52. Mauguière F, Desmedt JE, Courjon J. Astereognosis and dissocieted loss of frontal or parietal components of somatosensory evoked potentials in hemispheric lessions. Brain 1983; 106: 271-311.

53. Sperry RW. Science and moral priority. Merging mind, brain and human values. New York: Columbia University Press; 1983.

54. Crick F, Koch C. Towards a neurobiological theory of consciuossnes. Semin Neurosci 1990; 2: 263-75.

55. Crick F, Koch C. Consciuousness and neuroscience. Cerebral Cortex 1998;8: 97-107.

56. Singer W, Gray CM. Visual feature integration and the temporal correlation hypothesis. Annu Rev Neurosci 1995; 18: 555-86.

57. Llinás R. I of the vortex. From neurons to self. Cambridge: MIT Press; 2001.

58. Hobson A. Dreaming as delirium. How the brain goes out of its mind. Cambridge: Bradford Book, MIT Press; 1999.

59. Taylor JG. The race for consciousness. Cambridge: Bradford Book, MITPress; 1999.

60. Damasio A. Creación cerebral de la mente. Barcelona: Investigación y Ciencia; 2000. p. 66-71.

61. Tononi F, Edelman GM. Consciuosness and complexity. Science 1998;282: 1846-51.

62. Schwartz JH. Consciousness and the neurobiology of the twenty-first century. In Kandel ER, Schwartz JH, Jessell TM, eds. Principles of Neural Science. 4 ed. New York: McGraw-Hill; 2000. p. 1317-9.

63. Changeux JP. El hombre neuronal. Madrid: Espasa Calpe; 1985.

64. Kinsbourne M. Integrated field theory of consciousness. In Marcel AJ,Bisiach E, eds. Consciousness in contemporary science. Oxford: Claren-don Press; 1988. p. 239-56.

65. Amaral DG. The anatomical organization of the Central Nervous Sys-tem. In Kandel ER, Schwartz JH, Jessell TM, eds. Principles of NeuralScience. 4 ed. New York: McGraw-Hill; 2000. p. 317-36.

 

MECÁNICA CUÁNTICA Y CEREBRO: UNA REVISIÓN CRÍTICA

Resumen

    Las teorías sobre el mecanismo responsable de la conciencia en los seres humanos están todavía en un estado inicial de desarrollo. Por ello, este es un campo idóneo para aventurar teorías, con diferente grado de respaldo teórico y experimental. En los últimos tiempos, se han expuesto diversas hipótesis que pretenden explicar el fenómeno de la conciencia con la utilización, como herramienta fundamental, de la mecánica cuántica (MC). Se pretende estudiar algunas de estas teorías y analizarlas a la luz de los conocimientos actuales de las neurociencias.

Desarrollo

   Se discute las teorías de John Eccles, Dana Zohar y Roger Penrose, cuyo único punto en común es la utilización de la MC. Se introducen algunos conceptos físicos propios de esta teoría, sin los cuales no es posible comprender con detenimiento los aspectos físicos de las teorías estudiadas. Posteriormente, se desarrollan las tres teorías, según las exponen sus autores, para, con posterioridad, discutir su verosimilitud a la luz de los conocimientos actuales de la neurociencia.

Discusión

 Las tres teorías analizadas adolecen de importantes dificultades para poder encajar, por completo, en el conjunto de conocimiento de las ciencias del sistema nervioso, tal y como se conocen en la actualidad. La opinión entre la mayoría de los expertos en el campo es que no se necesita la MC para poder explicar cómo funciona el cerebro y que la conciencia, en última instancia, podrá explicarse en términos de éste.

Palabras clave. Axolema. Conciencia. Funcionamiento cerebral. Microtúbulos. Principio de incertidumbre. Sinapsis. Superposición. 

... Llama la atención especialmente que la mayoría de los académicos que trabajan la consciencia desde la MC, no tienen una formación neurocientífica de base ni un fondo filosófico común (Pastor, 2002). En este campo, han surgido varias descripciones cuánticas de la consciencia desde diferentes paradigmas científicos y filosóficos, pero lo importante es que implementan nuevos métodos de análisis y comprensión del cerebro, poco abordados en la neurociencia clásica. ...

... Este concepto es crucial en la MC porque no cuenta con un homólogo macroscópico -como la gran mayoría de elementos de la MC-. La resolución de la ecuación de Schrödinger es complicada y es favorable en sistemas simples con pocas partículas (Pastor, 2002). En contextos más complejos -como el cerebro-la formulación cuántica se complica tanto y se vuelve tan extensa e intrincada, que el mismo Heisenberg, después de ser uno de los fundadores de la MC, vio más favorable trabajar haciendo investigaciones ferroeléctricas a las que dedicó el resto de su vida. ...

... Ésta se constituyó formalmente en los años 70's y explica gran cantidad de interacciones entre las partículas subatómicas, los constituyentes de la materia, partículas elementales, antimateria, física de altas energías, etc. Por ello la Teoría Estándar, que describe tres de las cuatro fuerzas del universo, es la teoría más exitosa y exacta que se ha formulado en la historia del hombre (Kaku, 2004; aunque su interpretación carece de tal unificación (Pastor, 2002). ...

Daniel Manrique-Castaño

... Para esto los planteamientos más relevantes al respecto son las teorías de la estadística de Fermi-Dirac y Bose- Einstein (Pastor-Gómez, 2002). Quizás, y, por último, otro concepto de la cuántica que vale la pena mencionar es la teorización sobre la computadora cuántica (Acacio de Barros et al, 2009; Pastor-Gómez, 2002). Consiste en un sistema mecánico-cuántico que permite la superposición de los estados y que esta superposición se vea como un proceso de cómputo, una vez realizado estos cómputos para cada canal superpuesto se generaría un colapso en la función de la onda y daría lugar a un cómputo. ...

... Es un planteamiento claramente dualista, donde fundamenta que no es posible experimentalmente abordar la unicidad cerebro-espíritu, considera su teoría del campo cuántico de probabilidad a nivel de las sinapsis neuronales como la forma y el lugar donde se da la interacción mente-cerebro basado en el efecto de la intencionalidad en la exocitosis (Beck & Eccles, 1992). Esta teoría es en sí misma muy criticable, a pesar de ser coherente matemática y estadísticamente, el autor en definitiva plantea que ontológicamente el pensamiento es diferente que la materia, y, por lo tanto, no tienen por qué tener vínculo alguno (Pastor-Gómez, 2002). Otra de las teorías cuánticas vinculadas con filosofía de la mente es la teoría de la consciencia como coherencia microtubular de Roger Penrose (Hameroff & Penrose, 1996). ...

Paul Ruiz

 

¿Quién o qué creó el universo? Stephen Hawking responde | El universo según Stephen Hawking

El físico, astrofísico, cosmólogo y divulgador científico Stephen Hawking responde a la pregunta que más contradicciones genera entre ciencia y religión: ¿el universo fue obra de un Dios o de las leyes de la naturaleza? Descubre el episodio completo de El Universo según Stephen Hawking en Dplay: https://bit.ly/2PCHeiH



Javier García Castro – enero 2021

... Perhaps their biggest problem, as mentioned in various places (60), is that these theories try to explain a mystery through something even more mysterious, such as quantum mechanics, based on future advances that do not currently exist. In addition, they rely heavily on physical explanations, neglecting their link with the data that neuroscience research continues to generate (61). However, a comprehensive explanation of consciousness will have to rely, eventually, on the ultimate foundations of the universe's matter or, at least, be in some way consistent with them. ...

Radical solutions to the ontological and epistemological problems of consciousness

Javier García Castro - junio 2020

... Además, se centran exclusivamente en la explicación de la parte física, descuidando su vinculación con el corpus de conocimiento de la neurociencia actual.

Teorías neurocientíficas

   Las teorías neurocientíficas sobre la consciencia estudian los mecanismos cerebrales implicados en la generación de la experiencia consciente y tienen en común la búsqueda de lo que se conoce como correlatos neuronales de la consciencia (CNC).  Es decir, pretenden encontrar la "mínima actividad cerebral suficiente para generar un precepto consciente específico". ...

Javier García Castro – junio 2019

... y en los últimos veinte años han surgido múltiples teorías neurobiológicas de la consciencia. Dado que estas teorías se encuentran en estado de desarrollo, la estrategia habitual consiste en dejar suspendidos los problemas difíciles y centrarse en los correlatos neuronales. 

El Bosón de Higgs y el Coronavirus - Instituto de Física Teórica IFT

El peculiar título esconde una intención de mayor calado: discutir el papel que  puede jugar -una ver terminada la pandemia actual- la investigación fundamental, entendida como la principalmente motivada por la búsqueda del conocimiento puro y básico, y no por resultados económicos a corto plazo.

El bosón de Higgs es la última partícula elemental que se ha descubierto. Su vida media es tan corta que es imposible imaginar algo más inútil en la práctica! Y sin embargo, su relación con la Covid-19 es considerable. "El Higgs" se descubrió en el CERN, laboratorio de Física de Partículas en la frontera entre Francia y Suiza. Uno de los muchos  spin-offs de la investigación fundamental en el CERN es el http, el lenguaje universal entre ordenadores que permite el funcionamiento de la WWW.

Tras la pandemia, la financiación de la investigación será redistribuida, con la expectativa de que la Biología básica, la Genética, y la Medicina, recibirán un porcentaje importante de la financiación que merecen. Pero qué depara el futuro a la financiación del resto de ciencias básicas? Esta es la cuestión que vamos a considerar juntos en esta charla, desde una perspectiva más amplia que la de este resumen.

#Higgs​ #Coronavirus​ #CERN



No hay comentarios: