domingo, 3 de mayo de 2015

El principio de exclusión de Pauli, fue desarrollado por el físico austriaco Ernst Pauli en el año 1925. Este principio de la cuántica dice que dos partículas ( concretamente fermiones) que tiene los números cuánticos con los que constan idénticos, no pueden existir.

Esto significa que dos electrones ( fermiones) que se encuentren en
Wolfgang Pauli
un átomo no podrán poseer a la vez iguales números cuánticos. Este hecho explicaría que los electrones se dispersen en capas o niveles en torno al núcleo del átomo y por lo cual, los átomos que posean mayor número de electrones ocupen mayor espacio, debido a que aumenta el número de capas de las que consta el átomo. El número máximo de electrones que puede tener una capa o nivel es de 2n^2.


Para poder describir de forma completa al electrón dentro del átomo de hidrógeno, necesitamos introducir obligatoriamente un cuarto número cuántico a los ya conocidos. Dicho cuarto número cuántico se representa por las letras ms, y es conocido como el número cuántico de spin, el cual se encuentra relacionado estrechamente con las propiedades magnéticas que presentan los electrones. El número cuántico ms, tan sólo puede tener dos valores diferentes, +1/2 o -1/2. A los electrones cuyos valores de ms son iguales, se dice que cuentan con lo que se conoce como spines paralelos, sin embargo, si los valores que presenta ms son distintos se dice que poseen spines opuestos o también llamados antiparalelos.



Para poder describir a un orbital, se necesitan tres números cuánticos ( los números n, l y ml), a la vez que un electrón que se encuentra en un átomo viene dado por una combinación de cuatro números cuánticos, los tres principales más el número ms. El principio de exclusión de Pauli nos dice que en un átomo es imposible que coexistan dos electrones con los cuatro números cuánticos idénticos. Según establece este principio, en un orbital de tipo atómico, que se encuentra determinado por los números cuánticos n, l, y ml, solamente pueden haber dos electrones: uno de ellos con un spin positivo +1/2 y otro con su contrario spin negativo -1/2.


Entonces decimos que cada uno de los tipos de orbitales solamente puede contener 2 electrones como máximos, los cuales deberán obligatoriamente tener spines contrarios. Estos electrones tendrán todos sus números cuánticos iguales , y tan sólo se diferenciarán en el número cuántico ms ( spin).


Texto extraído de: quimica.laguia2000.com


domingo, 26 de abril de 2015

Teoría de las perturbaciones

En mecánica cuántica la gran mayoría de las veces los problemas que se presentan no tienen solución analítica por lo que es necesario utilizar métodos aproximados para obtener información relevante de ellos.

Existen dos tipos de métodos que se emplean en la
Christian Moller
actualidad, los métodos numéricos donde se aprovecha la capacidad de cálculo de los ordenadores o los que se presentan aquí que son la teoría de perturbaciones dependientes e independientes del tiempo y el método variacional. Supongamos un sistema definido por un hamiltoniano H  que podemos separar de la siguiente forma


      
donde Hes el hamiltoniano no perturbado del que sabemos sus auto energías En(0) y sus auto estados normalizados es decir

       

y Hp es el término perturbativo adicional al hamiltoniano y  es un parámetro adimensional tal que su valor es mucho menor que uno,

En estas condiciones es plausible esperar soluciones del hamiltoniano total H en la forma con auto energías . Busquemos por tanto las soluciones en la forma 

  


    
con las auto energías
 
 Texto extraído de: www.uam.es

domingo, 19 de abril de 2015

Relación entre la física cuántica y la mente


El físico nuclear Otto Frisch nació en Viena, Austria, en el año 1904. Se radicó en Inglaterra en 1934. Fue el primero en observar la gran cantidad de energía liberada en la fusión del núcleo de uranio. Durante una entrevista manifestó:
Creo que se recordará en este siglo por sus grandes adelantos en la física, se inició con la hipótesis de Plank según la cual la emisión y absorción de luz por la materia no se realiza de forma continua sino por medio de las partículas que denominamos fotones. Éste fue el primer paso en la creación de un sistema completamente nuevo, la teoría de los cuantos, que nos ha permitido entender con una precisión increíble la estructura de la materia. Esta construcción de conceptos nuevos, que todavía continúa, es sin duda, una de las mayores hazañas de la mente humana. 

La teoría cuántica nos enseñó que cualquier intento de explorar una
Otto Frisch
cosa tiene irremediablemente un efecto sobre la misma. En la vida cotidiana el efecto es casi nulo, pero llega a ser significativo cuando se estudian cosas muy pequeñas como por ejemplo, átomos o los constituyentes de éstos. La teoría cuántica vació de sentido frases como «esto es así» y todo lo que podemos decir es «hemos observado esto».
Cuando observamos la velocidad de una partícula, cambiamos su posición y viceversa; de manera que nuestro conocimiento simultáneo de ambas magnitudes implica un grado de indeterminación descrito por las relaciones de incertidumbre de Heisemberg. Por eso, no podemos predecir con precisión el movimiento futuro de la partícula. Reaccionamos a los estímulos de una manera compleja y sutil, la cual depende de nuestra composición genética, de la educación recibida y de todas las múltiples experiencias de nuestra vida.

Esto es posible sólo porque nuestro cerebro es un sistema muy seguro, que trabaja de manera casi totalmente determinista; en verdad, el cerebro fue construido muy cuidadosamente para hacer mínimas las incertidumbres que resultan de fluctuaciones cuánticas. La incertidumbre cuántica muy bien podría ser la fuente de la creatividad humana, y aún de la libertad humana. Los efectos cuánticos hacen posible el proceso de la evolución biológica. ¿Tiene acaso el mundo, realmente, una cantidad infinita de dimensiones, de las cuales podemos percibir sólo tres con nuestros sentidos? Pienso que éste es un aspecto muy inquietante de la teoría cuántica. Hoy la teoría de la relatividad general es una parte firmemente establecida, no sólo de la física, sino también de la ingeniería. El matrimonio de la teoría de la relatividad general con la teoría cuántica condujo a la predicción de las antipartículas y a su posterior descubrimiento. Por ejemplo, el positrón es la antipartícula del electrón, y viceversa: tienen la misma masa, pero propiedades electromagnéticas opuestas. La teoría de la relatividad es importante para la astrofísica.

La materia se compone de átomos; los átomos de electrones y núcleos; los núcleos contienen protones y neutrones. ¿Continuará el juego de encontrar partes más y más pequeñas de materia, y durante cuánto tiempo? Se ha propuesto que el protón consta de tres unidades o quarks, cada uno de ellas de masa mucho mayor que la del protón. Esto, absurdo a primera vista, es posible a la ecuación de Einstein; al combinar los tres quarks, se irradia la mayor parte de su masa en forma de energía. Quizás todas las partículas son elementales, pero algunas son más elementales que otras, como todos los animales son iguales, pero algunos son más iguales que otros».

Texto extraído de: www.concienciadeser.es

domingo, 12 de abril de 2015

Existencia de mundos paralelos según la física cuántica

“En los conocidos universos paralelos, cada una de las ramas del universo son un montón de nuevos universos cada vez que se hace una medición cuántica”, dijo el profesor Wiseman a Phys.org. “Por lo tanto, todas las posibilidades están presentes: en algunos universos el asteroide no mató a los dinosaurios. En otros, Australia fue colonizada por los portugueses.”
Pero el profesor Wiseman también quiso destacar que otros
Howard Wiseman
científicos más críticos cuestionan la realidad de estos universos, ya que no influyen en el nuestro universo. Pero con la nueva teoría muchos mundos estarían interactuando entre sí, incluso con el nuestro, ahora mismo.

“La belleza de nuestro enfoque es que si hay un solo mundo nuestra teoría se reduce a la mecánica newtoniana, mientras que si hay un número gigantesco de mundos se reproduce a la mecánica cuántica”, explica el Dr. Hall. “El mundo que experimentamos es sólo uno de un número enorme de mundos esencialmente clásicos, y todos los fenómenos cuánticos se derivan de una fuerza universal de repulsión que impide a los mundos tener configuraciones físicas idénticas. Las probabilidades surgen sólo debido a nuestra ignorancia en cuanto a qué mundo ocupa un observador.”
El Dr. Hall también afirmó que los físicos incluso podrían ser capaces de detectar la existencia de estos otros mundos y que al modelar su existencia podrían ser capaces de explorar nuevas formas de matemáticas y física, posiblemente con implicaciones prácticas.

Y aunque esta nueva teoría parece haber cambiado la forma de ver el universo, otros muchos científicos llevan tiempo sugiriendo la existencia de universos paralelos. La teoría de muchos mundos fue propuesta por primera vez en 1957 por Hugh Everett, y a partir de ese momento se abrió la posibilidad a las múltiples existencias. El pasado septiembre el profesor Brian Cox afirmó la existencia del multiverso, un número infinito de otros universos en los cuales en este momento estarán ocurriendo todas las variaciones que podrían haber sucedido en nuestras vidas.
Texto extraído de: www.agenciaeternity.com

domingo, 29 de marzo de 2015

La física cuántica en la medicina

La mente implicada en los procesos de curación y salud.
El desarrollo de la medicina cuántica está basado en una nueva visión del hombre, en donde todo lo existente se interpreta como energía en distintas formas de manifestación. Según la medicina cuántica, en el momento que un organismo pierde su capacidad para mantener armónicamente las funciones que le corresponden aparece la enfermedad, y este mal funcionamiento mencionado, puede expresarse en cualquier tejido u órgano, por ello esta razón se dice que cada persona desarrolla una enfermedad diferente y con los síntomas habituales que la misma es capaz de manifestar.
Relación entre física y medicina
La investigación en campos como la neurociencia, la epigenética y
La medicina Occidental
Se basa en un modelo mecánico de la naturaleza. Los seres humanos son máquinas que funcionan en un universo newtoniano. Según este modelo el mundo sigue una filosofía determinista. Ahora sabemos que la verdadera naturaleza del Universo se expresa mejor a través de la física cuántica. El modelo de medicina tradicional se basa en se basa en la filosofía de Newton.
La medicina Cuántica
La medicina cuántica integra la parte física y los pensamientos como parte de un todo.  Este tipo de medicina explora la energía que alimenta nuestros órganos, glándulas y tejidos. A veces pueden darse mal funcionamiento de los órganos aún sin estos estar dañados, ya que las emociones y pensamientos pueden alterarlos.La salud para la medicina cuántica depende del equilibrio entre la parte física y emocional.
Texto extraído de: http://beonquantum.com/

domingo, 22 de marzo de 2015

Notación de Dirac

La notación bra-ket, también conocida como notación de Dirac, es la notación estándar para describir los estados cuánticos en la teoría de la mecánica cuántica. Puede también ser utilizada para denotar vectores abstractos y funcionales lineales en las matemáticas puras. Es así llamada porque el producto interior de dos estados es denotado por el "paréntesis angular" (angle bracket, en inglés), \langle\phi|\psi\rangle, consistiendo en una parte izquierda, \langle\phi|, llamada el bra, y una parte derecha, |\psi\rangle, llamada el ket.

En mecánica cuántica, el estado de un sistema físico se identifica
Paul Dirac
con un vector en el espacio de Hilbert complejo\mathcal{H}. Cada vector se llama unket, y se denota como |\psi\rangle. Cada ket |\psi\rangle tiene un bra dual, escrito como \langle\phi|, esto es una funcional lineal continua de \mathcal{H} a los números complejos C, definido como
\langle\psi|\rho\rangle = \bigg( |\psi\rangle \;,\; |\rho\rangle \bigg) para todos los kets |\rho\rangle
Donde () denota el producto interior definido en el espacio de Hilbert. La notación está justificada por el teorema de representación de Riesz, que establece que un espacio de Hilbert y su espacio dual son isométricamente isomorfos. Así, cada bra corresponde a exactamente un ket, y viceversa.
Incidentemente, la notación bra-ket puede ser utilizada incluso si el espacio vectorial no es un espacio de Hilbert. En cualquier espacio de Banach B, los vectores pueden ser notados como kets y los funcionales lineales continuos por los bras. Sobre cualquier espacio vectorial sin topología, se puede también denotar los vectores con kets y los funcionales lineales por los bras. En estos contextos más generales, el braketno tiene el significado de un producto interno, porque el teorema de representación de Riesz no se aplica.
La aplicación del bra \langle\phi| al ket |\psi\rangle da lugar a un número complejo, que se denota:
\langle\phi|\psi\rangle.
En mecánica cuántica, ésta es la amplitud de probabilidad para que el estado ψ colapse en el estado φ.

Texto extraído de: wikipedia.org

domingo, 15 de marzo de 2015

La longitud de onda de De Broglie

En el primer cuarto del siglo pasado los físicos se acostumbraron a convivir con un modelo de la luz basado en la dualidad onda-partícula. Por otro lado, también intentaron hacer modelos del electrón que estuviesen de acuerdo con los resultados experimentales, pero todos ellos fracasaron, al final de este periodo un físico francés, Louis De-Broglie presento en su tesis doctoral una hipótesis verdaderamente revolucionaria.

De-Broglie propuso la hipótesis, de que los electrones también tienen un propiedad ondulatoria
Louis de Broglie
cuando se propagan de un punto a otro, al igual que la luz. Esta hipótesis era tan revolucionaria, que difícilmente podía ser aceptada por los físicos de aquella época. El profesor de De-Broglie Henri Langevin, envió la tesis a varios distinguidos profesores de Europa para su evaluación; uno de los mas importantes era el profesor suizo de Zurich, Peter Debye quien a su vez era anfitrión del destacado físico Erwin Schrödinger. Inicialmente la tesis fue considerada como muy mala por Schrödinger, pero él después se volvió un fanático de la misma, aceptando que los electrones en efecto se propagan como ondas. Es muy interesante el hecho anecdótico, de que fue Debye quien reto a Schrödinger a buscar la ecuación matemática que gobierna el comportamiento de las ondas de De-Broglie.
La relación entre las características ondulatorias determinadas esencialmente por la longitud de onda y las características corpusculares determinadas esencialmente por el momentum, en la misma que se cumple para las ondas de luz. Esta relación es:

La hipótesis de De-Broglie permitió comprender en algún grado la validez que ocho años antes pudo tener el primer postulado de Bohr acerca de la existencia de orbitas estacionarias. Ahora en lugar de órbitas estacionarias De-Broglie introdujo la hipótesis de que la órbita del electrón contiene un múltiplo entero de longitudes de onda. De esta manera, las ondas electrónicas que se propagan alrededor del núcleo atómico tienen la característica de ser ondas estacionarias muy similares a las onda estacionarias, que se tienen digamos en una cuerda de guitarra cuando la tensión y la longitud de la misma son las adecuadas para producirlas. La nueva interpretación de las condiciones de cuantización en términos de ondas es por supuesto muchísimo mas satisfactoria que la simple condición de Bohr. Se podía incluso seguir aceptando la valides de la teoría electromagnética de Maxwell a la escala atómica, cosa que resultaba muy atrayente. 

Texto extraído de: http://www.virtual.unal.edu.co/

domingo, 8 de marzo de 2015

Explicación al principio de incertidumbre de Heisenberg

La explicación "divulgativa" tradicional del principio de incertidumbre afirma que las variables dinámicas como posición, momento angular, momento lineal, etc. se definen de manera operacional, esto es, en términos relativos al procedimiento experimental por medio del cual son medidas: la posición se definirá con respecto a un sistema de referencia determinado, definiendo el instrumento de medida empleado y el modo en que tal instrumento se usa (por ejemplo, midiendo con una regla la distancia que hay de tal punto a la referencias ).

Warner Heisenberg
Sin embargo, cuando se examinan los procedimientos experimentales por medio de los cuales podrían medirse tales variables en microfísica, resulta que la medida siempre acabará perturbada por el propio sistema de medición. En efecto, si por ejemplo pensamos en lo que sería la medida de la posición y velocidad de un electrón, para realizar la medida (para poder "ver" de algún modo el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.

Esta descripción cualitativa del principio, sin ser totalmente incorrecta, es engañosa en tanto que omite el principal aspecto del principio de incertidumbre: el principio de incertidumbre establece un límite más allá del cuál los conceptos de la física clásica no se pueden emplear. La física clásica concibe sistemas físicos descritos por medio de variables perfectamente definidas en el tiempo (velocidad, posición,...) y que en principio pueden conocerse con la precisión que se desee. Aunque en la práctica resultara imposible determinar la posición de una partícula con una precisión infinitesimal, la física clásica concibe tal precisión como alcanzable: es posible y perfectamente concebible afirmar que tal o cual partícula, en el instante de tiempo exacto 2 s, estaba en la posición exacta 1,57 m. En cambio, el principio de incertidumbre, al afirmar que existe un límite fundamental a la precisión de la medida, en realidad está indicando que si un sistema físico real se describe en términos de la física clásica, entonces se está haciendo una aproximación, y la relación de incertidumbre nos indica la calidad de esa aproximación.

Por motivos culturales y educativos, las personas se suelen enfrentar al principio de incertidumbre por primera vez estando condicionadas por el determinismo de la física clásica. En ella, la posición x de una partícula puede ser definida como una función continua en el tiempo, x=x(t). Si la masa de esa partícula es m y se mueve a velocidades suficientemente inferiores a la de la luz, entonces el momento lineal de la partícula se define como masa por velocidad, siendo la velocidad la primera derivada en el tiempo de la posición:  p=m \frac{dx}{dt}.

Dicho esto, atendiendo a la explicación habitual del principio de incertidumbre, podría resultar tentador creer que la relación de incertidumbre simplemente establece una limitación sobre nuestra capacidad de medida que nos impide conocer con precisión arbitraria la posición inicial  x(0)  y el momento lineal inicial  p(0)  . Ocurre que si pudiéramos conocer  x(0)  y  p(0)  , entonces la física clásica nos ofrecería la posición y la velocidad de la partícula en cualquier otro instante; la solución general de las ecuaciones de movimiento dependerá invariablemente de  x(0) y  p(0)  . Esto es, resolver las ecuaciones del movimiento lleva a una familia o conjunto de trayectorias dependientes de  x(0)  y  p(0)  ; según qué valor tomen  x(0)  y  p(0)  , se tendrá una trayectoria dentro de esa familia u otra, pero la propia resolución de las ecuaciones limita el número de trayectorias a un conjunto determinado de ellas. Según se ha razonado, de acuerdo con el principio de incertidumbre  x(0)  y  p(0)  no se pueden conocer exactamente, así que tampoco podrán conocerse  x(t)  y  p(t)  en cualquier otro instante con una precisión arbitraria, y la trayectoria que seguirá la partícula no podrá conocerse de manera absolutamente exacta. Este razonamiento es, sin embargo, incorrecto, pues en él subyace la idea de que, pese a que  x(0)  y  p(0)  no se pueden conocer exactamente, es posible continuar usando la descripción clásica en virtud de la cual una partícula seguirá una trayectoria definida por la solución general de las ecuaciones de movimiento, introduciendo la noción añadida de que las condiciones iniciales  x(0)  y  p(0)  no pueden conocerse al detalle: esto es, no podemos conocer exactamente qué trayectoria va a seguir la partícula, pero estaremos aceptando que, de facto, va a seguir una.


Esta forma de proceder es, sin embargo, totalmente incorrecta: el principio de incertidumbre conlleva un desvío completo de las concepciones clásicas, haciendo que la noción clásica de trayectoria debe ser desechada: preguntar cuáles son simultáneamente los valores de  x(t)  y  p(t)  es un absurdo. Así dicho, podría resultar paradójico que primero se establezca una relación de incertidumbre en términos de posición  x  y momento lineal  p  , para luego afirmar que  x  y  p  , que aparecen en dicha relación, no tienen sentido: si no tienen sentido, ¿qué sentido puede tener una relación que las emplee? Ocurre que, en física cuántica, es posible introducir una serie de entidades matemáticas  x  y  p  que se correspondan en muchos aspectos con la posición y el momento clásicos. Dichas entidades no son, no obstante, exactamente iguales a la posición y el momento clásicos: el principio de incertidumbre sencillamente indica que si interpretamos esas entidades como posición y momento lineal -y por tanto interpretamos el movimiento de una forma clásica-, entonces existe un límite fundamental en la precisión con que dichas variables pueden ser conocidas; esto es, si intentamos introducir variables clásicas e intentamos interpretar el movimiento de forma clásica, la precisión con que estas variables pueden ser especificadas está limitada.

Texto extraído de: http://es.wikipedia.org/

domingo, 1 de marzo de 2015

El origen de la constante de Planck

 El camino que llevó a Max Planck a su constante tuvo su origen en un proyecto que comenzó con un cuarto de siglo de anterioridad, la teoría sobre «la ley de distribución de energía del espectro normal». En él estudiaba la radiación térmica emitida por un cuerpo debido a su temperatura. En esta teoría se introdujo en 1862 el concepto de cuerpo negro, cuya superficie absorbe toda la radiación térmica que incide sobre él y que además emite la radiación térmica con el mismo espectro a la misma temperatura.

Sin embargo, un estudio experimental del cuerpo negro condujo a una discrepancia entre los resultados experimentales y los obtenidos aplicando las leyes de la Física clásica. Según la ley de Stefan-Boltzmann, la radiancia espectral de los cuerpos aumenta rápidamente con la cuarta potencia de la temperatura y, además, se desplaza hacia frecuencias mayores (ley de desplazamiento de Wien). El problema surgió al calcular la energía absorbida por el cuerpo negro a una temperatura dada mediante el teorema de la
Max Planck
equipartición de energía, pues a medida que la frecuencia crecía la predicción teórica tendía a infinito mientras que los experimentos mostraban que la densidad de energía siempre es finita y tiende a cero para frecuencias muy altas. Este comportamiento irreal de las teorías clásicas a las altas frecuencias es conocido como «catástrofe ultravioleta». Planck estaba interesado en dar sentido a este dilema; para lograrlo, decidió considerar la energía absorbida y emitida por el cuerpo negro en forma de «paquetes» discretos. Al realizar los cálculos de acuerdo con este procedimiento, y mediante un trabajo numérico, obtuvo una buena concordancia entre los resultados experimentales y los teóricos, introduciendo una constante que posteriormente fue conocida como la constante de Planck (h).


El trabajo de Planck supuso el comienzo de la mecánica cuántica (MC), lo que llevó consigo un cambio de mentalidad en la manera de comprender los fenómenos de la naturaleza a escala atómica. El siguiente paso vino de la mano de Albert Einstein que, de manera análoga a Planck, planteó la absorción de luz por un metal de forma discreta, a cuantos, y su correspondiente emisión de electrones, en el efecto fotoeléctrico. Otro paso dado a comienzos del siglo XX fue el obtenido con el modelo del átomo de Bohr y sus postulados, revolucionando el concepto del átomo; en él interviene este nuevo concepto de la emisión y absorción de la luz por la materia de manera discreta. Por último, también hay una relación de la teoría de Planck y su constante con el principio de indeterminación de Heisenberg.

Texto extraído de: http://es.wikipedia.org/

domingo, 22 de febrero de 2015

Ecuación de Schrödinger

En 1926, el físico austríaco Erwin Schrödinger derivó una ecuación de ondas desde el principio variacional de Hamilton inspirándose en la analogía existente entre la Mecánica y la Óptica. Esta ecuación, cuya formulación se puede ver en el artículo An Undulatory Theory of the Mechanics of Atoms and Molecules de la revista Physical Review, explicaba mucha de la fenomenología cuántica que se conocía en aquel momento.

Aunque estaba claro que esta ecuación describía la evolución
Erwin Schrodinger
temporal del estado cuántico de un sistema físico no relativista, fue pocos días después de su publicación cuando el físico alemán Max Born desarrolló la interpretación probabilista del objeto principal de la ecuación, la función de onda, que sigue vigente hoy en día ya que entró a formar parte de la llamada interpretación de Copenhague de la Mecánica Cuántica, con la que Schrodinger nunca estuvo del todo de acuerdo. Sus ambiciones al abordar la tarea eran encontrar, en analogía con la Óptica, el límite en el cual se pudieran describir de forma determinista las trayectorias de las partículas. Llegó a proponer una interpretación de la función de onda como densidad de carga que no fructificó. En este sentido Schrödinger fue, al igual que Einstein, profeta y hereje de la teoría cuántica.


El desarrollo que haremos aquí no es el histórico. Partiremos de principios de simetría apoyados en el teorema de Wigner, físico húngaro artífice entre otros de la llamada interpretación ortodoxa de la Mecánica Cuántica, para llegar a una formulación general que devenirá la original de Schrödinger cuando nos ocupemos de la representación en el llamado espacio de posiciones.

domingo, 15 de febrero de 2015

"La física cuántica demuestra que hay vida después de la muerte"

Hay vida después de la muerte, y la muerte es una ilusión creada por nuestra conciencia. Un científico estadounidense ha encontrado pruebas de esta teoría en la física cuántica.
"Creemos que la vida es solo la actividad del carbono y una mezcla de moléculas; vivimos un tiempo y después nos pudrimos bajo tierra", escribió el doctor en medicina Robert Lanza, citado por el diario británico 'Daily Mail'.

Robert Lanza
Este profesor de la Escuela de Medicina de la Universidad Wake Forest de Carolina del Norte argumentó que los humanos creemos en la muerte porque "nos han enseñado a creer que morimos"; es decir, nuestra conciencia asocia la vida con el cuerpo, y sabemos que el cuerpo muere. 


Su teoría, denominada 'biocentrismo' o 'universo de la biocéntrica', explica que la muerte no puede ser tan terminal como creemos. Según esta teoría, la biología y la vida originan la realidad y el universo, y no a la inversa.

De eso se desprende que la conciencia determina la forma y el tamaño de los objetos del universo.

Para dar un ejemplo, Lanza se centra en cómo percibimos el mundo que nos rodea. Una persona ve el cielo azul y le dicen que ese color es el 'azul', "pero se pueden cambiar las células de su cerebro para que vea el cielo de color verde o rojo".

Nuestra conciencia da sentido al mundo y puede ser alterada para cambiar nuestra interpretación. Desde el punto de vista de la biocéntrica, el espacio y el tiempo no se comportan de manera tan rígida ni tan rápida como nos presenta nuestra conciencia.

Si aceptamos la teoría de que el espacio y el tiempo simplemente son 'herramientas de nuestra mente', entonces la muerte y la idea de la inmortalidad existen en un mundo sin límites espaciales ni lineales. 

Los físicos teóricos creen que hay una cantidad infinita de universos en los que diversas variaciones de personas y situaciones existen y ocurren simultáneamente.

Lanza afirma que todo lo que puede suceder sucede en algún momento en todos estos 'multiversos' (los múltiples universos posibles), lo que significa que la muerte no puede existir "en un sentido real".

Según Lanza, que participó en los primeros experimentos de clonación, cuando morimos nuestra vida se convierte en una "flor perenne que vuelve a florecer en el multiverso".

Para corroborar su teoría, el científico citó un experimento conocido como 'experimento de la doble rendija', que demuestra que la percepción humana participa en el comportamiento de la materia y la energía.   

Fuente del artículo: http://actualidad.rt.com/

domingo, 8 de febrero de 2015

El modelo atómico de Bohr

Las primeras aportaciones relevantes de Bohr a la Física contemporánea tuvieron lugar en 1913, cuando, para afrontar los problemas con que había topado su maestro y amigo Rutherford, afirmó que los movimientos internos que tienen lugar en el átomo están regidos por leyes particulares, ajenas a las de la física tradicional. Al hilo de  esta afirmación, Bohr observó también que los electrones, cuando se hallan en ciertos estados estacionarios, dejan de irradiar energía.

Niels Bohr
En realidad, Rutherford había vislumbrado un átomo de hidrógeno conformado por un protón (es decir, una carga positiva central) y un partícula negativa que giraría alrededor de dicho protón de un modo semejante al desplazamiento descrito por los planetas en sus órbitas en torno al sol. Pero esta teoría contravenía las leyes de la física tradicional, puesto que, a tenor de lo conocido hasta entonces, una carga eléctrica en movimiento tenía que irradiar energía, y, por lo tanto, el átomo no podría ser estable. 

Niels Bohr aceptó, en parte, la teoría atómica de Rutherford, pero la superó combinándolo con las teorías cuánticas de Max Planck (1858-1947). En los tres artículos que publicó en el Philosophical Magazine en 1913, Bohr enunció cuatro postulados: 1) Un átomo posee un determinado número de órbitas estacionarias, en las cuales los electrones no radian ni absorben energía, aunque estén en movimiento. 2) El electrón gira alrededor de su núcleo de tal forma que la fuerza centrífuga sirve para equilibrar con exactitud la atracción electrostática de las cargas opuestas. 3) El momento angular del electrón en un estado estacionario es un múltiplo de h / 2p (donde h es la constante cuántica universal de Planck).

Según el cuarto postulado, cuando un electrón pasa de un estado estacionario de más energía a otro de menos (y, por ende, más cercano al núcleo), la variación de energía se emite en forma de un cuanto de radiación electromagnética (es decir, un fotón). Y, a la inversa, un electrón sólo interacciona con un fotón cuya energía le permita pasar de un estado estacionario a otro de mayor energía.

Dicho de otro modo, la radiación o absorción de energía sólo tiene lugar cuando un electrón pasa de una órbita de mayor (o menor) energía a otra de menor (o mayor), que se encuentra más cercana (o alejada) respecto al núcleo. La frecuencia f de la radiación emitida o absorbida viene determinada por la relación: E1 - E2 = hf, donde E1 y E2 son las energías correspondientes a las órbitas de tránsito del electrón. Merced a este último y más complejo postulado, Bohr pudo explicar por qué, por ejemplo, los átomos de hidrógeno ceden distintivas longitudes de onda de luz, que aparecen en el espectro del hidrógeno como una distribución fija de líneas de luz conocida como serie de Balmer.

En un principio, el modelo atómico propuesto por Bohr desconcertó a la mayor parte de los científicos de todo el mundo. Su manera de explicar la estructura de un átomo era hacer caso omiso (al menos en ciertas partes pequeñas del átomo) de un principio aceptado de la física. La teoría atómica de Bohr parecía casi un timo: inventar un modelo simplemente por el hecho de que podría funcionar bien. Pero, a raíz de que su colega y maestro Rutherford le felicitara efusivamente por estos postulados, numerosos investigadores del Centro y el Norte de Europa comenzaron a interesarse por las ideas del físico danés, y algunos de ellos, como los alemanes James Franck (1882-1964) y Gustav Hertz (1887-1975), proporcionaron nuevos datos que confirmaban la validez del modelo de Bohr.


La teoría atómica de Bohr se aplicó, en efecto, al estudio del átomo de hidrógeno, aunque enseguida pudo generalizarse a otros elementos superiores, gracias a la amplitud y el desarrollo que le proporcionó el trabajo de Arnold Sommerfeld (1868-1951), que mejoró el modelo del danés para explicar la estructura fina del espectro. De ahí que los postulados lanzados por Niels Bohr en 1913 puedan considerarse como las bases en que se sustenta la física nuclear contemporánea.

Texto extraído de: http://www.biografiasyvidas.com/

domingo, 1 de febrero de 2015

Origen de la física cuántica

La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física. Comienza a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar ciertos fenómenos, la ley de gravitación universal y la teoría electromagnética clásica, se volvían insuficientes para esclarecerlos. La teoría electromagnética generaba un problema cuando intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica tendía al infinito si se suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos.

Albert Einstein
Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo que después era medido.

Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante una constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.

La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera
retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en 1905 las correspondientes leyes de movimiento en su teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado en llamar física clásica, es decir, la física no-cuántica.

Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa de un cuerpo.

El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa, y dada por su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia», cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.

La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.

Texto extraído de: http://es.wikipedia.org/