domingo, 29 de marzo de 2015

La física cuántica en la medicina

La mente implicada en los procesos de curación y salud.
El desarrollo de la medicina cuántica está basado en una nueva visión del hombre, en donde todo lo existente se interpreta como energía en distintas formas de manifestación. Según la medicina cuántica, en el momento que un organismo pierde su capacidad para mantener armónicamente las funciones que le corresponden aparece la enfermedad, y este mal funcionamiento mencionado, puede expresarse en cualquier tejido u órgano, por ello esta razón se dice que cada persona desarrolla una enfermedad diferente y con los síntomas habituales que la misma es capaz de manifestar.
Relación entre física y medicina
La investigación en campos como la neurociencia, la epigenética y
La medicina Occidental
Se basa en un modelo mecánico de la naturaleza. Los seres humanos son máquinas que funcionan en un universo newtoniano. Según este modelo el mundo sigue una filosofía determinista. Ahora sabemos que la verdadera naturaleza del Universo se expresa mejor a través de la física cuántica. El modelo de medicina tradicional se basa en se basa en la filosofía de Newton.
La medicina Cuántica
La medicina cuántica integra la parte física y los pensamientos como parte de un todo.  Este tipo de medicina explora la energía que alimenta nuestros órganos, glándulas y tejidos. A veces pueden darse mal funcionamiento de los órganos aún sin estos estar dañados, ya que las emociones y pensamientos pueden alterarlos.La salud para la medicina cuántica depende del equilibrio entre la parte física y emocional.
Texto extraído de: http://beonquantum.com/

domingo, 22 de marzo de 2015

Notación de Dirac

La notación bra-ket, también conocida como notación de Dirac, es la notación estándar para describir los estados cuánticos en la teoría de la mecánica cuántica. Puede también ser utilizada para denotar vectores abstractos y funcionales lineales en las matemáticas puras. Es así llamada porque el producto interior de dos estados es denotado por el "paréntesis angular" (angle bracket, en inglés), \langle\phi|\psi\rangle, consistiendo en una parte izquierda, \langle\phi|, llamada el bra, y una parte derecha, |\psi\rangle, llamada el ket.

En mecánica cuántica, el estado de un sistema físico se identifica
Paul Dirac
con un vector en el espacio de Hilbert complejo\mathcal{H}. Cada vector se llama unket, y se denota como |\psi\rangle. Cada ket |\psi\rangle tiene un bra dual, escrito como \langle\phi|, esto es una funcional lineal continua de \mathcal{H} a los números complejos C, definido como
\langle\psi|\rho\rangle = \bigg( |\psi\rangle \;,\; |\rho\rangle \bigg) para todos los kets |\rho\rangle
Donde () denota el producto interior definido en el espacio de Hilbert. La notación está justificada por el teorema de representación de Riesz, que establece que un espacio de Hilbert y su espacio dual son isométricamente isomorfos. Así, cada bra corresponde a exactamente un ket, y viceversa.
Incidentemente, la notación bra-ket puede ser utilizada incluso si el espacio vectorial no es un espacio de Hilbert. En cualquier espacio de Banach B, los vectores pueden ser notados como kets y los funcionales lineales continuos por los bras. Sobre cualquier espacio vectorial sin topología, se puede también denotar los vectores con kets y los funcionales lineales por los bras. En estos contextos más generales, el braketno tiene el significado de un producto interno, porque el teorema de representación de Riesz no se aplica.
La aplicación del bra \langle\phi| al ket |\psi\rangle da lugar a un número complejo, que se denota:
\langle\phi|\psi\rangle.
En mecánica cuántica, ésta es la amplitud de probabilidad para que el estado ψ colapse en el estado φ.

Texto extraído de: wikipedia.org

domingo, 15 de marzo de 2015

La longitud de onda de De Broglie

En el primer cuarto del siglo pasado los físicos se acostumbraron a convivir con un modelo de la luz basado en la dualidad onda-partícula. Por otro lado, también intentaron hacer modelos del electrón que estuviesen de acuerdo con los resultados experimentales, pero todos ellos fracasaron, al final de este periodo un físico francés, Louis De-Broglie presento en su tesis doctoral una hipótesis verdaderamente revolucionaria.

De-Broglie propuso la hipótesis, de que los electrones también tienen un propiedad ondulatoria
Louis de Broglie
cuando se propagan de un punto a otro, al igual que la luz. Esta hipótesis era tan revolucionaria, que difícilmente podía ser aceptada por los físicos de aquella época. El profesor de De-Broglie Henri Langevin, envió la tesis a varios distinguidos profesores de Europa para su evaluación; uno de los mas importantes era el profesor suizo de Zurich, Peter Debye quien a su vez era anfitrión del destacado físico Erwin Schrödinger. Inicialmente la tesis fue considerada como muy mala por Schrödinger, pero él después se volvió un fanático de la misma, aceptando que los electrones en efecto se propagan como ondas. Es muy interesante el hecho anecdótico, de que fue Debye quien reto a Schrödinger a buscar la ecuación matemática que gobierna el comportamiento de las ondas de De-Broglie.
La relación entre las características ondulatorias determinadas esencialmente por la longitud de onda y las características corpusculares determinadas esencialmente por el momentum, en la misma que se cumple para las ondas de luz. Esta relación es:

La hipótesis de De-Broglie permitió comprender en algún grado la validez que ocho años antes pudo tener el primer postulado de Bohr acerca de la existencia de orbitas estacionarias. Ahora en lugar de órbitas estacionarias De-Broglie introdujo la hipótesis de que la órbita del electrón contiene un múltiplo entero de longitudes de onda. De esta manera, las ondas electrónicas que se propagan alrededor del núcleo atómico tienen la característica de ser ondas estacionarias muy similares a las onda estacionarias, que se tienen digamos en una cuerda de guitarra cuando la tensión y la longitud de la misma son las adecuadas para producirlas. La nueva interpretación de las condiciones de cuantización en términos de ondas es por supuesto muchísimo mas satisfactoria que la simple condición de Bohr. Se podía incluso seguir aceptando la valides de la teoría electromagnética de Maxwell a la escala atómica, cosa que resultaba muy atrayente. 

Texto extraído de: http://www.virtual.unal.edu.co/

domingo, 8 de marzo de 2015

Explicación al principio de incertidumbre de Heisenberg

La explicación "divulgativa" tradicional del principio de incertidumbre afirma que las variables dinámicas como posición, momento angular, momento lineal, etc. se definen de manera operacional, esto es, en términos relativos al procedimiento experimental por medio del cual son medidas: la posición se definirá con respecto a un sistema de referencia determinado, definiendo el instrumento de medida empleado y el modo en que tal instrumento se usa (por ejemplo, midiendo con una regla la distancia que hay de tal punto a la referencias ).

Warner Heisenberg
Sin embargo, cuando se examinan los procedimientos experimentales por medio de los cuales podrían medirse tales variables en microfísica, resulta que la medida siempre acabará perturbada por el propio sistema de medición. En efecto, si por ejemplo pensamos en lo que sería la medida de la posición y velocidad de un electrón, para realizar la medida (para poder "ver" de algún modo el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.

Esta descripción cualitativa del principio, sin ser totalmente incorrecta, es engañosa en tanto que omite el principal aspecto del principio de incertidumbre: el principio de incertidumbre establece un límite más allá del cuál los conceptos de la física clásica no se pueden emplear. La física clásica concibe sistemas físicos descritos por medio de variables perfectamente definidas en el tiempo (velocidad, posición,...) y que en principio pueden conocerse con la precisión que se desee. Aunque en la práctica resultara imposible determinar la posición de una partícula con una precisión infinitesimal, la física clásica concibe tal precisión como alcanzable: es posible y perfectamente concebible afirmar que tal o cual partícula, en el instante de tiempo exacto 2 s, estaba en la posición exacta 1,57 m. En cambio, el principio de incertidumbre, al afirmar que existe un límite fundamental a la precisión de la medida, en realidad está indicando que si un sistema físico real se describe en términos de la física clásica, entonces se está haciendo una aproximación, y la relación de incertidumbre nos indica la calidad de esa aproximación.

Por motivos culturales y educativos, las personas se suelen enfrentar al principio de incertidumbre por primera vez estando condicionadas por el determinismo de la física clásica. En ella, la posición x de una partícula puede ser definida como una función continua en el tiempo, x=x(t). Si la masa de esa partícula es m y se mueve a velocidades suficientemente inferiores a la de la luz, entonces el momento lineal de la partícula se define como masa por velocidad, siendo la velocidad la primera derivada en el tiempo de la posición:  p=m \frac{dx}{dt}.

Dicho esto, atendiendo a la explicación habitual del principio de incertidumbre, podría resultar tentador creer que la relación de incertidumbre simplemente establece una limitación sobre nuestra capacidad de medida que nos impide conocer con precisión arbitraria la posición inicial  x(0)  y el momento lineal inicial  p(0)  . Ocurre que si pudiéramos conocer  x(0)  y  p(0)  , entonces la física clásica nos ofrecería la posición y la velocidad de la partícula en cualquier otro instante; la solución general de las ecuaciones de movimiento dependerá invariablemente de  x(0) y  p(0)  . Esto es, resolver las ecuaciones del movimiento lleva a una familia o conjunto de trayectorias dependientes de  x(0)  y  p(0)  ; según qué valor tomen  x(0)  y  p(0)  , se tendrá una trayectoria dentro de esa familia u otra, pero la propia resolución de las ecuaciones limita el número de trayectorias a un conjunto determinado de ellas. Según se ha razonado, de acuerdo con el principio de incertidumbre  x(0)  y  p(0)  no se pueden conocer exactamente, así que tampoco podrán conocerse  x(t)  y  p(t)  en cualquier otro instante con una precisión arbitraria, y la trayectoria que seguirá la partícula no podrá conocerse de manera absolutamente exacta. Este razonamiento es, sin embargo, incorrecto, pues en él subyace la idea de que, pese a que  x(0)  y  p(0)  no se pueden conocer exactamente, es posible continuar usando la descripción clásica en virtud de la cual una partícula seguirá una trayectoria definida por la solución general de las ecuaciones de movimiento, introduciendo la noción añadida de que las condiciones iniciales  x(0)  y  p(0)  no pueden conocerse al detalle: esto es, no podemos conocer exactamente qué trayectoria va a seguir la partícula, pero estaremos aceptando que, de facto, va a seguir una.


Esta forma de proceder es, sin embargo, totalmente incorrecta: el principio de incertidumbre conlleva un desvío completo de las concepciones clásicas, haciendo que la noción clásica de trayectoria debe ser desechada: preguntar cuáles son simultáneamente los valores de  x(t)  y  p(t)  es un absurdo. Así dicho, podría resultar paradójico que primero se establezca una relación de incertidumbre en términos de posición  x  y momento lineal  p  , para luego afirmar que  x  y  p  , que aparecen en dicha relación, no tienen sentido: si no tienen sentido, ¿qué sentido puede tener una relación que las emplee? Ocurre que, en física cuántica, es posible introducir una serie de entidades matemáticas  x  y  p  que se correspondan en muchos aspectos con la posición y el momento clásicos. Dichas entidades no son, no obstante, exactamente iguales a la posición y el momento clásicos: el principio de incertidumbre sencillamente indica que si interpretamos esas entidades como posición y momento lineal -y por tanto interpretamos el movimiento de una forma clásica-, entonces existe un límite fundamental en la precisión con que dichas variables pueden ser conocidas; esto es, si intentamos introducir variables clásicas e intentamos interpretar el movimiento de forma clásica, la precisión con que estas variables pueden ser especificadas está limitada.

Texto extraído de: http://es.wikipedia.org/

domingo, 1 de marzo de 2015

El origen de la constante de Planck

 El camino que llevó a Max Planck a su constante tuvo su origen en un proyecto que comenzó con un cuarto de siglo de anterioridad, la teoría sobre «la ley de distribución de energía del espectro normal». En él estudiaba la radiación térmica emitida por un cuerpo debido a su temperatura. En esta teoría se introdujo en 1862 el concepto de cuerpo negro, cuya superficie absorbe toda la radiación térmica que incide sobre él y que además emite la radiación térmica con el mismo espectro a la misma temperatura.

Sin embargo, un estudio experimental del cuerpo negro condujo a una discrepancia entre los resultados experimentales y los obtenidos aplicando las leyes de la Física clásica. Según la ley de Stefan-Boltzmann, la radiancia espectral de los cuerpos aumenta rápidamente con la cuarta potencia de la temperatura y, además, se desplaza hacia frecuencias mayores (ley de desplazamiento de Wien). El problema surgió al calcular la energía absorbida por el cuerpo negro a una temperatura dada mediante el teorema de la
Max Planck
equipartición de energía, pues a medida que la frecuencia crecía la predicción teórica tendía a infinito mientras que los experimentos mostraban que la densidad de energía siempre es finita y tiende a cero para frecuencias muy altas. Este comportamiento irreal de las teorías clásicas a las altas frecuencias es conocido como «catástrofe ultravioleta». Planck estaba interesado en dar sentido a este dilema; para lograrlo, decidió considerar la energía absorbida y emitida por el cuerpo negro en forma de «paquetes» discretos. Al realizar los cálculos de acuerdo con este procedimiento, y mediante un trabajo numérico, obtuvo una buena concordancia entre los resultados experimentales y los teóricos, introduciendo una constante que posteriormente fue conocida como la constante de Planck (h).


El trabajo de Planck supuso el comienzo de la mecánica cuántica (MC), lo que llevó consigo un cambio de mentalidad en la manera de comprender los fenómenos de la naturaleza a escala atómica. El siguiente paso vino de la mano de Albert Einstein que, de manera análoga a Planck, planteó la absorción de luz por un metal de forma discreta, a cuantos, y su correspondiente emisión de electrones, en el efecto fotoeléctrico. Otro paso dado a comienzos del siglo XX fue el obtenido con el modelo del átomo de Bohr y sus postulados, revolucionando el concepto del átomo; en él interviene este nuevo concepto de la emisión y absorción de la luz por la materia de manera discreta. Por último, también hay una relación de la teoría de Planck y su constante con el principio de indeterminación de Heisenberg.

Texto extraído de: http://es.wikipedia.org/