Sobre la piel (cuento científico)

"El desconsol" Josep Llimona

“El desconsol” Josep Llimona

Aquella noche la sala era muy diferente. Hacía unas horas, bajo la lluvia, había tocado fondo. Sobre la mesa helada, donde en tantas ocasiones había colocado el detector de radiación, estábamos yo y mis miserias. No había alumnos a quienes describir lo que pasaba en ese tubo, cómo se generaban los rayos X que pronto atravesarían impasibles mi cuerpo. El diagnóstico sería la llave que me encerrase de forma definitiva en el infierno en el que me hallaba. El dolor insoportable que me impedía adoptar la posición correcta, daba demasiadas pistas de lo que encontrarían los malditos fotones. O mejor dicho, de lo que no encontrarían, porque ya no había húmero en el que quedar absorbidos. La sentencia era clara: habría que intervenir antes de que se soldasen los fragmentos en los que se había convertido mi hombro. Hasta entonces, mientras no hubiese habitación disponible, me colocarían en una zona común junto a varias camillas con pacientes en mi misma situación.

El tiempo se había detenido. No podía moverme ni un centímetro y retumbaban en mi cabeza palabras como prótesis, placa metálica, clavos… No tenía ganas de seguir ni de hacer frente a nada más. Llovía a cántaros en la calle y mi cama, poco a poco se empapaba de angustia. De pequeña me daba miedo la oscuridad, temía los ruidos nocturnos y los posibles fantasmas que tuviesen a bien hacerme una visita. Nunca sospeché que los verdaderos monstruos podían instalarse en la mente o aparecer, en medio de la calle, un domingo cualquiera. En aquella cama, la pesadilla era demasiado real.

La operación entrañaba gran dificultad. Tenían que reconstruir el húmero injertando material inerte y recubrirlo con una placa. Si todo iba bien, podría hacer una vida más o menos normal, aunque sin recuperar la movilidad por completo. También debía estar preparada a tener que someterme más adelante a una segunda operación. Aún así, se suponía que, como persona razonable, debía estar satisfecha de tener opciones y no quedarme inválida como ocurría tiempo atrás. Pero en aquel momento sólo sentía que no quería estar allí, que no era justo que en un instante y de la manera más absurda, se hubiese abierto un abismo.

Afortunadamente, el cirujano hizo una obra de arte tal que me puso en un aprieto. Ya no tenía excusa para dejarme caer en la desesperación, quizá había llegado el momento de tomar las riendas y aprovechar la ayuda que me habían brindado. Pero una semana más tarde, pese al éxito de la operación, el brazo estaba demasiado hinchado. Empezaba las sesiones con la fisioterapeuta que, tras el susto inicial al ver mi estado, se puso manos a la obra. Transmitía seguridad y su sonrisa eliminaba los nubarrones que se mantenían al acecho.

Calándome desde el principio, me explicó con detalle la utilidad de cada uno de los ejercicios que íbamos incorporando. Mi cuerpo se convirtió en una máquina compleja, repleta de física, que quería conocer. Mientras llevaba a cabo los diferentes movimientos pensaba en cómo estaban trabajando por dentro mis músculos, tendones y huesos, en su danza mecánica. Me había convertido en mi propio trabajo de investigación y me reconfortaba que la esperanza tuviese una base científica. Resultaba estimulante que la posible mejoría pudiese fundamentarse en certezas.

Luché día a día por vencer mi propia oscuridad y concentrarme en la asignatura que me había impuesto, en la que debía obtener la máxima nota. Y fue terriblemente duro. Muchas veces, demasiadas, sentí ganas de tirar la toalla. Pero lo logré y, con gran asombro y una tremenda alegría por parte de la fisioterapeuta, recuperé la movilidad totalmente y, con ello, puse en jaque a otro diablo interior que casi me había destruido.

Cuando la gente me pregunta sobre la importancia de la investigación, sobre cómo contribuye en mejorar nuestra calidad de vida, no necesito grandes argumentos. Ni siquiera tengo que explicar la importancia y utilidad que le doy al aumento y la búsqueda de conocimientos. Llevo tatuada la respuesta en una fina línea sobre la piel.

Pablo Gargallo

Pablo Gargallo

“Esta entrada participa en el I Certamen de Cuentos de Ciencia organizado por el blog Cuantos y cuerdas

BkeT--fIUAA3LHW

Publicado en Uncategorized | Etiquetado | 11 comentarios

Radiactivo Man en “Las radiaciones ionizantes en los hospitales”

RM destacada La entrada original es una colaboración con Desayuno con fotones

PACIENTE 1: ¿Está dormido?

RADIACTIVO MAN: Ahora ya no.

PACIENTE 1: Estoy cansado de esperar y puede que aún tarden mucho en atendernos. ¿Qué le ha pasado?

RADIACTIVO MAN: Salí… me caí por la ventana.  

PACIENTE 1: Le harán una placa para ver si se ha roto algo. Yo no sé si es verdad, pero el compañero de trabajo de la novia del primo de un amigo de mi hijo dice que son muy peligrosas, que son radiactivas.

RADIACTIVO MAN: Aclaremos las cosas. Visto que necesitan de mi inconmensurable talento, voy a divulgarles.

PACIENTE 1: ¿Va a qué?

RADIACTIVO MAN: Aparte de superhéroe soy divulgador y voy a explicarles los diferentes tipos de radiaciones ionizantes que se emplean en los hospitales.

PACIENTE 2: Enfermera, ¿el de psiquiatría se hará la prueba antes que yo?

RM&HMR-3

RADIACTIVO MAN: Empecemos el recorrido por el servicio de Radiodiagnóstico, que es el que todos conocemos mejor. Quien más o quien menos, se ha dado un porrazo alguna vez y le han tenido que hacer una radiografía. Así pues, el objetivo del radiodiagnóstico es proporcionar imágenes anatómicas de calidad suficiente para poder realizar un diagnóstico con la menor dosis posible. La diferente absorción que presentan las estructuras internas del paciente respecto a la radiación generada en el equipo de rayos X hace posible la obtención de la imagen.

El tubo de rayos X del equipo constituye la fuente de radiación ionizante y está formado por una envoltura (generalmente de cristal) en cuyo interior se sitúan dos electrodos: el cátodo y el ánodo. Cuando se hace el disparo, el generador aplica una tensión de unos pocos voltios a un filamento de tungsteno situado en el cátodo, que al calentarse libera electrones por efecto termoiónico. A continuación, los electrones son acelerados mediante alta tensión hacia un blanco situado en el ánodo, de metal pesado, contra el que acaban estrellándose. En el choque, los electrones pueden interaccionar con los electrones de los átomos del ánodo generando radiación característica o pueden frenarse y desviarse de su trayectoria debido a la atracción electrostática del núcleo, emitiendo radiación de frenado. El 99 % de la energía de la interacción del electrón con el ánodo se convierte en calor mientras que sólo el 1% lo hace en rayos X.

Las estructuras a diagnosticar presentan gran variedad al igual que los objetivos que se persiguen en cada imagen. Esto ha dado lugar a procedimientos diferentes que emplean una amplia gama de equipamiento radiológico. Veamos algunos de ellos:

El equipo de radiografía convencional consta de un tablero radiotransparente rígido, fijo o flotante, que está asociado a elementos electromecánicos que dan movilidad al tubo de rayos y al conjunto colimador. Los más comunes son los formados por una columna que se desliza por railes fijos al suelo, o al suelo y al techo, de modo que permite el desplazamiento longitudinal del tubo a lo largo de la mesa. También es posible suspender el tubo de rayos X del techo, de manera que los desplazamientos puedan realizarse en los tres ejes. Esta opción es especialmente recomendable en las salas de urgencia y en traumatología ya que posibilita la obtención de radiografías con el tubo en casi cualquier parte del espacio de la sala.

El mamógrafo se usa para exámenes clínicos a fin de investigar posibles cánceres de mama y como método de detección precoz del cáncer. La densidad  y composición similar de los tejidos de esta zona hace que la absorción diferencial sea mínima. Con el fin de aumentarla y mejorar el contraste, se trabaja con haces poco penetrantes, de energías comprendidas entre 20 y 35 keV. Además, dado que uno de los fines es buscar objetos de pequeño tamaño, la resolución espacial de estos equipos es mucho más alta que la de los aparatos de rayos X convencionales.  

Los equipos de fluoroscopia producen una imagen continua que facilita la observación de los cambios dinámicos dentro del paciente. El sistema de imagen consta de un intensificador cuyo funcionamiento se basa en la capacidad que tienen los rayos X de causar fluorescencia. Cuando los fotones, tras atravesar el paciente, interaccionan con el intensificador, se genera una imagen muy brillante que es recogida típicamente mediante una cámara de televisión o CCD, a través de un sistema de lentes de alta calidad. En los nuevos equipos digitales, el intensificador de imagen y la cadena de televisión son sustituidos por un panel plano que convierte la radiación incidente en señales eléctricas.

La radiografía dental incluye dos técnicas diferentes: la radiografía intraoral en la que el paciente se coloca la película dentro de la boca y la panorámica, que permite la visualización completa del arco dental. Los primeros son equipos sencillos que trabajan a características de tensión y corriente bajas e incluyen un cono localizador que limita el tamaño de campo a un valor máximo de 6 cm de diámetro e impide acercar demasiado el tubo al paciente. En cuanto a la radiografía dental panorámica, denominada ortopantomografía, es una adaptación de la técnica tomográfica que enfoca sólo los objetos situados en un plano de interés, mientras produce borrosidad de las estructuras situadas a uno y otro lado del mismo.

La tomografía computarizada o TC, permite la reconstrucción de la estructura interna del cuerpo a partir de múltiples proyecciones del mismo. Estas se obtienen durante la rotación continua del tubo de rayos X alrededor del paciente. El sistema de detectores mide la atenuación del haz que pasa a través del cuerpo dando lugar, tras complejos cálculos matemáticos, a la imagen reconstruida.

El último elemento de la cadena que nos aporta la información necesaria para diagnosticar es el sistema de imagen. Recibe los rayos X que atraviesan al paciente sin interaccionar y aquellos que ha dispersado. El medio que transforma el haz de rayos X en imagen visible se denomina receptor de imagen y puede ser la película radiográfica o digital.

PACIENTE 2: No callará

RADIACTIVO MAN: Perdone, lo que estoy contando es muy interesante y puede sentirse afortunado de que le informe un divulgador riguroso y de fiar como yo.

PACIENTE 2: Dijo el hombre del pijama rojo que se cree un superhéroe

PACIENTE 1: No le haga caso a este señor tan gruñón y continúe, por favor.

PACIENTE 2: ¿Gruñón? Me duele todo y un hombre que no está en su sano juicio no para de darme la paliza. No creo que esté como para aplaudir con las orejas.

RADIACTIVO MAN: Bueno, sigo con mi explicación…

PACIENTE 2: Las pestañas

RADIACTIVO MAN: ¿Perdone?

PACIENTE 2: Hay algo que no me duele, las pestañas.

RADIACTIVO MAN: Continúo… ,si puedo, con la Medicina Nuclear.

RMenMN-1

La Medicina Nuclear es una especialidad médica que, con finalidades diagnósticas, terapéuticas y de investigación, emplea fuentes radiactivas no encapsuladas.

En los estudios “in vivo” se precisa la administración al paciente de un radiofármaco que está compuesto de dos partes diferenciadas: el “vector de información” o radionucleido, cuya emisión de radiación permite valorar cualitativa y/o cuantitativamente el proceso, y el “vector selectivo” o molécula de soporte a la que se une el radionucleido y condiciona la ruta metabólica. También existen, sin embargo, otros radiofármacos en los que el propio radionucleido es determinante, por sí mismo, de la ruta metabólica del compuesto.

Las características físico-químicas de los radionucleidos dependen de la composición química del radiofármaco del que forman parte, así como del tipo de exploración a realizar. Dado que lo más recomendable es obtener la información deseada con la mínima dosis de radiación, su periodo de desintegración debe ser tan corto como lo permita la exploración.

Otro aspecto a tener en cuenta es que la presencia del radionucleido no debe alterar la sustancia portadora, dado que lo que se pretende estudiar es la función biológica de la misma, sus vías de distribución, sus zonas de depósito, metabolización y excreción. A su vez, dado que el organismo no distingue entre el isótopo estable y el radiactivo de un mismo elemento químico, el comportamiento del radionucleido o del complejo portador-radionucleido es idéntico al del isótopo estable o portador más isótopo estable.

En el caso de los estudios basados en el diagnóstico por la imagen, la energía de emisión de los fotones gamma debería ser lo más cercana posible a unos 150 keV, que corresponde a la energía óptima de los sistemas de detección actuales que explicaré más adelante.

Las técnicas “vivo/vitro” se basan en la medida de muestras biológicas tras la administración al paciente del radiofármaco mientras que los estudios “in vitro” no precisan la administración de un radiofármaco al paciente y tan sólo se exigen el procesamiento de muestras biológicas.

Finalmente, los procedimientos terapéuticos con radionucleidos se realizan con emisores α o β- de energías más elevadas, dado que en ese caso queremos dañar las células cancerígenas.

La mayor parte de los radionucleidos usados en Medicina Nuclear son artificiales y se obtienen mediante tres vías principales: reactores nucleares, ciclotrones y generadores isotópicos. En estos últimos, se obtiene una solución química estéril de un radionúclido de periodo corto (hijo), procedente de la desintegración de otro radionucleido de periodo más largo (padre). El descendiente se desintegra originando un elemento estable o un radionucleido de periodo muy largo pero de muy baja energía. El generador isotópico más empleado es el de Mo-99 y Tc-99m. Se basa en el decrecimiento por desintegración del Mo-99 (T1/2=66h) a Tc-99m (T1/2=6h). El Mo-99 puede obtenerse como subproducto de fisión del U-235, o mediante reacciones de captura de neutrones a partir del Mo-98.

Por lo que se refiere al ciclotrón, es el encargado de producir el flúor-18 que, como veremos, es el radioisótopo favorito para una técnica llamada PET. Su corto periodo de semidesintegración de 110 minutos garantiza una eliminación rápida después del análisis del paciente, pero, en contrapartida, complica la tarea de fabricación de la molécula activa. Se obtiene bombardeando con un haz de protones un blanco de oxígeno-18, isótopo estable del oxígeno, que representa un 0.2% del oxígeno natural. Hay que separar muy rápidamente el flúor-18, purificarlo, incorporarlo a la molécula activa escogida, hacer las verificaciones de calidad indispensables, transportarla e inyectarla al paciente. La molécula elegida como vector del flúor-18 es la fluodeoxiglucosa o FDG. Es un azúcar en el que un grupo hidroxilo se sustituye por un átomo de flúor-18. El FDG se queda atrapado en el interior de la célula y puesto que las células tumorales son más ávidas de glucosa, la acumulación de FDG será mayor en estas células, que se podrán identificar.

El flúor-18 no es el único emisor β+ que se puede usar en esta técnica pero sí el único que ha sido desarrollado comercialmente a gran escala. Existen otros emisores como el carbono-11 o el oxígeno-15, que presentan una química más fácil, pero su semivida muy corta (10 y 1.4 minutos respectivamente) limita mucho su utilidad.

T_radioisotoposnucleares

PACIENTE 1: Bueno, bueno, pero ¿con qué equipos se emplean todas estas fuentes radiactivas?

RADIACTIVO MAN: No se impaciente, que ahora se lo explico.

PACIENTE 2: No acabará nunca…

RADIACTIVO MAN: Como intentaba decir, las principales técnicas que se utilizan en medicina nuclear son las siguientes:

La gammagrafía fue desarrollada por el físico Hal Anger en 1957 y permite detectar y dar imágenes 2D de la distribución de un radioisótopo en una región específica. Con ello, se ve el funcionamiento del órgano en cuestión. Cómo detector se basa en la excitación que producen las radiaciones ionizantes en la materia. Según el tratamiento que se haga de las imágenes puede ser analógica o digital. Para tener una buena resolución espacial y disminuir la atenuación debe situarse la gammacámara frente al órgano a estudiar y lo más cercana posible.  

La tomografía por emisión de fotones (SPECT) posibilita la obtención de imágenes 3D a partir de la aplicación de métodos de reconstrucción tomográfica a las imágenes planares conseguidas desde diversas orientaciones. En este caso el estativo, además de los movimientos habituales dispone de un sistema rotativo que hace posible la obtención de las diferentes proyecciones.  

En la tomografía por emisión de positrones o PET, que comentaba al citar el fluor-18, se inyecta al paciente el emisor de positrones que se fija, preferentemente, en el órgano que se quiere analizar. Cada positrón emitido se aniquila con el primer electrón que encuentra a su paso. Como resultado se emiten simultáneamente dos fotones con la misma energía y dirección pero en sentidos opuestos, que son  detectados por el anillo de detectores que rodea al paciente. Sólo se darán por buenos los fotones de 511 keV que sean detectados a la vez en una misma dirección. El problema que surge en esta técnica es que, en función de su energía, el positrón puede recorrer varios milímetros antes de encontrarse un electrón con el que aniquilarse. Por tanto, puede haber una pequeña separación entre el punto de emisión y el de aniquilación. Esto sólo tendrá verdadera importancia cuando se necesiten hacer medidas muy precisas.  Decir también que las aplicaciones de la técnica PET no se limitan al diagnóstico por imagen sino que también está presente en investigación.  

El PET-CT es un estudio que combina Tomografía Computarizada (CT) con Tomografía por Emisión de Positrones (PET) en una misma imagen. Antes de su implantación, hacer estos dos estudios requería dos cámaras separadas que imposibilitaba la simultaneidad de ambas técnicas. Sin embargo, con la fusión de imágenes que permite la cámara PET/CT se realizan ambos controles al mismo tiempo obteniéndose imágenes anatómicas y funcionales del paciente. Esto facilita mucho más la interpretación de los resultados que si se ejecutasen ambos estudios por separado.

Las exploraciones “in vitro” se extendieron inicialmente con la técnica del radioinmunoensayo o radioinmunoanálisis (RIA). Las técnicas RIA permiten efectuar análisis tanto cualitativos como cuantitativos, así como posibilitar la detección en sangre de hormonas peptídicas, hormonas esteroideas, drogas y otras substancias. El procedimiento consiste en introducir en la muestra una cantidad conocida y marcada de la misma substancia que se desea determinar, compitiendo ambas por enlazarse a un receptor presente en el medio. Cuanto mayor es la concentración de la sustancia problema, mayor será la parte marcada que quede sin enlazarse o libre en comparación con la parte que se enlaza al receptor. A partir del cociente entre ambas concentraciones puede conocerse la cantidad de sustancia sin marcar. Las ventajas son su gran sensibilidad, la precisión, la posibilidad de automatización, lo que permite analizar gran número de muestras en un corto espacio de tiempo.

La terapia metabólica se basa en la acumulación de una sustancia radiactiva no encapsulada en el órgano blanco o región a tratar. La dosis dependerá de la cantidad administrada. Para esta finalidad terapéutica se destinan radioisótopos emisores de partículas beta (aunque también pueden emitir gammas) y energías altas con un elevado poder de irradiación local.

T_terapiametabolica

Y ahora ya, situados en la terapia, vayamos  a la principal especialidad médica que aborda la terapéutica con radiaciones ionizantes, la Radioterapia.

PACIENTE 2: ¡Señor llévame pronto!

PACIENTE 1: No diga esas cosas, sólo faltaría que le hiciese caso

PACIENTE 2: Mmmmm….Señor deja mudo al loco.

RM: No se lo tendré en cuenta, desvaría debido a la medicación. Prosigamos…

RM en el aceleradorLa técnica radioterápica es sumamente compleja puesto que requiere alcanzar un compromiso entre la administración de una dosis elevada adecuada al volumen tumoral y una dosis aceptablemente pequeña a los tejidos sanos circundantes. Si la dosis es demasiado alta las complicaciones se incrementan, pero si es demasiado baja disminuye la probabilidad de control del tumor.

En cuanto a la forma de aplicación se puede distinguir entre Radioterapia externa y Braquiterapia. En Radioterapia externa, la fuente de irradiación es exterior al paciente mientras que en Braquiterapia (“braqui” proviene del griego y significa cercano) el material radiactivo, en forma de fuente encapsulada, se inserta en el interior del mismo. El mayor porcentaje de exploraciones corresponde a equipos de irradiación externa y voy a empezar por estos.  

El objetivo de la radioterapia externa es administrar en un tratamiento de varias sesiones, una cantidad de energía conocida en los volúmenes blanco respetando al máximo las estructuras sanas. El paciente permanece sólo en el recinto y el tratamiento se controla mediante un circuito cerrado de televisión.

Los principales equipos de radioterapia externa son los aceleradores lineales de electrones, las unidades de cobalto (con un uso muy limitado en nuestro país) y los equipos de rayos X de baja y media energía.  Explicaré algunas de sus características principales:

Los aceleradores lineales de electrones, al igual que los equipos de rayos X, no cuentan con ninguna fuente radiactiva y, en consecuencia, sólo producen radiaciones cuando se pulsa el botón correspondiente.  Pueden ser monoenergéticos, si sólo producen emisión fotónica, o multienergéticos, si pueden emitir tanto fotones como electrones. Con los haces de electrones de estos últimos, se tratan tumores de piel y tumores poco profundos, así como terapia intraoperatoria. Los electrones  se emiten por efecto termoiónico en un  filamento metálico y son introducidos en un cilindro provisto de varias cavidades (secciones aceleradoras) en donde también se inyectan ondas mediante un magnetón.  El haz de fotones de los  aceleradores multienergéticos se crea en la interacción de los electrones con un blanco de material de elevado número atómico. Puesto que los objetivos terapéuticos de ambas prácticas son diferentes, los haces de electrones y fotones tienen un tratamiento distinto en el acelerador.

Por lo que se refiere a la unidad de cobalto, aquello que la distingue del acelerador lineal es que el elemento generador de la radiación es la fuente radiactiva de cobalto-60 situada en el cabezal de la unidad. La  radiación gamma de energías 1.17 y 1.33 MeV que emite, se destina al tratamiento mientas que la radiación beta, indeseable para la terapia, es filtrada en la cápsula que contiene la fuente. Su periodo de semidesintegración es de 5.27 años y su gran actividad específica posibilita que la fuente sea pequeña. Su diseño tiene forma cilíndrica de unos 2 o 3 cm de longitud y unos 1.5 o 2 cm de diámetro. Está encapsulada en un contenedor de acero inoxidable de doble pared. El cobalto radiactivo se encuentra en el compartimiento interior que se halla, a su vez, en otro contenedor exterior. Ambos están sellados mediante doble soldadura para prevenir cualquier fuga de material radiactivo. Para limitar el haz de radiación a la zona de interés se dispone de una colimación primaria fija y una secundaria o móvil, de dos bloques de material de elevado número atómico.

Finalmente, tenemos los equipos de rayos X de baja y media energía. Estos fueron los primeros a destinarse a radioterapia y actualmente se usan, básicamente, para el tratamiento de tumores superficiales. Estos equipos se diferencian de los utilizados en diagnóstico por disponer de una gran diversidad de aplicadores y filtros que se adaptan a la forma y características de las diferentes lesiones. En la actualidad cubren el rango de tensión que va desde 40 kV hasta 300 kV.

T_equipos

Tal y como he comentado, en braquiterapia el material radiactivo se coloca en el interior del tejido (intersticial), en cavidades naturales del organismo (intracavitaria) o en contacto (aplicadores oftálmicos, tratamiento HDR de piel con aplicadores superficiales, etc). Las fuentes radiactivas son sólidas y se presentan en forma de hilos, semillas o esferas. Están rodeadas de una funda metálica que sirve para garantizar la estanqueidad de la fuente y evitar que pueda contaminar los tejidos en los que se coloca, es decir, son fuentes encapsuladas.

El problema más importante de la braquiterapia es que se tiene que utilizar en volúmenes accesibles, bien por inserción directa o a través de guías o aplicadores que se introducen en un acto quirúrgico. Estos aplicadores pueden ser tanto metálicos como de plástico y la forma de colocarlos en el paciente puede ser manual o automática. En esta última, se emplean equipos de carga diferida en los cuales no existe exposición a las radiaciones por parte de los profesionales que intervienen en el proceso y los incidentes y accidentes que ocurren se reducen de forma significativa.

Una forma de caracterizar la gran variedad de fuentes radiactivas es en función de su tasa de dosis. Así pues, podemos hablar de baja tasa de dosis (0.4 Gy/h a 2 Gy/h), media (2 Gy/h a 12 Gy/h) o alta (mayor de 12 Gy/h). Las más empleadas son las de baja y alta tasa y presentan diferencias notables en cuanto a la duración del tratamiento. La irradiación de un tratamiento de baja tasa puede durar un cierto tiempo y se realiza de forma continua a lo largo del día. En estos casos el paciente permanece ingresado en habitaciones blindadas y el personal del hospital debe tener en cuenta las normas de radioprotección.

En cambio, los tratamientos de alta dosis duran del orden de unos pocos minutos y se aplican en una o varias sesiones semanales durante varias semanas. Para la irradiación se necesita una única sala con sus correspondientes blindajes.

Las fuentes más empleadas en braquiterapia son:

T_braqui

Como habéis visto las radiaciones ionizantes juegan un papel muy importante en los hospitales…

ENFERMERA: El señor ¿Radiacti…?

RADIACTIVO MAN: ¡Yo mismo!

PACIENTE 2: Ya era hora…

ENFERMERA: Vamos a hacerle unas pruebas. Por el informe parece que se cayó…

RADIACTIVO MAN: Salté por la ventana, no pensé que fuese a hacerme daño..

ENFERMERA: ¿Quién se cree que es? ¿Supermán?

Nota: Esta entrada ha sido ilustrada por Carlos Pino, también colaborador del blog, y quiero agradecerle personalmente toda la dedicación y el tiempo empleados en dibujar cada una de estas magníficas viñetas.

Publicado en Radiactividad, Radiactivo Man, Rayos X | Etiquetado , | Deja un comentario

Boaz Almog hace “levitar” un superconductor (TED 2012)

0100b26f13db74cd13971b1651daa7b9edf01fae_800x600

En esta charla TED, el Profesor Boaz Almog del Grupo de Superconductividad de la Universidad de Tel Aviv, muestra cómo un disco superconductor flota sobre un carril magnético sin fricción ni pérdida de energía.

En paralelo a la demostración, también expone de forma clara y didáctica las principales características de los superconductores de tipo II, de los que os hablé en esta entrada, dando especial relevancia al fenómeno conocido como bloqueo cuántico.

 

Publicado en Superconductividad, Videoteca | Etiquetado , | 1 Comentario

Entrevista sobre divulgación en el programa “Funció d’ona”

funciodona

El lunes tuve el honor de asistir al programa Funció d’ona de BocaRadio  y conocer a Anna May, a Àngela Garcia y a Carlos Borrego que son los artífices del mismo. Este es su primer año en antena y estoy segura de que van a cumplir muchísimos más. En primer lugar, porque disfrutan haciéndolo y se compenetran a la perfección y, sobre todo, porque cuentan con un gran talento. Un programa que ha entrevistado a mi estimadísimo y genial Michael Faraday (sí, habéis leído bien) y a la gran Madame Curie, está condenado a triunfar.

Me hizo mucha ilusión que me invitasen a hablar sobre divulgación porque soy una oyente fiel de Funció d’ona, pero no os negaré que pensé que me venía grande. Me apasiona consumir y hacer divulgación, pero llevo muy poco tiempo como para opinar sobre ella en la radio. Hay divulgadores de primera división que lo harían mucho mejor que yo. Pero no estaba dispuesta a dejar escapar la oportunidad de conocerles y estoy muy satisfecha de haber ido.

Las preguntas que me hicieron fueron muy interesantes y tocaron aspectos que me parecen de especial relevancia en el tema de la divulgación como qué características debe tener un buen divulgador, qué opinión me merecen herramientas como twitter, menéame o divúlgame, la relación de la divulgación con la enseñanza, cómo podemos llegar más allá de los convencidos, la elección del tema de los posts y su longitud… Fue un verdadero placer poder conversar sobre todas estas cosas con personas con las que comparto la ilusión por hacer llegar la ciencia a los demás.

Os dejos el enlace del blog del programa donde podéis escuchar la entrevista. Es en catalán, pero quienes no lo habléis lo entenderéis un poquito.

Entrevista en Funció d’ona sobre divulgación

1003603_283551158475745_1541306833_n

Publicado en Divulgación, Radio | Etiquetado , | Deja un comentario

“La Centripetadora”, mi sección en el “Pa ciència, la nostra”

2

Como os expliqué en la entrada Cuaderno de Vacaciones, este año estoy colaborando en el  programazo de radio Pa ciència, la nostra (@paciencianostra), dirigido y presentado por Màrius Belles y Daniel Arbós.  Me encargo de la cápsula de física que hemos bautizado como “La Centripetadora” y estoy disfrutando mucho de la experiencia. Cuando me propusieron participar en el programa me hizo una ilusión increíble porque si estáis leyendo ahora mismo estas líneas, es gracias al talento de ambos.

Hace unos dos años, les escuché en la sección que hacen en el programa Via Lliure de RAC1 y me quedé prendada. Nunca me había divertido tanto oyendo hablar de ciencia en un medio de comunicación. Así que entré en su blog y, tras escuchar el programa, me convertí en una incondicional. Su forma de transmitir la ciencia con rigor, ironía y sarcasmo conquista y es absolutamente recomendable para todos los públicos.

Dani y Màrius en el Via Lliure

Dani y Màrius en el Via Lliure

Fue escuchando el programa y trasteando en el blog que descubrí la extraordinaria divulgación científica que se hace en la red y me “reenamoré”  de la ciencia. Meses más tarde, gracias a la generosidad y el apoyo de Enrique F. Borja, tuve la oportunidad de estrenarme en un blog referente en la divulgación de la Fïsica como es Cuentos Cuánticos y el resto de la historia ya lo conocéis. Además, hoy hablamos de mi aventura radiofónica.

Como os he dicho, tengo el honor de colaborar en el programa que tanto admiraba y admiro, junto a divulgadores de la talla de Toni Pou en la sección “Ciència en sèrie”, Jaume Belles en “Jaumetria”, Anna May en “Bueno, pues vale”, Pere Roca-Cusachs en “La ciència és una selva” y Joan Pau Sánchez en “Pau a la Terra i a l’espai exterior”. Como algunas personas me han pedido los enlaces de mis participaciones (bueno, una, mi padre), las iré añadiendo a esta entrada por si os hace gracia escucharlas. Están en catalán pero creo que pueden entenderse.

En cualquier caso, para los que no entendéis el catalán o simplemente, queréis disfrutar doblemente del “Pa ciència, la nostra”, como yo, esta temporada han estrenado la versión en castellano que tiene personajes y colaboradores propios. A parte de los dos infiltrados en la radio Limpia y Charly (que se esconden cuando voy), también cuenta con la participación de dos grandes divulgadores y amigos como son Fco. J. M. Guardiola con sus “Científicos de Relumbrón” y Pablo Rodríguez con los “Duros de la Ciencia”.

En definitiva, no perdáis ocasión de escuchar el programa porque es excelente.

Cada año hacen un programa en directo para los niños de los institutos.

Cada año hacen un programa en directo para los niños de los institutos.

Y aquí mis participaciones…

LA CENTRIPETADORA

Programa 210: No me toques los cuantos
Sobre el uso de la etiqueta “cuántica” para vender humo y curaciones falsas.

Programa 214: Al Alba 
Sobre la fuente de Luz de sincrotrón Alba.
Entrada relacionada: A la luz del ALBA

Programa 224: La Física Médica
Sobre el papel que juegan los físicos en los hospitales y el nacimiento del blog Desayuno con Fotones.
Entrada relacionada: Desayuno con fotones (en Naukas)

Programa 225: Epi, Blas y el Pajarraco
Sobre el experimento Ice Cube y sus primeros resultados.
Entradas relacionadas: Fotógrafos del Universo (en Cuentos Cuánticos); Conversando con el Winter Over Carlos Pobes

Publicado en Divulgación, Radio | Etiquetado , | Deja un comentario

Primera prueba directa de la Inflación Cósmica

296018_489398001073042_298372719_n

Hoy la cosmología está de enhorabuena. Los resultados sobre los modos B primordiales en la radiación de fondo de microondas, aportados por el experimento BICEP2 del Polo Sur, son muy parecidos a los predichos por la teoría de la inflación. Esto no significa que la teoría sea cierta, sino que el universo se comportó de una forma parecida a la que esta describe.  Además, no debemos olvidar que, siendo fieles al método científico, es necesario que el resultado se confirme por otro experimento de forma independiente.

Para conocer con más detalle la noticia os recomiendo las siguientes entradas que, con estilos y un público objetivo diferente, abordan de una forma magnífica lo acontecido:

- Intervención de Francis R. Villatoro en el programa de radio La Buhardilla: Pograma 96: Inflación cósmica, modos B y BICEP2 con Francis Villatoro (@emulenews)

- Francis R. Villatoro: “La inflación cósmica y el multiverso inflacionario” ; “BICEP2 obtiene la primera prueba directa de la inflación cósmica” ; “Un poco de sal a la observación de BICEP2” ; “Francis en #rosavientos: BICEP2 detecta los modos B primordiales”

- Enrique Fernández Borja: “El universo saca Bicep2” ; “Tenemos un universo, tenemos un problema

- Jorge Díaz: “Descubrimiento de modos B en la polarización del CMB

- Javier Fernández Panadero: “El gran descubrimiento de ayer

- César Tomé: “El multiverso inflacionario y el superdios” ; “La pequeña historia no contada de los modos B

- Daniel Marín: “Un par de apuntes sobre la confirmación del modelo inflacionario del Big Bang

- Lawrence Krauss: “A Scientific Breakthrough Lets Us See to the Beginning of Time

Aquí voy a limitarme a dejaros tres regalos que en un día tan señalado como hoy, me han mostrado la parte más humana de la ciencia.

El primero, nos lo ha ofrecido el físico Jorge Díaz del blog Conexión Causal por twitter y es la página de apuntes en la que el Profesor Alan Guth concluyó el efecto de la inflación.

 Bi8TUGhCMAAePY8

El segundo es un video de la Universidad de Standford que muestra el momento en el que los Profesores Andrei Linde y Renata Kallosh han recibido la noticia del descubrimiento. Os recomiendo leer también el artículo de Andrei Linde, que me facilitó Francis Villatoro, “Inflationary Cosmology after Planck 2013,” arXiv:1402.0526 [hep-th], 9 Mar 2014. Al principio del mismo presenta los diferentes modelos inflacionarios, explica su evolución histórica y discute su validez. Por supuesto, llega a la conclusión que el desarrollado por Guth y él, es el mejor de todos. Pero vale la pena leerlo, no deja de ser un texto histórico.

Para concluir, como tercer regalo, os dejo con una cita de César Tomé, autor del blog “Experientia Docet” y editor de los blogs “Mapping Ignorance” y “Cuaderno de Cultura Científica”, que me ha parecido especialmente brillante:

“Los humanos aprendimos dolorosamente que la Tierra no era el centro del Universo, ni tampoco lo era el Sistema Solar; nuestra galaxia es sólo una más. Este descubrimiento, de confirmarse, implicaría que el universo que vemos con sus cientos de miles de millones de galaxias, sería sólo un trozo infinitesimal de un universo mucho mayor cuya extensión, estructura y evolución es incognoscible; no sólo eso, más allá de este universo podría haber infinitud de otros universos surgiendo continuamente. Es la cura de humildad definitiva.”

Publicado en Cosmología | Etiquetado | 14 comentarios

Radiación de cuerpo negro y catástrofe ultravioleta

Rayleigh_Jeans

Lord Rayleigh y James Jeans

Desde la antigüedad se había podido observar en la vida cotidiana que los cuerpos calientes emitían luz de diferentes colores en función de su temperatura. Sin ir más lejos, los alfareros contaban con una guía que determinaba las diferentes tonalidades que se obtenían conforme calentaban los materiales. Pero fue a finales del siglo XIX, que el auge de la astrofísica junto al incipiente alumbrado público hizo que el interés por encontrar la base científica de esta relación se incrementase.

alfareroguia

El físico prusiano Gustav Kirchhoff fue quien, en 1859, dio el pistoletazo teórico de salida introduciendo el concepto de “cuerpo negro”, un cuerpo que era un perfecto absorbente y emisor de radiación. Hay que decir que, si bien esta denominación es muy apropiada en cuanto a su poder de absorción, no lo es tanto cuando convierte la energía calorífica en radiación electromagnética.

El cuerpo negro imaginario de Kirchhoff era un simple recipiente oscuro con un pequeño orificio en una de sus paredes. Una vez en el interior, la radiación sufre diversas reflexiones en las paredes de la cavidad hasta que acaba siendo completamente absorbida. El agujero también actúa como emisor perfecto, puesto que las radiaciones que escapan a través de él muestran todas las longitudes de onda presentes, a esa temperatura, en el interior del recipiente.

A partir de esta construcción mental y valiéndose de las matemáticas, Kirchhoff demostró que el rango y la intensidad de la radiación en el interior del recipiente únicamente dependían de su temperatura. La tarea que se impuso consistía en dar con la fórmula que reprodujese la distribución espectral de la radiación del cuerpo negro a cada temperatura y acabó conociéndose como problema del cuerpo negro.  Él mismo, muy pronto fue consciente de que sin poder experimentar con un cuerpo negro real no podría avanzar más a nivel teórico en su reto, pero su trabajo fue de gran ayuda para aquellos que pudiesen disponer de él. Si, tal y cómo había probado, la distribución sólo dependía de la temperatura, la ansiada fórmula sólo debía tener dos variables: la temperatura del cuerpo negro y la longitud de onda de la radiación emitida.

El siguiente paso en la resolución del problema vino de la mano del físico, matemático y poeta Josef Stefan. Este propuso en 1879 una relación que establecía que la densidad de energía de la radiación del cuerpo negro era proporcional a la cuarta potencia de la temperatura absoluta. Dicha expresión se había extrapolado a partir de experimentos preliminares y mostraba una buena correlación con los resultados que se obtenían para un amplio intervalo de temperaturas.

El gran físico austríaco Ludwig Edward Boltzmann fue el encargado de conferir cuerpo teórico a la ley de Stefan basándose en el segundo principio de la termodinámica y en la teoría electromagnética de la luz de Maxwell. Por esta razón, la ley obtenida por Stefan se conoce como ley de Stefan-Boltzmann.

En febrero de 1893, el físico alemán Wilhelm Wien, con 29 años, no dio con la fórmula pero descubrió una sencilla relación matemática que describía el efecto del cambio de temperatura en el espectro de la radiación emitida por el cuerpo negro. En un principio empleó “experimentos mentales” pero viendo que no le aportaban información suficiente, incorporó el uso de métodos y conceptos estadísticos. Como resultado de su estudio encontró que conforme el cuerpo negro se va calentando, el máximo del espectro de la distribución se desplaza hacia longitudes de onda más cortas. Esto significaba, algo tan revelador como que la longitud de onda del máximo de radiación multiplicada por la temperatura de un cuerpo negro es siempre una constante. Es decir, que una vez calculada la constante numérica, midiendo la longitud de onda del pico de emisión a una determinada temperatura, podía calcularse la longitud de onda máxima para cualquier otra temperatura. El resultado de Wien se denomina ley del desplazamiento porque muestra cómo la curva de densidad de energía se desplaza a medida que cambia la temperatura de la cavidad.

Espectro de emisión del cuerpo negro, mostrando un máximo según la fórmula de Wien

Espectro de emisión del cuerpo negro, mostrando un máximo según la fórmula de Wien

Los físicos dieron por bueno el razonamiento de Wien y la ley del desplazamiento se convirtió en una herramienta de uso común en la primera década del siglo. No deja de ser sorprendente que tuviese tan buena acogida ya que por aquel entonces mucha gente no acababa de entender el segundo principio de termodinámica, las ecuaciones de Maxwell justo empezaban a establecerse entre la comunidad científica y la radiación de cuerpos calientes era terreno exclusivo de los físicos experimentales.

Wilhelm Wien era un físico teórico competente a la par que un hábil experimentador. Mientras diseñaba junto a Otto Lummer un nuevo y mejorado cuerpo negro vacío capaz de calentarse a temperatura uniforme, buscaba por su cuenta la fórmula de Kirchhoff. Finalmente, en 1896 vio la luz su ecuación para la distribución de la radiación del cuerpo negro. Poco después, Friedrich Paschen confirmó que coincidía con los datos experimentales que podían obtenerse por aquel entonces, para las longitudes de onda cortas. Sin embargo, se requerían mediciones en un rango más amplio y elevado de temperaturas y para ello era imprescindible construir un cuerpo negro mejor. Otto Lummer trabajando en un primer momento con Ferndinand Kurlbaum y, posteriormente, con Ernst Pringsheim, tardó dos largos años en obtener un cuerpo negro perfeccionado de última generación. Con él obtuvieron el espectro para estudiar la validez de la ley de desplazamiento así como la ley de distribución de Wien.

Ambos presentaron sus resultados en un encuentro celebrado el 3 de febrero de 1889 en la Sociedad de Física Alemana de Berlín. Explicaron que, si bien los descubrimientos parecían confirmar la ley del desplazamiento de Wien, existían ciertas discrepancias en la región infrarroja del espectro. Estas podían deberse a errores experimentales pero sólo había una manera de saberlo a ciencia cierta, ampliar aún más el intervalo de longitudes de onda y temperaturas. Tres meses más tarde, Friedrich Paschen anunció triunfante que sus datos, a temperaturas inferiores a las de Lummer y Prignsheim, coincidían con las predicciones de la ley de distribución de Wien.

Wilhelm Wien y Max Planck

Wilhelm Wien y Max Planck

El físico Max Planck [podcast en Científicos de Relumbrón] leyó aliviado el artículo de Paschen en una sesión de la Academia Prusiana de Ciencias. Si la fórmula de Wien era cierta, se encargaría de establecer los principios físicos de los que se derivaba. Tres años más tarde, mediante la segunda ley de la termodinámica, creyó haberlo conseguido. Debido a esto muchas personas se refirieron a la distribución como ley de Wien-Planck. Planck confiaba en que “los límites de validez de esta ley, en el caso de que los haya, coincidan con los de la segunda ley fundamental de la teoría del calor”. La vinculación entre ambas hacía que sintiese una necesidad imperiosa porque esta última fuese corroborada. Esto le daría un empuje a la segunda ley. Pero sus deseos no se hicieron realidad. Si bien en un primer momento, tanto Otto Lummer y Ernst Pringsheim, como los expertos en infrarrojos Ferdinand Kurlbaum y Heinrich Rubens, la dieron por buena, la aplicación de las nuevas técnicas de infrarrojos recién inventadas puso al descubierto sus limitaciones.

CATÁSTROFE ULTRAVIOLETA

Por su parte, Lord Rayleigh en 1900 y James Jeans, unos años más tarde, llegaron a otra expresión por medio de un procedimiento distinto. Aunaron la física de Newton, Maxwell y Boltzman para dividir la energía de la radiación del cuerpo negro entre las diferentes longitudes de onda presentes dentro de la cavidad. El uso del teorema de equipartición no satisfacía demasiado a Rayleigh que creía que sólo era válido en ciertas condiciones, sin embargo reconocía que “aunque la doctrina falla, en general, por alguna razón aún sin explicar, parece posible que pueda aplicarse a los modos más graves” donde por “modos más graves” ser refería a las vibraciones de longitud de onda largas, las únicas a las que en su opinión podía aplicarse la ecuación.

Según el teorema de equipartición, la energía de un gas debe hallarse equitativamente distribuida entre sus moléculas y repartida de igual modo entre las diferentes formas en las que estas pueden moverse. Los átomos sólo son libres para moverse en tres direcciones diferentes y cada una de ellas, denominadas “grado de libertad”, es una forma independiente en la que puede recibir y almacenar energía. En el caso de una molécula compuesta de dos o más átomos, a parte de estos tres movimientos de “traslación” existen tres tipos de “rotación” en torno a los ejes imaginarios que unen los átomos. Así pues, se obtienen un total de 6 grados de libertad.

La ley de Rayleigh-Jeans, que obtuvieron basándose en la física clásica, dio un ajuste excelente entre teoría y observación en la zona de baja frecuencia. Desafortunadamente, para las altas frecuencias, la predicción fue un desastre. Se preveía un aumento infinito de la energía en la región del ultravioleta que sería conocido, años más tarde, como “catástrofe ultravioleta”. Hay que señalar que tanto Rayleigh como Jeans se dieron cuenta en seguida que aquello no tenía ningún sentido. Entre otras cosas porque la vida humana no hubiese sido posible en un universo sumido en un océano de radiación ultravioleta.   

Radiación emitida por un cuerpo negro a una temperatura de 1500 K en función de la frecuencia

Radiación emitida por un cuerpo negro a una temperatura de 1500 K en función de la frecuencia

La denominación que le puso Paul Ehrenfest de “catástrofe ultravioleta” puede parecer un tanto exagerada pero no dejaba de ser bastante catastrófico que el empleo del modelo teórico establecido hasta entonces diese una predicción totalmente errónea que nada tenía que ver con la realidad.

Por lo que a Planck se refiere, se sentía contrariado con la falta de ajuste de la distribución de Wien para el caso de las longitudes de onda largas. Después de que Rubens se lo confirmase el domingo 7 de octubre, se pasó la noche en vela elaborando una fórmula empírica que reprodujese la radiación del cuerpo negro. Tras garabatearla en un papel, salió de madrugada a enviársela a Rubens para que comprobase si cuadraba o no con los resultados experimentales.

La respuesta fue positiva y el viernes 19 de octubre en la reunión quincenal de la Sociedad de Física de Alemania, fue presentada en sociedad. Ferdinand Kurlbaum anunció formalmente que la ley de Wien no era válida en las longitudes de onda largas del infrarrojo. Tras él, Planck tomó la palabra para presentar una supuesta mejora a la ecuación de Wien. Empezó admitiendo que había creído y manifestado anteriormente “que la ley de Wien debía ser necesariamente cierta” pero que, puesto que no era así, había realizado algunas correcciones. Sin embargo, a medida que el discurso avanzaba se hacía más evidente que de lo que se trataba era de una expresión completamente nueva. Después de hablar durante unos diez minutos la escribió en la pizarra y les dijo a los presentes que esa ecuación  “cuadra, en mi opinión, con los datos publicados hasta el momento.” Al sentarse recibió la aprobación de rigor y un respetuoso silencio. Era muy comprensible que una fórmula elaborada ad hoc para justificar datos experimentales no arrancase vítores de entusiasmo. Tampoco era el primero que hacía algo así.

Para tratar de llegar a su fórmula empírica de forma razonada, representó las paredes del cuerpo negro como un conjunto de osciladores que en sus diferentes vibraciones reproducían todas las frecuencias del espectro contenidas en el interior de la cavidad. A continuación, buscó  la forma de distribuir la energía total disponible entre los osciladores, dando con serias dificultades.  No hubo manera de hacerlo valiéndose de la física que utilizaba hasta entonces y, muy a su pesar y como medida desesperada, tuvo que recurrir a las ideas de Ludwig Boltzman, el primer defensor de la teoría atómica que Planck llevaba años repudiando.

Mediante las técnicas de Boltzmann descubrió que sólo podía derivar la fórmula de la distribución si los osciladores absorbían y emitían paquetes de energía, proporcionales a su frecuencia de oscilación, que denominó cuantos hν. Es importante apuntar que él no creyó en ningún momento que la energía de radiación se dividiese realmente en cuantos sino que esos paquetes sólo se correspondían a la energía que podían recibir y emitir sus osciladores y debían considerarse más como un artificio matemático que como una realidad física. Con su inclusión llegaba a reproducir la ley de distribución de la radiación del cuerpo negro que había determinado empíricamente y eso era lo que le más le importaba.

Espectro de emisión del cuerpo negro según Planck y comparación con la teoría clásica.

Espectro de emisión del cuerpo negro según Planck y comparación con la teoría clásica.

El problema de su desarrollo es que el procedimiento estadístico de Boltzmann tenía una segunda parte que Planck obvió. Después de tratar las porciones por separado como magnitudes reales, la energía debía ser reagrupada mediante una técnica matemática muy precisa para llegar a la energía total. Si Planck hubiese completado la hipótesis de Boltzmann “su fórmula” se hubiese esfumado convirtiéndose en la expresión que conducía a la “catástrofe ultravioleta”. Cuando Einstein se dio cuenta de ello al revisar la fórmula de Planck  manifestó que cualquier tratamiento clásico del problema del cuerpo negro conducía a dicha catástrofe.

Al contrario que Planck, Einstein sí apostó por la cuantización de la luz ya que, como seguidor de la teoría atómica, le era más cómodo asumir que las ondas electromagnéticas, al igual que la materia, tenían una naturaleza discontinua. Por ello, elaboró un diseño diferente de cuerpo negro y, mediante la aplicación de la primera ley de la termodinámica y las leyes de Wien y Boltzmann, analizó la forma en que la entropía de la radiación dependía del volumen ocupado.  El resultado fue muy satisfactorio puesto que obtuvo que la relación entre la entropía y el volumen era la misma que en el caso de un gas compuesto por átomos. Así pues, el cuerpo negro se comportaba como si estuviese formado por partículas individuales de energía.

De esta forma Einstein encontró el cuanto de Planck por un camino distinto, creó el concepto de cuanto de luz que evidenciaba la cuantización de la energía y se libró finalmente de la catástrofe ultravioleta.

einsteinyoung

Post dedicado a Javier Peláez (@irreductible),  Antonio Martínez (@aberron) y Javi Álvarez por su futura Catástrofe Ultravioleta

BIBLIOGRAFÍA

“La Teoría del cuerpo negro y la discontinuidad cuántica” de T. Kuhn

“The theory of Heat Radiation” M. Planck

“Quántum” Manjit Kumar

“El cántico de la cuántica” S. Ortoli y J. P. Pharabod

“En busca del gato de Schrödinger” John Gribbin

“Biografía de la Física” George Gamow

“Física Cuántica”  Robert Eisberg y Robert Resnick

“Física Cuántica” Carlos Sánchez del Río

Publicado en Física Cuántica, Historia de la Ciencia | Etiquetado , | 17 comentarios