Buscar este blog

martes, 21 de junio de 2016

LA POSICIÓN DE LA TIERRA EN EL UNIVERSO I. SISTEMA GEOCÉNTRICO vs HELIOCÉNTRICO.


El movimiento de los cuerpos celestes ha inquietado a la humanidad desde siempre. Fué la primera ciencia emprírica en desarrollarse, pero también estuvo sujeta a interpretaciones de carácter religioso.

Babilonios, egipcios, árabes, renacentistas...
Desde el inicio de la civilización el movimiento de los astros ha sido de gran interés económico, pues determinaba los ciclos de dia y noche, las estaciones y, con ello, el mejor momento para cultivar los campos o cosecharlos. Por eso no es de extrañar que fuese la primera ciencia empírica en ser desarrollada y precursora del estudio científico. Con toma de datos, análisis de los mismos y búsqueda de explicaciones. Como ya hemos dicho, también ha tenido importancia en el terreno religioso, pues no se sabían explicar fenómenos naturales y esto suscitaba la existencia de seres superiores que los provocaban  y que, también, movían los objetos observados en los cielos (la luna, el sol y algunos planetas y estrellas). De hecho tuvo un gran calado social, pues en 2016  aunque Neil A. Amstrong pisó la luna en 1969, se han enviado miles de satélites artificiales al espacio así como sondas y más naves tripuladas. Incluso se ha construido una estación espacial internacional! Aún podemos leer el horóscopo en cualquier revista o periódico. Y el horśocopo se basa en la posición de los astros. O sea, que aún habiendo viajado por el espacio, la interpretación religiosa sigue viva.
Pero volvamos al tema principal. Ya hemos dicho que fué la primera ciencia en desarrollarse como tal. Se tienen datos de que en la antigua Babilonia (5000 años a.C) ya era de interés general. Así como calendarios realizados por diferentes culturas basándose en el movimiento de los astros.
No fué hasta el siglo V a.C. cuando se planteó el problema de qué posicion ocupaba nuestro planeta en realción al resto de astros observados. El dilema surgió en la Grecia de aquella época. De hecho, los griegos llamaron “planetas” a todos los astros en los que percibían movimiento, pues planeta en griego significa errante (que erra, que se mueve, que no está quieto, vamos). Para encontrar solución a este dilema de gran importancia, se plantearon dos posibles explicaciones:

1.- Explicación de Eudoxio: La Tierra se encuentra en el centro del universo. El resto de los astros se necuentran situados sobre esferas concentricas al centro de la Tierra y que giran en diferentes sentidos respecto a la posición de la tierra (modelo geostático).  

2.- Explicación de Aristarco: El Sol se encuentra en el centro del universo y el resto de astros. Al igual que en el modelo de Eudoxio, giran sobre esferas concéntricas al centro del Sol (modelo heliostático).


No es de extrañar que ambos modelos utilizaran esferas para explicar el fenómeno observado, pues en la antigua grecia, la esfera era considerada como la forma geométrica perfecta y. Si los dioses movían los astros, debían vivir situados sobre esferas. 
 
El modelo de Aristarco no prosperó, pues no explicaba la sensación que tenían (y tenemos) de inmovilidad. Tampoco explicaba la no apreciación de movimiento de algunas estrellas y, más aún, creían que si la Tierra era la que se movía, debía existir un viento contínuo e unidireccional debido al movimiento.
Aristóteles contribyó a mejorar el modelo de Eudoxio. Agregó más esferas y subesferas para explicar el extraño movimiento de algunos astros, hasta un total de 55. Sin embargo, a pesar de ser el modelo “aceptado por los dioses”, era incapaz de explicar el zig-zag que describía un planeta de los más visibles, Marte. A este movimiento se le conoce como retrogradación, pues Marte describe una estraña trayectoria en el cielo. Algunos días avanza y otros, retocede parte del camino avanzado.
Claudio Ptolomeo
Fué Claudio Ptolomeo (siglo II d.C) quien consiguió dar explicación a este extraña trayectoria descrita por Marte y otros astros visibles. Para ello, introdujo el concepto de los epiciclos. Consideraba que los planetas describían órbitas circulares en torno a un punto situado sobre las esperas concéntricas a la Tierra. Por la superposición del movimiento de la esfera y la órbita del planeta parecía que éste retocedía en su camino.
El modelo Ptolemaico subsistió hasta el siglo XVI. En parte porque cuando Santo Tomás de Aquino cristianizó a los griegos (siglo XII), la filosofía aristotélica pasó a ser el sustento ideológico del cristianismo. Por el camino, hubo que modificar el modelo. Se añadieron más epiciclos (hasta 80), también se desplazó levemente el centro de las esferas
concéntricas del de la Tierra y más artificios geométricos para reproducir las trayectorias planetarias observadas desde la Tierra. El cálculo era, cada vez, más complicado y la explicación más compleja.


Nicolás Copérnico
Pero en 1543 se hizo pública una nueva idea. Nicolás Copérnico, canónigo polaco que disfrutaba de la antipatía de papistsas y protestantes, propuso en su trabajo De revolutionibus orbiumcelestum que era el Sol el que se encontraba en el centro del universo y que eran los planetas los que giraban en esferas alrededor de él. Sí, justamente como propuso Aristarco más de 20 siglos atrás en el tiempo. Pero esta vez, Copérnico acompañó su argumento de precisos cálculos que simplificaban el sistema de esferas y epiciclos del modelo geocéntrico. Estuvo 25 años trabajando en este modelo y lo publicó poco antes de morir (probablemente porque intuía qué le podía pasar una vez publicado).

El trabajo fué declarado herético en 1616 por la Santa inquisición, aunque aceptado como hipótesis de trabajo durante algún tiempo. Se enseñaba, por ejemplo, en la universidad de Salamanca (España) y, de hecho, fué utilizado por el papa Gregorio XII para elaborar el calendario gregoriano (que seguimos actualmente en occidente) y le sirvió para corregir desfases en las fechas. De todos modos, nunca se aceptó que la Tierra fuese un simple planeta más.

Giordano Bruno
GiordanoBruno, un astrónomo, matemático, filósofo y poeta italiano lo utilizaba en sus enseñanzas y argumentos contra la iglesia. Llegó incluso más lejos. Propuso que el Sol era el centro del sistema planetario, pero que deberían existir más estrellas en el centro de más sistemas planetarios y que, en algunos de ellos, debían de vivir animales y plantas, tal y como lo hacían en la Tierra. Fué acusado de herejía y quemado en la hoguera el 17 de febrero de 1600. Como en muchos otros casos, un visionario adelantado a su tiempo pagó con su vida frente al poder y las creencias establecidas.

miércoles, 1 de junio de 2016

LAS MATEMÁTICAS


Esa asignatura que nos acompaña allá donde vamos. Siempre la encontramos en todos los cursos. Desde que empezamos en primaria hasta que acabamos la secundaria. Si elegimos seguir estudiando y escogemos alguna rama relacionada con las ciencias (ya sean puras o sociales), allí estarán. Si acabamos estudiando una carrera de ciencias, seguro que las tenemos a nuestro lado.

Muchos odian las matemáticas argumentando que “son difíciles”, “son aburridas” o, però aún, que “no sirven para nada”. Pero, si así fuese, es decir, si no sirvisen para nada, ¿por qué están incluidas en cualquier plan educativo desde su inicio hasta el fin? Las matemáticas SÍ SIRVEN, para TODO. De hecho, nos ayudan a interpretar nuestro entorno. Podríamos llegar a decir que son el lenguaje de la naturaleza. La ciencia, traduce el comportamiento de la naturaleza, lo cuantifica y realiza predicciones precisas sobre el mismo A TRAVÉS DE LAS MATEMÁTICAS.


De hecho, son universales. Nos permiten explicar desde el mundo de la partículas subatómicas, para el que somos demasiado grandes como para poder verlo, hasta el astronómico, para el que somos demasiado pequeños. Nos ayudan a hacer predicciones meteorológicas, económicas y hasta de comportamiento de la sociedad frente a una
elecciones al parlamento (por ejemplo). Y aciertan, siempre aciertan. A veces, parece que fallen, pero cuando no se cumplen las predicciones, es por la mala interpretación (interesada o no) de los datos disponibles.

Por lo tanto, son importantes, pues dependemos de ellas y no, no son aburridas. Plantean retos cambiantes donde deberemos superarnos a nosotros mismos y abrir nuestra mente a diferentes procesos y estrategias para resolver los enigmas que se nos plantean, como cualquier juego que se precie.

No voy a mentir diciendo que son “fáciles” o que no son “difíciles”. No seria correcto, pues fácil y difícil, son dos conceptos relativos. Como en muchos aspectos si estamos entrenados y acostumbrados a usarlas, no las veremos difíciles. Claro es que existen diferentes niveles, pues no utliza los mismo conceptos matemáticos un astrofísico que un conductor de autobús. Pero las herramientas que utilizan siguen exactamente la misma lógica. Lo único que difiere es el problema que deben resolver cada uno de ellos, sea optimizar la ruta del autobús o determinar la posición de un planeta hasta ahora desconocido. Cada problema, requerirá de unas herramientas diferentes, pero estas seguirán los mismos principios matemáticos.

Dénle a las matemáticas la importancia que merecen! Aprendan, disfruten de ellas superando retos, aplíquenlas en su día a día (más de lo que ya lo hacen). Si tienen hijos, hablen con ellos sobre ellas. Quizás les ayuden a aprender o, mejor aún, aprendan cosas junto a ellos. Aprendan de sus hijos y de ustedes mismos, de cómo són, de cómo pueden mejorar, de cómo pueden ser más felices de lo que ya son. Si tienen alumnos, motívenlos con las matemáticas. Hagan que se sientan importantes con ellas, que se superen, que se sientan capaces de hacer cualquier cosa, que sepan que pueden resolver muchos problemas y conflictos a través de ellas, que pueden superar los retos que se les planteen.

Si no hacemos esto, si dejamos que las matemáticas continuen precibiéndose como algo “aburrido”, tedioso, difícil y sin utilidad, la sociedad en la que vivimos no evolucionará, no mejorará, quedará estancada y sin futuro.

jueves, 29 de enero de 2015

DESCENSO DEL PUNTO DE CONGELACIÓN


- Estuve viendo Órbita Laika - me comenta un amigo - e hicieron un pequeño experimento con hielo y sal para fabricar helado. ¿Por qué ocurre esto?

Bueno, esta pregunta me la hicieron el otro día a raíz de la sección "Ciencia en la Cocina" del programa Órbita Laika emitido en la2 de TVE. En el siguiente vídeo vemos el experimento al que se refería este amigo y que no lograba entender lo que pasaba.

En el vídeo podemos ver cómo un cocinero y un científico peparan un helado de vainilla, que debe estar buenísimo, utilizando como fuente de refrigeración una "Mezcla Frigorífica". Esta mezcla simplemente contiene hielo y sal. Como vemos, si añadimos sal al hielo picado, su temperatura baja.

Esto lo podemos explicar a groso modo de la siguiente manera: Cuando añadimos sal al hielo, ésta se disuelve en el agua que recubre el hielo, pues el hielo a 0ºC, como está al principio del vídeo, se encuentra en pleno cambio de fase (de sólido a líquido). La sal disuelta en el agua, hace que la concentración en sal de la misma aumente (evidentemente). Entonces existe un desequilibrio entre la concentración del agua líquida y el agua sólida. Como todo en la naturaleza, este desequilibrio tiende a compensarse. El agua concentrada requerirá más agua para diluir la sal y rebajar su concentración. Este agua tendrá que salir del hielo, es decir, el hielo deberá fundirse un poco para proporcionar agua líquida. Pero, ¿qué tiene que pasar para que el hielo se funda? Exacto, debe absorber calor.


Esta energía deberá absorberla de aquello que esté en contacto con él, esto es, la misma disolución de sal y agua. De este modo, bajará la temperatura de la mezcla. Pasado un tiempo, se alcanzará un nuevo equilibrio térmico y la concentración de sal en el agua será lo suficientemente baja como para no necesitar más hielo fundido. En el nuevo equilibrio térmico la temperatura de ambos elementos (agua sólida y disolución de agua y sal) será la misma y, además, estará por debajo de los 0ºC iniciales. De este modo, tenemos coexistencia de agua líquida y sólida por debajo de los 0º C.

¿Qué pasaría si añadiésemos más sal? Pues que se produciría el mismo efecto de nuevo y bajaría aún más la temperatura. ¿Podemos añadir sal y bajar la tempertatura todo lo que queramos? Pues no, como explican en el vídeo, la temperatura mínima alcanzable mediante este método son -21ºC y la tendremos cuando la disolución sea de un 23% de sal en el agua.

Ahora es cuando alguien lee esto y dice "este está flipao". Bueno, es cierto que estoy bastante "flipao", pero existe una interpretación microscópica de lo que ocurre. Para entenderla debemos saber algo de composición molecular tanto del agua como de la sal.

Empezaremos con el agua. El agua está compuesta por dos àtomos de hidrógeno y uno de oxígeno. Lo que nos importa de esta molécula es, sobretodo, que está polarizada. Es decir, que sus cargas positivas se encuentran concentradas en los átomos de hidrógeno y sus cargas negativas en el átomo de oxígeno. Vamos, que podemos encontrar un polo positivo (H) y otro negativo (O).

Cuando el agua se encuentra en estado sólido (esto es hielo, si no me equivoco) sus moléculas se encuentran organizadas en redes cristalinas que se sujetan a causa de las fuerzas atractivas conocidas como "puentes de hidrógeno".


Por su parte, la sal común está formada por cloro (Cl) y sodio (Na). En esta asociación, el sodio tiene un electrón que le sobra y se lo presta al cloro que, justamente, necesita un electrón de más para ser más estable.


El agua, tiene la capacidad de disociar esta pareja de elementos. Es decir, es capaz de separarlos en iones cloro (negativos) e iones sodio (positivos), envolviendo los iones de sodio con su polo negativo (su oxígeno) y los iones de cloro con sus hidrógenos. De este modo se produce la disolución de la sal. En una disolución no podemos identificar los componentes que la forman. Si nos dan un vaso de agua pura y otro de agua con sal diluida, no podremos diferenciarlos a simple vista.

Por si el Cloruro Sódico se enfada, también podemos interpretar este hecho como que es el sodio el que se entromete entre los oxígenos que forman el agua, rodeándose de ellos.



Cuando las moléculas de la sal se disocian y sus iones se interponen entre las de agua, estos puentes de hidrógeno se debilitan, de este modo, se necesita menos energía para romperlos,  haciendo que la temperatura de fusión/congelación sea menor.  Es como evaporar agua a una tempreatura menor que los 100 ºC. Si tenemos agua líquida y reducimos la presión que se somete sobre ella, las partículas necesitarán menos energía para moverse libres. Entonces, si aumentamos su temperatura cambiará su estado con menos energía que si la presión es alta.

Es por eso que el arroz hervido o la paella, no tadan lo mismo ni necesitan la misma cantidad de agua en una localidad cercana al mar que en otra que esté en las montañas. Eso es porque la presión atmosférica es menor conforme aumentamos la altura sobre el nivel del mar.

Con el caso del hielo y la sal pasa lo mismo, sólo que aquí no variamos la presión, sinó que interponemos partículas de sal entre las de agua. De este modo baja su punto de congelación.

Ambas explicaciones dicen lo mismo, sólo que la primera lo explica a nivel macroscópico y la segunda a nivel microscópico.

Sea como sea, por eso hechamos sal para hacer desaparecer la nieve. No es que la sal derrita la nieve, no. Es que la sal hace disminuir la temperatura que debe tener la nieve para conservarse en estado sólido. Por eso se licua.

Espero ayudaros a comprender este fenómeno. Para cualquier duda, estáis invitados a comentar.

Dicho esto, la pregunta que me viene a la cabeza es ¿En qué se diferencian un cocinero de un científico? ¿Es la cocina un laboratorio doméstico?


lunes, 24 de noviembre de 2014

LA INTEGRAL DE NEWTON VS LEIBNIZ


La integral se define como la suma infinita de elementos infinitamente pequeños, se interpreta como el área comprendida entre la curva y el eje de la variable cuando tenemos una función de una variable y bla, bla, bla...

Esta es la definición de una integral que podemos encontrar en la mayoría de libros de matemáticas. Es lo que nos explican (o deberían) en los cursos preuniversitarios y es lo que se nos reexplica en los primeros años de universidad a todos los estudiantes de ingenierías, ciencias físicas, química y cualquier grado relacionado con las ciencias en general. En el caso de integrales para una sola variable (una dimensión), siempre encontramos su definición ligada a una expresión tal que:
Donde f(x) es una función contínua y derivable, dx es el elemento infinitesimal o diferencial y F(x) la función llamada primitiva, que viene acompañada por una constante K arbritaria. Ambas conforman lo que vulgarmente llamamos "resultado" de la integral.

Todo esto es muy interesante, y es muy importante comprenderlo y saber interpretarlo correctamente si nos encontramos estudiando algún campo de los anteriormente mencionados. La cosa es que en mi caso particular, la primera vez que se me habló de esto, se me presentó como la integral de Newton. Newton, ese personaje casi divino, conocidísimo de siempre. Sus leyes de la dinámica, su ley de la gravitación universal y, además, inventor del cálculo diferencial (entre otras cosas). Madre mía, ¿pero qué comía este hombre? Menudo monstruo, ¿no? Bueno. Sin duda era muy inteligente, tenia una dedicación admirable por sus estudios y realizó grandes avances en los campos de la física y las matemáticas. Años más tarde, se me presentó de nuevo el mismo concepto, pero esta vez lo llamaron la integral de Newton-Leibniz.

Leibniz... ¿Quién era este Leibniz? ¿Qué hacía ahí, al lado de Newton? Lo primero que pensé era que podría ser el segundo apellido de Newton, pero "Isaac Newton Leibniz" no parecía tener mucho sentido. Claro, Leibniz tenía que ser otra persona. Pero, ¿qué hizo esta persona para aparecer al lado de Newton en uno de los descubrimientos más famosos de este?

El cálculo infinitesmial no es ningun tema baladí, no es ninguna broma. Es una herramienta potentísmia que nos dan las matemáticas para poder explicar la naturaleza, para poder hacer CIENCIA. Newton lo desarrolló a partir de deducciones geométricas para explicar sus leyes de la dinámica y darle un sentido lógico-matemático a los fundamentos de la cinemática de Galileo. Además, en la época de Newton no había computadoras con programas de cálculo. Tampoco había tablas de derivadas e integrales immediatas disponibles en ningún libro. De hecho, no había cálculo infinitesimal (¡¡lo inventó él!!) Lo que había era geometría y tiempo para estudiar. Bueno, lo del tiempo es relativo. No todo el mundo tenia recursos para estudiar ni tiempo para dedicarle al estudio. Newton era un noble, llegó a ser "Sir" de su majestad. Un campesino que se dedicara a criar cerdos no tenía suficiente tiempo. Debía trabajar para comer y alimentar a su família, aún no se había inventado la "jornada laboral". Simplemente salía el sol y se trabajaba hasta que se escondiese. Punto. Bien, Newton sí tenía el tiempo, los recursos y las ganas suficientes para hacer todo lo que hizo. Merece todo el mértio para que la integral lleve su nombre ¿Pero Leibniz?


Investigando, resultó ser que Gottfried Leibniz era un matemático, coetáneo de Newton, del Sacro Imperio Romano Germanico. Uno de los filósofos y pensadores más grandes de los siglos XVII y XVIII. Apodado como "el último genio universal" hizo grandes contribuciones en los campos de la metafísica, la epistemología, la física, las matemáticas, la teología, historia, geología y jurisprudencia. Uno de sus aportes, como podréis suponer, fué el desarrollo del cálculo infinitesimal.



Y os preguntaréis: ¿Cómo? ¿El mismo cálculo que Newton? Pues sí. Y lo hizo de manera independiente. Es decir, tanto Newton como Leibniz desarrollaron las mismas herramientas de las matemáticas que ahora conocemos como cálculo diferencial sin hablarse ni conocerse. O sea, que no lo inventó sólo Newton.

Haciendo un alarde de comportamiento humano, lejos de poner en común sus conociemientos y ahondar en el estudio de sus desarrollos, estos dos grandes estudiosos eligieron la inteligente vía de la discusión y la acusación de plagio el uno al otro para determinar quién de los dos lo inventó primero. La discusión no tenía ningún sentido, pues  lo hicieron al mismo tiempo. El plagio era imposible, pues ni se conocían, ni vivían en el mismo país. Estas dos mentes dedicadas al estudio discutieron hasta el día de su muerte. Uno más que el otro, pues Newton tenía contiendas con otros personajes de los que ya hablaremos, como por ejemplo Robert Hooke. Sabiendo esto, me sigo preguntando, ¿por qué se explicaba la integral de Newton y no la de Newton-Leibniz?

Parece ser que la influencia de Newton, su poder, su "control de los medios" (si se permite el anacronismo), permitió que durante siglos, fuese él el considerado inventor del cálculo infnitesimal. Paradójicamente, la integral como la conocemos (el área bajo la curva...) es una definición de Leibniz. Así como los símblos que utilizamos (la S alargada para definir una integral, los diferenciales dx, dy, dz) también fueron introducidos por Leibniz. Sin embargo, algunos aún la llaman la integral de Newton, sólo de Newton. Por suerte, ya es difícil encontrar la integral definida y explicada sin nombrar a ambos. Pero aún así, se le llama la integral de Newton-Leibniz. Newton sigue estando por delante, aún cuando el orden alfabético que se debería aplicar en estos casos, no se cumple.

En fin, muchas veces la historia es injusta con los protagonistas. Es imposible determinar quien de los dos tiene más mérito a la hora de "descubrir" el cálculo infinitesimal, pero no debemos dejar a ninguno de lado. Su aportación a las matemáticas es tal, que les debemos dar las gracias In sæcula sæculorum. Perdonemos sus discusiones y aprendamos de ellos. 

Si hubiesen llegado a las manos, ¿por quién apostaríais?

Hasta la próxima!

martes, 11 de noviembre de 2014

LAS LEYES DE KIRCHHOFF


En esta entrada vamos a intentar comprender qué pudo llevar a Kirchhoff a deducir sus leyes de los nodos y las mallas en 1845. Kirchhoff anunció sus leyes mientras aún era estudiante de la Albertus University of Königsberg, bajo la tutela de su mentor Franz Ernst Neumann. Las leyes de kirchhoff se publicaron como extensión de la ley de Ohm. La generalidad de sus resultados así como la simplificación de los cálculos demuestran las excelentes habilidades matemáticas de este personaje. Pero, ¿qué pudo llevarle a pensar en estas leyes tan generales? La necesidad de establecer una red eléctrica bien distribuida y eficiente era un problema actual para la época. Había que resolverlo. La idea de Kirchhoff era aplicar algo tan sencillo como los principios básicos de conservación conocidos.
Principios de conservación:
Como hemos dicho las leyes de Kirchoff para la resolución de circuitos se pueden deducir a partir de dos principios de conservación básicos en la ciencia.
El primero es un principio fundamental en ciencia. El principio de conservación de la carga. Aquí podéis ver el que probablemente sea el primer enunciado de este principio. Escrito por Benjamin Franklin en 1747:

"Ahora se ha descubierto y demostrado, tanto aquí como en Europa, que el Fuego Electrico es un elemento real, o Especie Material, no creada por fricción, sino recogida"
-Benjamin Franklin, Carta a Cadwallader Colden, 5 de junio de 1747
Básicamente este principio afirma que en cualquier proceso eléctrico la carga total de un sistema aislado se conserva. Es decir, que la cantidad de partículas cargadas es la misma al inicio y al final del proceso. Este principio tiene gran aplicación en química (en las reacciones químicas se producen intercambios de partículas cargadas) como trataremos en futuras entradas.
El segundo es el principio de conservación de la energía. Este es básico en física y constituye el primer principio de la termodinámica.
Básicamente este principio dice que la energía no se genera de la nada. Se puede transmitir entre sistemas en forma de calor, energía mecánica, trabajo, etc. Además se mantiene constante, o sea que la energía que se le transmite a un sistema es igual a la suma de energías que transmite dicho sistema, ya sea trabajo realizado por el mismo, energía que se pierde en forma de calor, etc.
Leyes de kirchhoff:
Pero, ¿qué relación tienen estos principios con las leyes de kirchhoff y los circuitos eléctricos? Bien, si centramos nuestra atención en la primera de las leyes de Kirchhoff encontraremos su clásico enunciado:
En cualquier nodo de un circuito, la suma de las corrientes entrantes es igual a la suma de las corrientes salientes.”
Y su traducción matemática:
 
Es decir, que la cantidad de corriente que entra en un punto del circuito es igual a la cantidad de corriente que sale del mismo. ¿Y que es la corriente? Pues la corriente se define como la CANTIDAD DE ELECTRONES que pasan por un cable de cierta sección por unidad de tiempo. ¡Vaya! ¡Cantidad de electrones! Es decir, que es una cantidad de PARTÍCULAS CARGADAS que a la entrada de un punto y a la salida es la misma. O sea, que se conserva. Así pues la primera ley de Kirchhoff hace referencia directa al principio de conservación de la carga.
¿Adivináis a que principio de conservación hace referencia la segunda ley de Kirchhoff? Pues sí, a la conservación de la energía. Vamos a verlo.
En un circuito de corriente continua tenemos elementos que aportan energía, típicamente pilas o fuentes de energía variable. Del mismo modo, tenemos otros elementos que disipan energía, típicamente resistencias. Las fuentes de energía aportan cierta cantidad de energía que es consumida (en parte) por las resistencias. Es fácil de comprobar sobre un circuito sencillo porque al poco tiempo de ponerlo en marcha, las resistencias se calientan (pueden llegar a quemarse), es decir, disipan energía en forma de calor.
La segunda ley de Kirchhoff dice que :
En una malla, la tensión proporcionada es igual a la suma de caídas de tensión a lo largo de la misma”.
Y su traducción matemática:
La tensión proporcionada no es más que la energía que aporta una pila. La caída de tensión es la diferencia de energía potencial que encontramos entre los extremos de una resistencia, que es debida a la disipación de energía en forma de calor de la que hemos hablado.
Puedes seguir la resolución de un circuito eléctrico aplicando estas leyes en el siguiente vídeo.
Conclusiones:
La ciencia proporciona una manera de resolver los problemas a partir de pruebas, deducciones lógicas y desarrollos teóricos basados en el conocimiento ya desarrollado. En esta ocasión, vemos que las Leyes de Kirchhoff, que parecen surgir de la nada, no son más que la aplicación de los principios de conservación fundamentales con el fin de resolver un problema. Sí es cierto que Kirchhoff fue capaz de desarrollar un sistema matemático sencillo para el cálculo, cosa que requiere de un gran trabajo así como de una gran capacidad de abstracción y deducción, pero tendemos a “diosificar” a los científicos sin pensar en el arduo trabajo que probablemente le costó dicha deducción así como la formación previa y la total dedicación a la resolución del problema. No pretendemos con esto menospreciar el trabajo de Kirchhoff ni mucho menos, es uno de los grandes científicos de la historia y sus aportaciones tanto en el campo de la electricidad como de la termodinámica son de primerísimo nivel. Simplemente tratamos de “humanizar” a este gran científico que, sin duda, ayudó a cambiar el mundo.

Hasta la próxima!

miércoles, 29 de octubre de 2014

LA IMAGEN DE LA CIENCIA

Hagamos un pequeño experimento. Cierre los ojos y piense en un científico. Seguramente en su cabeza habrán aparecido imágenes parecidas a estas.

La pregunta que planteamos es, ¿por qué?

Parece ser que en la sociedad tenemos una imagen estereotipada de la ciencia. Una imagen que distorsiona el trabajo centífico y hasta produce actitudes negativas frente al mismo. Hay muchos indicadores de estas actitudes negativas, pero hoy nos centraremos pricipalmente en la imagen que tenemos de los científicos.

Sí. Si pensamos en científicos pensamos en hombres maduros, con el pelo muy canoso, medio calvos, con gafas, vestidos con bata, etc.
Puede que esta imagen corresponda a los científicos que hemos encontrado en los libros de texto, es decir, los científicos que "nos enseñan" en el colegio. Aquellos científicos clásicos, que parecen de otro mundo porque lo inventaron todo y que nunca tenemos en cuenta el tiempo que dedicaron a trabajar duro y estudiar. Y también a aquellos que quedaron por el camino, que no llegaron a ninguna conclusión o cuyas teorías y experimentos no condujeron a nada (sí, esos también existieron y existen, pero la historia sólo recuerda a los famosos). Comprobémoslo.

Aquí tenemos a algunos de estos científicos:

Marie Curie: Ganó el premio nobel de física en 1903 (junto con su marido Pierre Curie y Henri Becquerel) por sus investigaciones en los fenómenos de radiación y el premio nobel de química en 1911 por conseguir aislar los elementos radio y polonio.
James Clerk Maxwell: Le debemos la sintetización de la teoría del campo electromagnético, la demostración que campo eléctrico, campo magnético y hasta la propagación de la luz (ondas electromagnéticas) son manifestaciones del mismo fenómeno.
Emmy Noether: Realizó contribuciones fundamentales al campo del álgebra abstracta y la física teórica.
Charles Darwin: Su teoría de la evolución, aunque no fue aceptada en un principio, estableció las bases de la síntesis evolutiva moderna. Sus descubrimientos científicos son considerados como el acta fundacional de la biología.
 
Viéndoles, parece ser que ninguno transmite esa imagen estereotipada que aparece en nuestra mente (y en el buscador de google imágenes ;) si pensamos en el término "científico". ¿Podría ser entonces por la imágen que transmiten los científicos contemporáneos? Vamos a conocer a alguno de ellos:

George F. Smoot: Este astrofísico de los Estados Unidos fué galardonado con el  premio Nobel de física en 2006 (junto con John C. Mather) por su estudio de la radiación de fondo de microondas existente en el universo.
Dorothy Hodgkin: Química británica pionera en el uso de los rayos X para el estudio de la estructura molecular de las sustancias de interés bioquímico. Fué galardonada con el premio Nobel de química en 1964 por este hecho.
Lynn Margulis: Fué una destacada bióloga de Estados Unidos que realizó importantes aportaciones al campo de la biología evolutiva.
Ignacio Cirac: Físico español. Destacan sus estudios sobre la computación cuántica y la óptica cuántica. Dirige la división teórica del Instituto Max Planck en Garchign, Alemania.

Vaya! Parece ser que los científicos contemporáneos tampoco transimten una imágen muy diferente de la que transmite la gente de la calle. Y el secreto está ahí, son gente normal. Como usted, como yo, como cualquiera. Desarrollan su trabajo como cualquier otro, sólo que su trabajo consiste en investigar, hacer hipótesis para intentar explicar el comportamiento de la naturaleza, comprobar qué tienen de cierto y de falso estas hiótesis, etc.

De modo que tenemos a unas personas que se dedican al mundo de la ciencia que no difieren de las personas que nos encontramos todos los días por la calle. Si las comparamos con las imágenes estereotipadas del científico, encontraremos muchísimas diferencias. Por ejemplo, en el mundo real de la ciencia HAY MUJERES científicas ¡Como en cualquier otro campo de trabajo! ¿Por qué no tienen tanta relevancia como los hombres? ¿Es que no hacen su trabajo? (esto daría para varias entradas). No siempre van vestidos con bata, llevan ropa normal para su época. No tienen por qué estar calvos ni llevar peinados estrafalarios. Hay absolutamente de todo, como en cualquier sitio.

La pregunta que surje ahora es ¿POR QUÉ TENEMOS ESTA IMAGEN DISTORSIONADA DE LOS CIENTÍFICOS? Puedes dejar tu opinión como comentario a esta entrada. En un futuro discutiremos las posibles razones.

Hasta la próxima!

lunes, 13 de octubre de 2014

LA FUERZA DE COULOMB.... SÓLO DE COULOMB?

Charles Coulomb

Si echamos un vistazo a nuestros libros de física, en los apartados dedicados al campo eléctrico, encontramos un concepto llamado Fuerza de Coulomb. Viéndolo así, pensamos en Coulomb como un hombre que tradujo lo que la naturaleza hace con las cargas eléctricas, al idioma de las matemáticas. Y es así... o casi. "Casi" porque resulta igenuo y, sobretodo, injusto considerar que Coulomb desarrollo él sólo esta ecuación para la fuerza entre cargas. Aunque merecidamente lleve su nombre.






Un breve repaso histórico

Resina Fosilizada
Ya en la antigua grecia se observaban fenómenos de atracción eléctrica. Thales de Mileto (640 a.C. - 546 aC) observó que al frotar un pedazo de resina fosilizada, ésta era capaz de atraer pequeños objetos como plumas o pajitas. 

Esta atracción se confundió con la atracción magnética que producian ciertos minerales como la magnetita. No fué hasta el siglo XVI cuando William Gilbert (1540-1603) estudió sistemáticamente los fenómenos eléctricos y magnéticos por separado. Fué el primero que diferenció ambas interacciones, además, introdujo los términos de fuerza eléctrica, atracción magnética y polo magnético.
En 1729 Stephen Gray (1666-1736) realizó las primeras experiencias de transporte de energía eléctrica. Descubrió de que la atracción y repulsión conseguidas por frotamiento de materiales, se podían transmitir de un cuerpo a otro mediante conexiones metálicas. Conociendo este resultado, Charles François Du Fay (1698-1739) realizó un experimento en el que una hojita de oro era atraída por un trozo de vidrio frotado hasta que estos objetos se tocaban. Entonces la hojita dejaba de ser atraída por el vidrio. Lo más curioso que observó, era que en ese momento, la hojita empezaba a ser repelida por un trozo de resina frotada! Du Fay, introdujo los conceptos de atracción vítrea y atracción resinosa. Pensaba que había algun tipo de fluido que se intercambiaba entre los cuerpos.

Benjamin Franklin

Más adelante, Benjamin Frankiln (1706-1790) en 1747, determinó que este fluido era único para todos los materiales y que las atracciones y repulsiones entre ellos, se debían a los desequilibrios (excesos y defectos) de este fluido contenido en cada cuerpo. Suponía que al frotar dos cuerpos, este fluido se trasvasaba de uno a otro. Esta teoría lleva implícito el principio de conservación de la carga. Realizando experimentos con diversos materiales, Franklin observó que pequeños trozos de papel, parecían no verse afectados por esta fuerza eléctrica cuando se encontraban en el interior de una copa metálica previamente cargada por contacto con resina frotada. Su compañero Priestley (1732-1804) demostró que no existe ninguna interacción eléctrica en el interior de un recipiente metálico cargado. A patir de este resultado, dedujo que las fuerzas debidas a estas descompensaciones de fluido eléctrico, eran inversamente proporcionales a la distancia al cuadrado que separa los cuerpos que intervienen.
Charles Coulomb (1736-1806) contrastó estos resultados de manera experimental utilizando una balanza de su propia invención. Este hecho le llevó a enunciar su famosa ley de la fuerza eléctrica entre cargas:
La fuerza ejercida por una carga puntual sobre otra está dirigida a lo largo de la línea que las une. Es repulsiva si las cargas tienen el mismo signo y atractiva si son de signo contrario. Además es inversamente proporcional a la distancia que las separa"

Conclusión:

Claro que Coulomb merece que su ley lleve su nombre! Fué capaz de aunar los conocimientos acumulados durante más de dos mil años y plasmarlos en una sencilla ecuación matemática. Dedujo dicha ecuación a partir de un experimento diseñado por él mismo y, seguramente, por muchos de sus ayudantes. Pero tendemos a olvidarnos de todos los años en los que se estuvo trabajando con las fuerzas electricas, los transportes de cargas, los experimentos realizados, etc. Olvidamos que estos grandes científicos son seres humanos, que dedican mucho tiempo a su trabajo y que, si dan en el calvo, obtienen reconocimiento histórico. La gran mayoría, ni los conocemos y seguramente aportaron su grano de arena al desarrollo de las leyes y teorías que conocemos hoy en día y que, injustamente, llevan el nombre de uno sólo de ellos.

Hasta la próxima!