lunes, 9 de diciembre de 2013

ASCENSO Y CAIDA DEL ETER


Qué ruido es ése?
El viento bajo la puerta.
¿Qué ruido es ése ahora?
¿qué hace el viento?
Nada, como siempre.
Nada.

T. S. Eliot.

La Tierra baldía


La historia del éter es notable. A fines del siglo XVII, Newton había construido un universo libre de escombros medievales, unificado bajo la égida de la gravitación, y vacío. Los dos siglos siguientes se apresuraron a llenarlo. Motivos, como siempre, había. La teoría ondulatoria de la luz exigía que las ondas de luz fueran ondas de algo, que algo se moviera y vibrara. Las ondas de sonido son movimientos del aire, las olas, del agua. Pero cuando la luz se propaga en el vacío... ¿qué es lo que oscila? El vacío no es nada, y la nada no puede vibrar. Y así fue como el universo se lleno de éter para que algo pudiera vibrar y para que la teoría ondulatoria pudiera vivir.

El éter, tan luego. El éter era una sustancia de inconfundible cuño prenewtoniano: no solamente era incoloro, inodoro e insípido (invisible, e impalpable, además) sino que carecía de peso, era elástico, no ocupaba lugar e interpenetraba los cuerpos, que lo atravesaban limpiamente y sin percatarse de ello. El éter era bastante inverosímil, pero la teoría ondulatoria de la luz necesitaba éter, y hubo éter. Que en la segunda mitad del siglo XIX se hizo mas necesario que nunca, cuando el físico escocés James Clerk Maxwell, entre los años 1864 y 1873, unifico los conceptos de electricidad y magnetismo mostrando que eran aspectos de un único fenómeno el electromagnetismo y mediante un puñado de leyes muy simples logro explicarlo por completo. Era una vasta síntesis, una hazaña de tipo newtoniano, y que, rindiendo tributo a su estirpe, no ahorro notables predicciones. Entre ellas, la que afirmaba la existencia de ondas electromagnéticas (la luz misma, sugirió Maxwell, no es sino un fenómeno electromagnético). Afirmaciones puntualmente verificadas un puñado de años más tarde, cuando Hertz detecto las ondas adivinadas por Maxwell, y que hoy nos deparan placeres como la radio y delicias como la televisión. Y donde se propagaban estas ondas? En el éter, por supuesto.

Pero si se lo piensa, a finales del siglo diecinueve, el éter era una antigualla. Era como una lampara de aceite en medio de una iluminación de mercurio, como un molino de viento al lado de un ciclotrón, como si hiciera falta una carreta para explicar una locomotora. El éter podía convivir sin problemas con la ambrosía de los dioses, o con los cuatro imaginarios elementos aristotélicos, con la alquimia y su piedra filosofal, o incluso con el flogisto, pero en una época que ya manejaba la tabla de Mendeleiev, una sustancia como el éter no solo era químicamente molesta, sino completamente anacrónica. En verdad, el éter era una porquería.

Y sin embargo, allí estaban los científicos viviendo en el éter, (y creyendo en él). Y allí estaba el electromagnetismo exigiendo que sus ondas vibraran en un océano de éter. Que además, estaba en reposo absoluto.

Eso era lo peor de todo. Porque si el éter estaba en reposo absoluto, el movimiento absoluto debía existir también. Era una vuelta atrás. Enterrar los conceptos de reposo y movimiento absolutos había costado una dura lucha. ¡Y ahora volvían, como el fantasma del padre de Hamlet, de la mano del electromagnetismo! Y lo más peligroso es que el electromagnetismo no solo sugería el éter, el reposo y el movimiento absolutos, sino que afirmaba tener las herramientas como para medirlo.

Parecía simple: si el éter, en reposo absoluto, llena todo el universo, entonces la Tierra se mueve a través de una sopa de éter con movimiento también absoluto, y si la Tierra se mueve a través del éter, sobre ella actuara una especie de corriente de éter ( de la misma manera que un avión en movimiento recibe una corriente de aire). Si se envía un rayo de luz en sentido paralelo y contrario a la corriente de éter, esta corriente lo retrasara, de la misma manera que la corriente de un río es capaz de retrasar una barca. Y este retraso constatara el movimiento absoluto de la tierra y la existencia efectiva del éter.

Y bien. El físico norteamericano Michelson perito en medir la velocidad de la luz, no quiso perderse la oportunidad de confirmar el movimiento absoluto de la Tierra moderna a través del éter medieval. Monto los aparejos y afinó los instrumentos para que captaran la magnitud exacta del retraso, por ínfima que fuera. En 1881 llevo a cabo el experimento : el rayo partió y llego sin ningún retraso. Ningún viento de éter había perturbado el firme desplazarse de la luz. Y aunque el experimento de Michelson pareció en su momento un fracaso, había sido todo un éxito. El éter estaba muerto.



miércoles, 4 de diciembre de 2013

Los números del mosquito


DIALOGO CON HERNAN SOLARI, FISICO, DEL GRUPO DE ESTUDIO DE MOSQUITOS, FCEN



Las matemáticas aplicadas a la biología del mosquito permiten medir las estadísticas y generar modelos sobre la maduración de las larvas, su desarrollo y el control de la población.



–Cuénteme qué hace.
–Yo soy físico de formación y trabajé en física durante quince años. Después me fui pasando a la matemática, de la matemática a la física aplicada, después hice matemática más en abstracto y terminé haciendo matemática aplicada a la biología. Y ahí empezó mi colaboración con el grupo de mosquitos.
–¿Cómo es la matemática aplicada a la biología? –Lo que nosotros tratamos de hacer es ver qué matemática demanda la propia biología. A veces ocurre que se demanda una matemática que todavía no ha sido explorada, por lo cual uno tiene que hacer desarrollos en algunas cosas y al mismo tiempo esa construcción va generando requerimientos sobre la biología. Una cosa con la que estamos trabajando ahora es medir las estadísticas de tiempos de maduración de las larvas del mosquito. Es algo que uno ve desde el modelo que es necesario, que es fundamental, que uno necesita saber y que sin modelo es algo con lo cual los biólogos parecen no poder sacar conclusiones. Entonces hay un ida y vuelta entre la biología y la matemática. Por ejemplo, uno puede calcular las posibilidades de que una población de mosquitos se extinga. Estamos en el borde de la zona de distribución del mosquito Aedes aegypti. Eso significa que el modelo no puede ser de tal modo que presuponga que no hay extinciones, o que las poblaciones son muy grandes, modelo que funcionaría muy bien en el trópico, por ejemplo, donde no hay problemas de extinciones. Cuando uno hace el modelo para la Capital Federal, resulta que hay zonas que quedan completamente libres de mosquitos, zonas que después en el verano son recolonizadas.
–¿Y entonces? –Esta despoblación y recolonización había sido intuida por los biólogos y ahora es reconfirmada por los modelos. Pero, como le decía, el modelo debe ser capaz de tratar extinciones. Esa era una de las limitaciones primeras que tuvimos. Después necesitamos describir el ciclo de vida del mosquito y saber que esto no es una cosa determinista, que hay muchas variables que no controlamos y que va a ser estocástico. El modelo es necesariamente estocástico, y por mucho tiempo no supimos los estadios que teníamos que describir ni con cuánta minuciosidad teníamos que describirlos. Hay cosas que dependen de la descripción de los estadios, hay cosas que no dependen de la descripción de los estadios, hay una dinámica entre la biología, la matemática y las preguntas que uno le va a hacer al modelo.
–¿Cómo es esa dinámica? ¿Cuáles son las preguntas? –Nosotros empezamos con una pregunta básica: quisimos saber cómo eran las poblaciones de mosquitos para, a partir de eso, poder predecir las epidemias de dengue en la zona de Buenos Aires, que es aquella para la que tenemos datos (aunque no es la zona más propensa al dengue del país). Para generar una dinámica de la población en un año normal, Buenos Aires tiene unas lluvias que son más o menos regulares, de modo que hasta podrían ignorarse. Con el perfil de las poblaciones, se pueden calcular las posibilidades de epidemia. Justo el año que hubo circulación de virus, de hecho hubo una sequía que fue la mayor en cincuenta años (en 2009). Uno de los pensamientos era que el mosquito necesitaba agua para desarrollarse, la sequía tendría que haber hecho que el mosquito no se desarrollase y, por lo tanto, que hubiera pocas posibilidades de circulación de dengue. Y sin embargo, el dengue circuló.
–¿Por qué? –Porque la población tiene muchísima capacidad de recuperación. Primero, porque aparecen fenómenos, que son de baja probabilidad, de huevos que eclosionan sin que caiga una lluvia (sea por intervención del hombre, sea porque las hembras ponen los huevos sobre el agua). Después, lo que hay es una recuperación muy pero muy rápida de la población de mosquitos después de la sequía. Vienen dos o tres lluvias regulares y la población se recupera como si no hubiera habido sequía. O sea que los efectos de la sequía no se extienden en el tiempo. Mientras hubo lluvia, la población se deprimió, pero luego se recupera rápido. La circulación que se vio del virus del dengue en la zona correspondía a ese momento posterior a las primeras lluvias. El efecto de la sequía no dura. Entonces, si queremos reproducir bien esa dinámica, tenemos que reproducir mucho mejor los mecanismos de eclosión inducidos por las lluvias. Y esto lleva a cambiar la forma en que uno está describiendo la eclosión y los estadios de desarrollo. Y ahí aparece otro factor, que es el de la comida.
–A ver... –Esta es una gran discusión que tenemos. Hay un cierto consenso en que siempre hay algo que limita las poblaciones. Si la población no está controlada por nada, va a tender a crecer al infinito. Es exponencial. Si el modelo es lineal, el crecimiento es exponencial.
–Entonces, ¿dónde están los controles de población? –Llegamos a la conclusión de que los controles aparecen en el estadio larval. El mosquito adulto no tiene demasiados problemas en encontrar comida: sorbe jugos de las plantas, azúcares, y las hembras precisan picar a los humanos para poner los huevos. El Aedes tiene preferencia por los humanos.
–¿Por qué? –No sabemos, se crió con el humano. Pican también animales, pero no los eligen si tienen la posibilidad de elegir. Le decía que en el estadio larval compiten entre ellos por la comida, aparentemente. Pero la impresión que tienen los biólogos es que la comida es demasiado abundante como para que estén compitiendo por ella. Entonces la manera de resolver esto fue hacer un experimento, darles distintas cantidades de comida y ver cuál era el efecto de esto sobre el desarrollo de las larvas. Algunas cosas se sabían, como que el tiempo medio que tardaban en desarrollarse iba a decrecer en la medida en que tuvieran menos comida y el tamaño iba a ser más chico, pero otras cosas como que el proceso se iba a dispersar en el tiempo no se sabían y es algo que ahora estamos viendo.
–¿Cómo que se iba a dispersar en el tiempo? –Lo que uno va a encontrar en los libros de biología es que los bichitos se desarrollan en lo que se llama “cortes”. Todos los huevos que eclosionaron al mismo tiempo se van desarrollando más o menos sincrónicamente y a los cinco días emergen los adultos. Eso pasa en la medida en que la comida es muy abundante. Cuando la comida no es abundante, no tardan cinco días, sino diez o veinte, pero se dispersan: alguno madura a los diez, otro a los quince, otro a los veinte. Está todo mucho más disperso, ya no es una cohorte homogénea. Y esto cambia mucho la cuestión.
–No hay mucho dengue en Buenos Aires, ¿no? –No, la verdad que no. Y no debería haber, porque se tienen que dar condiciones muy apropiadas que en la ciudad no se dan.

miércoles, 27 de noviembre de 2013

Vehículos y laboratorios diminutos


 DIALOGO CON JUAN PAPPALARDO Y ANA LAURA ZAMIT, DEL INTA



El grupo de bionanotecnología del Instituto de Virología del INTA trabaja en el desarrollo de dispositivos portátiles de diagnóstico para animales y la aplicación de la nanotecnología para la producción de mejores vacunas.



–Cuéntenme qué hacen. Juan Pappalardo: Nosotros trabajamos en el Instituto de Virología. Formamos un grupo muy nuevo, que empezó realmente a partir del 2011, aunque ya existía la idea desde 2009-2010. Es el grupo de bionanotecnología: aplicamos nanotecnología en relación con el diseño de vacunas y dispositivos diagnósticos. Este es el objetivo general; en realidad, resultados tenemos muy pocos porque empezamos muy recientemente.
–¿En qué consiste ese objetivo que me dice? J. P.: La nanotecnología es la rama del conocimiento que estudia la materia en una escala pequeñísima, por debajo de la micra. –10 a la menos 9... J. P.: Sí. La particularidad que tiene es que la materia, los distintos materiales, cambian sus propiedades a escala nanométrica. Por ejemplo, si yo tengo una partícula de oro de 10 nanómetros y una de 20 nanómetros, van a tener propiedades distintas que el oro “crudo”. Cambian propiedades físicas, químicas, cambia el color. Después hay otras cuestiones que tienen que ver con el tamaño que las hace muy útiles para poder desarrollar tecnología. La nanotecnología está muy pegada a lo que es la microtecnología. Hay incluso laboratorios y empresas en el mundo que producen dispositivos diagnósticos muy pequeños, portátiles, porque tienen la capacidad de miniaturizar lo que antes ocupaba muchísimo espacio. Es como un laboratorio en un chip. Eso parece de fantasía, pero es posible gracias a la miniaturización.
Ana Laura Zamit: La nanotecnología en el mundo, pero sobre todo en Argentina, es una disciplina muy incipiente, muy nueva, sobre todo en el área de las ciencias de la vida. Lo que buscamos nosotros es aprovechar estas propiedades nuevas a escala muy pequeña, dado que son propiedades que a escala más grande no existían.
–¿Qué es lo que obtienen? A. L. Z.: Nosotros estamos trabajando en dos líneas generales: una que tiene que ver con vacunas, moléculas en diseños específicos para hacer que las vacunas sean más eficientes que las convencionales. Por otro lado, estamos tratando de ver cómo se puede emplear la nanotecnología para producir sistemas de diagnóstico en una escala portátil. La idea sería poder tener esos dispositivos para diagnosticar enfermedades de interés ganadero “a campo”.
–¿Cómo funciona? A. L. Z: En algunos casos de lo que se trata es de aprovechar las propiedades de las moléculas que ya están, que existen naturalmente, pero que se las sintetiza en tamaño nano para aprovechar las nuevas propiedades.
–¿Cuáles son esas nuevas propiedades? J. P.: Magnetismo, por ejemplo. Es una cuestión física pura: es magnetismo orientado sólo en un sentido, no como un imán común. Cada átomo de una nanopartícula de hierro está orientado magnéticamente hacia la misma dirección. Eso las convierte en moléculas muy reactivas desde el punto de vista magnético. Nosotros no hacemos esto, pero en otros países sí y se utiliza, por ejemplo, para ablación de cáncer.
–¿Qué es lo que hacen ustedes? A. L. Z.: El trabajo que estamos realizando hoy por hoy tiene que ver con una etapa inicial de lo que se llama la cadena del valor de los alimentos: nosotros estamos en la parte inicial, donde lo que hacemos es aplicar nano para mejorar la producción, ya sea desde lo que es preventivo (la vacuna) o desde el diagnóstico (el dispositivo que le contábamos).
–¿Qué tipo de producción? J. P.: Animales. Se trata de la producción de alimentos de origen animal. Lo que nosotros aportamos viene desde el campo de la nanotecnología. Tenemos que “miniaturizar” técnicas que ya existen para que sea más efectivo, más económico... Con el tema de las vacunas, se utilizan distintos nanovehículos, con lo cual lo que se hace es vehiculizar el antígeno de la vacuna. En lugar de estar disuelto en un medio líquido, el antígeno va dentro de nanovehículos, que pueden ser distintas cosas. Estos nanovehículos se forman con elementos naturales o sintéticos; en el caso nuestro, son de origen principalmente lipídico (lípidos, colesterol...). Uno encapsula el antígeno en ese nanovehículo; el nanovehículo está compuesto por el mismo material por el que está compuesta la célula. Cuando llega a destino, se desarma y no genera ningún daño. El poder vehiculizar antígeno trae la ventaja de poder usar menos cantidad de antígeno pero también asegurarse de que llega a las células del sistema inmune a las que tiene que llegar.
–O sea que están haciendo vacunas... J. P.: Estamos haciendo la prueba de nanovehículos. Piense que todo esto es muy incipiente: lo que hacemos es probar estos nanovehículos en cultivos celulares para después poder hacer la prueba en animales. Antes de eso hay que hacer muchos ensayos in vitro, después en animales de laboratorio, y recién ahí podemos pasar a las vacas. En relación con esto, tenemos una patente entre INTA y una universidad de Estados Unidos que consiste en un pedacito de ese nanovehículo que permite que vaya dirigido específicamente a células del sistema inmune.
–¿Cómo se logra eso? J. P.: Es muy largo de explicar. Se hizo un estudio muy grande de los distintos receptores que tienen las células del sistema inmune. Después se eligió un par de esos receptores específicos y se buscó qué moléculas se unen específicamente a esos receptores. Obviamente hay una cuestión de costo-beneficio: se buscó una molécula que no fuera muy cara ni muy difícil de obtener. Esto, como ve, está muy relacionado con la química. Lo que se hizo fue comprar la base de la molécula, y sintetizar junto con otras moléculas lipídicas el “ladrillito” que se inserta en el nanovehículo. Entonces queda la molécula y ésa es la que después se pega al receptor de la célula. En el nanovehículo va lo que se quiera transportar: fármacos, una bacteria, un antígeno, partes del virus, proteínas recombinantes, plásmidos. Cualquiera de esas cosas puede cargarse en un glicosoma o en un nanovehículo. Nosotros usamos mucho los glicosomas, pero se puede usar otro nanovehículo. Después uno formula y hace pruebas de “captura” con un colorante fluorescente. Así, tratamos de demostrar que esos glicosomas específicos se están pegando a la célula a la que se tienen que pegar.
–¿Qué otra cosa? A. L. Z.: Le hablo del otro tema. Nosotros estamos tratando, como le decía, de producir un dispositivo portátil, pequeño, para poder diagnosticar animales. Hoy en día las muestras de sangre se envían a los laboratorios para poder procesarlas. Muchas veces lo que ocurre es que entre el camino de ida y el de vuelta, para que lleguen los resultados al campo, la respuesta es demasiado tardía: el productor ya no puede hacer nada. En otros casos sale tan caro el periplo que directamente es inviable, sobre todo con los productores que están en las zonas más remotas. Justamente la idea es generar sistemas de diagnóstico híbridos, que tienen partes biológicas y partes nano, para evitar todos estos inconvenientes. Lo que esperamos lograr es que esa detección que antes se hacía en el laboratorio ahora se haga “al pie del animal”.
–¿Eso es algo que ya se hace en algún lugar? A. L. Z.: En el exterior hay de-sarrollos muy avanzados, pero esos desarrollos son más bien complejos. Acá en Argentina no somos los únicos que estamos trabajando en este proyecto, que involucra el trabajo de físicos (entre otros). Nosotros trabajamos en colaboración con gente del Centro Atómico de Bariloche, tenemos otro contacto dentro del INTA, que son los especialistas del virus que tomamos como modelo...
–¿Cuál es? A. L. Z.: El virus de la leucosis bovina. Nosotros tomamos un virus como modelo, como un primer paso, y la idea es ir agregando más patologías para que en una misma muestra se pueda hacer el análisis de varias enfermedades. Tenemos una red de colaboración amplia, y eso es muy importante para nuestro trabajo.

jueves, 21 de noviembre de 2013

Paisajes cordilleranos

DIALOGO CON DANIEL YAGUPSKY, GEOLOGO DEL LABORATORIO DE MODELADO GEOLOGICO, UBA

Las fallas y estructuras que caracterizan a la Cordillera de los Andes son la herencia de geometrías anteriores. El modelado geológico busca reconstruir ese pasado en función de lo que la actual cordillera muestra y permite imaginar.

–Cuénteme qué es lo que hace.
–Yo trabajo en el grupo de modelado geológico, en el cual hacemos modelados tanto análogos como numéricos de procesos de deformación de la corteza terrestre que son básicamente los que dan lugar a la formación de las montañas en distintas regiones del mundo y, particularmente, nos concentramos en lo que pasa en la Cordillera de los Andes. La idea es realizar modelos a escala, en el caso de los modelos análogos, y hacer modelos numéricos que simulen la generación, crecimiento y construcción de esas cadenas montañosas, con la finalidad de poder analizar los pasos que atraviesa ese proceso, ya que al ser cuestiones que se desarrollan a lo largo de millones de años (y esa escala está fuera de nuestro alcance y es, a veces, difícil de imaginar) esto nos permite ver un proceso que en algunos aspectos es similar y comparable con los procesos de escala real. En particular, yo...
–¿Qué hace?
–Me dedico a hacer modelos análogos, con materiales diversos (arenas, siliconas y otros materiales granulares), con los que intento explicar algunos fenómenos específicos que se dan en la Cordillera.
¿Cuáles?
–Cuando fallas generan depresiones y en un proceso posterior se invierten.
–¿Cómo es eso?
–Las fallas son discontinuidades en la corteza. Esas discontinuidades pueden dar lugar a procesos distensivos: abrir y generar espacio. Esos fenómenos se dieron por ejemplo en el Triásico y en el Jurásico (a partir de los 200 millones de años atrás hasta los 150 millones de años).
–Todavía no había cordillera...
–Claro, en esos períodos las regiones andinas estaban sometidas a extensión y había incluso ingresiones oceánicas que ocupaban esas áreas. Esos espacios se generan por el mecanismo de extensión y fallas que produce justamente distorsión: se abre la corteza e ingresan...
–¿Por qué se abre?
–Hay unos procesos específicos, los procesos de rift, que tienen un origen térmico. Primero se genera un hinchamiento de la corteza y ese hinchamiento genera un gradiente gravitacional que da lugar a distensión de las placas. Hay como un chichón y ese “chichón” genera un esfuerzo para que radíen desde esa zona las placas.
–Las placas tectónicas...
–Sí. Una placa entonces puede fracturarse en pequeñas porciones y esos fenómenos se denominan de rift, de extensión en la corteza.
–¿Y entonces?
–Esas fallas, en ciertas regiones, pueden después de muchos millones de años cambiar el régimen tectónico e invertirse. O sea que lo que era una falla normal pasa a ser una falla inversa: se aprieta lo que antes se había distendido.
–¿Y eso por qué pasa?
–Por la cinemática de las placas a nivel global. Una región que estaba apartándose puede tener una colisión en un extremo de la placa que frene el desplazamiento y cambie la cinemática, y empieza a cerrarse lo que antes había sido un área sometida a extensión. Entonces, cuando comienzan esos procesos compresivos, las fallas previas, las normales, las que generan extensión, ejercen un control importante. Es decir que la geometría del segundo grupo de fallas, las fallas compresivas, las fallas que generan relieve positivo, tienen una geometría que depende de las fallas previas, porque las previas dejan una discontinuidad en la corteza que es importante y va a controlar lo que pase en la etapa compresiva posterior. Ese es mi trabajo.
–¿Y ahora qué está pasando en la cordillera?
–Siempre hay segmentos de los Andes que están sometidos a compresión. Acá hay un grupo de investigación que plantea que hay otros segmentos que están sufriendo colapsos orogénicos.
–¿Qué es eso?
–Es cuando ciertas regiones, por procesos tectónicos de primer orden, pasan de generar relieve a tener el fenómeno contrario, a distenderse. Ese es el campo de un grupo del Departamento de Geología de la Facultad, del cual yo no sé demasiado.
–¿Y qué es lo que quiere averiguar concretamente usted?
–Yo me planteo la duda de cómo puedo reconstruir esas geometrías previas a la generación de la cordillera, de qué manera puedo imaginar esas geometrías en función de lo que se ve actualmente en la Cordillera de los Andes. Las estructuras y las fallas que aparecen hoy en día tienen una herencia de ese pasado, y mi objetivo con el modelado es ver si se pueden reproducir las geometrías actuales con configuraciones previas a la compresión.
¿Qué edad tiene la cordillera?
–Depende de cada segmento, pero a partir de los 60 millones de años empieza a haber evidencias de que comienza el proceso de construcción de la cordillera. Pero es en los últimos 25 a 30 millones de años que se produce la etapa de mayor crecimiento.
–Y se formó por la presión de las placas.
–Sí, la placa de Nazca se subduce por debajo de la placa suda-mericana y eso da lugar a los esfuerzos que deforman la corteza. En los modelos que nosotros hacemos estamos viendo una ventana muy chica de un segmento de la corteza, no del proceso de subducción en sí mismo sino del proceso de deformación de la placa sudamericana. La placa de Nazca se mete por debajo y empuja.
–Y lo sigue haciendo.
–Y genera arrugas, volcanes y fallas de formación en la placa Sudamericana. Nosotros tratamos de entender esas geometrías en particular del segmento deformado de la placa Sudamericana. Sabemos que el origen de los esfuerzos es la subducción.
–Pero también depende de cómo estaba antes.
–Claro, de las “cicatrices” previas que tenía ese material.
–¿Y ustedes prueban con cicatrices previas?
–Exactamente. Tratamos de ver hasta qué punto esas cicatrices previas, que tienen cientos de millones de años, controlan lo que ocurrió en el proceso andino en los últimos veinte millones de años. La idea es ver de qué manera un sistema de fallas previo influyó en las fallas que actuaron posteriormente.
–Y eso ¿qué nos dice?
–En primer lugar, nos puede hablar de qué sectores de los Andes tuvieron etapas extensionales y cuáles no. Nos dice qué orientación tuvieron esos sistemas extensionales. Hay una parte de todo eso que tiene un interés desde el punto de vista de la industria del petróleo, porque muchos de estos sistemas extensionales son productores de hidrocarburos. O sea que más allá del interés puramente científico, hay un interés de la industria del petróleo por saber cuál fue la distribución de eventos extensionales, porque tienen potencialidad petrolera. También pasa que la localización de las fallas activas tiene importancia porque son potenciales generadoras de sismos.
–Me convenció.

lunes, 18 de noviembre de 2013

EL PENDULO DE FOUCAULT

-Si no haces algo - le dijo Armand Baladreu a Foucault - Umberto Ecco no va a poder escribir una segunda novela.

-Ya hice bastante- le contesto Jean Bernard Foucault (1819-1868) - y en 1853 voy a demostrar de una vez por todas que la luz viaja mas despacio en el agua que en el aire.

- La luz? - contesto Baladreu mientras bebía una copa de cognac - "La luz de Foucault". .. no me suena - estaban pasando la velada en casa de Madame Ravignac. - tendría que ser otra cosa.

-No se me ocurre otra cosa. .. -dijo Foucault, volviéndose lánguidamente hacia Mme. Ravignac.

Esta se sintió obligada a intervenir- Y por que no un péndulo? - sugirió - "El péndulo de Foucault". Suena lindo, no es cierto?

-Casi tan lindo como "el nombre de la Rosa - comento desganadamente Baladreu.

-Un péndulo? Sea! -acepto Foucault.

- ¿Pero que se puede hacer con un péndulo que no se haya hecho ya?

-Voy a aprovechar la fuerza de Coriolis - dijo Foucault.

- La fuerza de Coriolis? - se escandalizo Mme. Ravignac - eso suena muy poco francés. Espero, Foucalty, baby, que no sea el titulo de una de esas operas escandalosas que representan los italianos.

-De ninguna manera - contesto Foucault. conmovido por el apelativo. - Coriolis era francés y murió hace poco, en 1843. Fíjense en lo siguiente. La rotación diaria de la tierra hace que todos sus puntos, estén donde estén, den una vuelta completa cada veinticuatro horas. Pero para dar una vuelta completa, un punto que esta sobre el ecuador, tiene que recorrer mas camino que un punto que esta cerca del polo, y como consecuencia, los puntos que están cerca del ecuador se mueven a mayor velocidad. Un punto sobre el ecuador recorre mil quinientos kilómetros por hora. La ciudad de Nueva York, ochocientas. Coriolis demostró matemáticamente que a causa de esta diferencia de velocidades aparece una fuerza capaz de desviar una bala disparada desde el ecuador hacia el norte. Los vientos que soplan de sur a norte ( o de norte a sur), se desvían por la misma razón. Rotan, en realidad. Balas y viento. En la guerra y en la paz, como diría Tolstoi, la fuerza de Coriolis esta presente.

-La Guerra y la Paz no se escribió todavía, mon cerio - dijo Mme. Ravignac

-Bah - apunto Baladreu - El Nombre de la Rosa tampoco.

-Y donde aparece el péndulo? - pregunto Balandreu, algo molesto por las atenciones que Mme. Ravignac deparaba a Foucault. -Muy simple. Si la fuerza de Coriolis puede desviar la trayectoria de una bala, o hacer rotar a los vientos, tiene que hacer rotar también a un péndulo que se mueva de norte a sur. Si montamos un péndulo suficientemente grande y pesado, lo veremos rotar parsimoniosamente. Que les parece?

-Estupendo - dijo Baladreu. - Me parece estupendo. Va a ser la primera vez que se demuestre la rotación de la tierra mediante un experimento directo. Va a causar sensación.

Mme. Ravignac aplaudió. - "La rotación de la tierra hace rotar un péndulo" - dijo. - Parece el titular de un diario - a toda costa ella quería dejar a Coriolis fuera de la cuestión, ya que no obstante ser francés, le resultaba demasiado italianizante.

-Manos a la obra. -urgió Baladreu.

Corría el año 1849, y Foucault realizo su espectacular experimento en 1851. Mediante un alambre de hierro de diez metros de largo, suspendió una gran esfera, también de hierro, de la cúpula de una iglesia de París, en cuyo suelo esparció arena. Cuidando que el aire y el edificio estuviera libre de vibraciones, se arrastro la esfera hacia una de las paredes, y cuando todo estuvo inmóvil se la soltó, dejándola oscilar.

El péndulo empezó a balancearse, y en cada vaivén, dejaba una marca sobre la arena del piso. A medida que pasaba el tiempo, y las idas y vueltas se sucedían, la marca hecha en la arena cambiaba de orientación a ojos vista: el péndulo estaba, efectivamente, rotando, y lo hacia según la dirección y el ritmo predichos por Foucault!. Todos los presentes (y en especial Baladreu y Mme. Ravignac) contuvieron el aliento : estaban viendo, por primera vez, a la Tierra girar ante sus ojos.

-Foucault, Foucault, que grande sos- murmuro Baladreu, inspirándose en una canción de moda.

-No te pareció effrayante? - pregunto Mme. Ravignac cuando salían de la iglesia.

-Bah - dijo Baladreu , que a cada momento cambiaba de opinión. - No valía la pena tanto esfuerzo para verificar la rotación de la Tierra. Al fin y al cabo, todo el mundo sabe que la Tierra rota. Espero que por lo menos, Umberto Ecco nos agradezca este favor. c

miércoles, 13 de noviembre de 2013

Canales de agua


DIALOGO CON GABRIELA AMODEO, DOCTORA EN BIOLOGIA, INVESTIGADORA DEL CONICET




Cuando en el 2003 Peter Agre recibió el Premio Nobel por descubrir las acuaporinas, citó entre los pioneros a los biofísicos argentinos que habían contribuido a su trabajo. Hoy la biología argentina sigue contribuyendo al estudio de estos canales.

–Cuénteme.
–Muy bien. Yo egresé de la Universidad Nacional del Sur, en Bahía Blanca, y de allí me fui a Estados Unidos, a California, donde estuve unos tres años. Allí estudié junto a Eduardo Zeiger, un especialista en fisiología vegetal. Hice toda mi formación en el estudio de canales iónicos. Es un tema que a mí siempre me interesó: cómo se mueven los transportadores para intercambiar sustancias a nivel celular y cómo eso repercute a nivel de la planta entera. Cuando volví al país me encontré con el doctor Mario Parisi, un biofísico que está en la Facultad de Medicina y que estaba estudiando canales de agua en animales. Prácticamente no había nada hecho en canales de agua en plantas, porque habían sido descubiertos hacía muy poquito tiempo.
–¿De qué año estamos hablando? –Del año ’94, y el primer trabajo de canales de agua o acuaporinas había surgido en el ’93. Para que tome conciencia de lo importante que había sido ese descubrimiento, Peter Agre, el descubridor de los canales de agua, recibió en 2003 el Premio Nobel de Química. Y en el discurso de recepción, él citó a unas seis u ocho personas que habían sido pioneros para el descubrimiento de los canales de agua gracias a estudios biofísicos que interpretaban cómo se manejaban los cambios de permeabilidad al agua que había en las membranas biológicas. Entre esas personas estaba Mario Parisi, el único argentino citado como uno de los contribuyentes. Fue fundamental para hacer énfasis en el excelente trabajo que se estaba desarrollando acá, aunque no a nivel plantas, sino a nivel de los fluidos en sistemas de riñón, vejiga.
–¿Qué es un canal de agua? –Un canal de agua, o una acuaporina, no es nada diferente de lo que usted se imagina: es una proteína que está inserta en la membrana y que deja pasar agua.
–¿Cómo ingresa agua a la célula? –Bueno, justamente ésa es la pregunta que nosotros nos proponemos responder. Para eso utiliza la bicapa lipídica (es decir, los lípidos que conforman la membrana) y las proteínas específicas que le comentaba. Antes se pensaba que no existían estas estructuras específicas, que el agua pasaba directamente a través de esta bicapa lipídica acompañando solutos o iones a través de otros transportadores, pero que no había un ente específico. Fue en 1992 que se descubrió que había proteínas específicas para el movimiento de agua, y eso revoluciona el concepto del transporte de agua, y la necesidad o no que tienen los animales y las plantas de tener mecanismos específicos para el movimiento de agua.
–¿Por qué tienen esa necesidad? –En algunos sistemas estaba muy claro, como en los que estudiaba Mario Parisi. En riñón, por ejemplo, o en vejiga urinaria, en los cuales los movimientos de agua son tan drásticos, tan importantes, y se moviliza tanta agua por unidad de tiempo, que ellos decían que sí o sí las membranas tenían que tener algún tipo de estructura, aunque no se podía identificar todavía desde el punto de vista molecular. En el caso de las plantas no era tan obvio: se decía que el movimiento de agua entre las células era el que prevalecía en el intercambio de agua a nivel de la planta, de modo que no era tan importante un canal de agua. Sin embargo, las evidencias a posteriori fueron arrolladoras: hay canales de agua en las raíces, hay canales de agua en las hojas. La vía celular, el movimiento de agua en la vía celular (mejor dicho), acompaña de manera importante un movimiento de agua que no se da por vía celular.
–Bueno, y entonces, ¿cómo funciona un canal de agua? –Funciona como una especie de caño. El modelo que en este momento más se acepta para comparar con el canal es un reloj de arena, en el cual todas las partículas de arena son como moléculas de agua. Entonces en una zona de constricción pasan casi en fila india las moléculas de agua. Eso es lo que permite la restricción de que no pase ninguna otra cosa por ese canal, y que ese canal sea específico para el movimiento de agua.
–¿Y la proteína? –La proteína es todo. Esta proteína tiene aminoácidos “plegados”, tiene segmentos trans-membrana y otros lazos que se meten adentro de la bicapa y conforman ese poro estrecho. Se va haciendo como una especie de pared de aminoácidos. Pero además hay un plegamiento tridimensional, por decirlo de alguna manera. Y eso es lo que hace que se haga una estructura más chiquita que permite que pase solamente agua. Ahora es más complejo, se ha descubierto que hay muchos canales de agua que, en lugar de dejar pasar agua, dejan pasar solutos no cargados (por ejemplo urea, glicerol...). A esos se los llama acuagliceroporinas.
–Un nombre bárbaro para el juego del ahorcado. –Sí, claro.
–Y ahora que se sabe que hay canales de agua, ¿qué está buscando? –Nosotros tenemos líneas de investigación que van desde entender el canal de agua propiamente dicho, y cómo funciona (incluso si se cierra o no se cierra: se han descubierto residuos muy conservados que hacen que en el canal cuando se acidifica el interior de la célula se produzca un “taponcito” que impediría el pasaje de agua, de modo que el canal se cierra), hasta ver qué es lo que le pasa al organismo, a la planta entera.
–¿Por ejemplo? –Por ejemplo: en una situación de estrés salino, ¿cómo responde? ¿Qué hacen las raíces? ¿Sintetizan más canales? ¿Lo cierran? ¿Contribuye el hecho de que la raíz tenga más o menos canales de agua a que pueda establecer un equilibrio hidrosalino y eso le permita sobrevivir en una condición de estrés?
–Y ésas son todas preguntas sin respuesta... –No se crea. A muchas de ellas se le han encontrado respuestas, y en muchas de esas respuestas nuestro grupo ha participado activamente.
–A ver... –Por ejemplo, hay una serie de estudios publicados que demuestran claramente que el censado de pH es una serie de histidinas que están del lado citoplasmático y que son las responsables de que el canal se cierre. Y hay integrantes del laboratorio que participaron de esos trabajos. Hay estudios en los que demostramos que un tipo de acuaporina junto con otro puede formar una estructura más compleja y cambiar el censado de pH de modo tal que no sea tan ácido. Esos son estudios a nivel estructural. Y después tenemos otros trabajos a nivel de la planta: en una línea trabajamos con frutillas, donde vemos si hay una incidencia o si hay cambios en la expresión de acuaporinas de acuerdo con el grado de maduración de la frutilla y hay trabajos hechos en la planta de la remolacha, que es muy tolerante a las condiciones de salinidad, y también allí vemos cambios en los patrones de expresión.
–O sea que hay avances. –Sí, claro.

miércoles, 6 de noviembre de 2013

Las proteínas de la buena memoria

DIALOGO CON RAMIRO FREUDENTHAL, DOCTOR EN BIOLOGIA E INVESTIGADOR DEL CONICET



Los caminos de la memoria permanecen como un territorio misterioso. Se sabe que se recuerda mejor todo aquello que tiene un componente emocional. Pero la formación de la memoria de largo término sigue siendo un complejo e intrincado mecanismo químico.
 
–Cuénteme a qué se dedica.
–Mi tema de investigación es la consolidación de la memoria de largo término, tratando de dilucidar cómo suceden algunos cambios en el sustrato nervioso que permiten que uno pueda almacenar memoria.
–El problema de la memoria es uno de los centrales de la neurología, porque tiene que ver con la existencia misma del sujeto como sujeto. Si no hubiera memoria reciente, no habría sujeto. ¿Cómo es el tema de la memoria? ¿Qué se almacena y qué no se almacena? –Eso es muy interesante. No es exactamente el objeto de mi estudio, pero le puedo contar algo. Uno filtra todos los inputs sensoriales según algún tipo de filtro que impone el sistema nervioso.
–¿Se sabe algo de eso? –Sí, se saben las cosas más clásicas. Por ejemplo, todas las cosas que tienen un componente emocional se recuerdan muchísimo más. Es un marcador de importancia almacenada. Eso es de lo que más se conoce. Hay varios centros en el cerebro, algunos más ocupados de procesar la parte sensorial y otros de darle al hecho la importancia que le corresponde. Por ejemplo, la amígdala regula el almacenamiento de la memoria emocional, hay otra entrada que es regulada por el hipocampo y que tiene que ver más con información espacial, de lugares, cuestiones geográficas. Esas cosas, por ejemplo, se graban más si la amígdala se está activando al mismo tiempo. Ese es un ejemplo.
–Y usted, particularmente, ¿qué hace? –En el laboratorio trabajamos hace un tiempo sobre ciertos descubrimientos. Actualmente, yo trabajo en ratón, pero inicialmente estudiaba al cangrejo. Lo que estudiábamos era cómo era necesaria la producción de cierta cantidad de proteínas nuevas para el almacenamiento de memoria de largo término. Y esencialmente no estudiábamos las proteínas nuevas, sino cómo se regulaba la expresión a través de factores de transmisión, las llaves que regulaban la expresión de proteínas después de un aprendizaje y durante el tiempo de consolidación de una memoria de largo término.
–¿Cómo es ese proceso? –Hay un evento de aprendizaje. Por ejemplo, algo biográfico. Entonces lo que vayamos a almacenar por largo término, aquello a lo que le demos importancia...
–Eso se almacena en algún lugar. –Sí. Lo de más corto término no sé decirle dónde se almacena. Un corto término intermedio se almacena en el hipocampo. Ese es nuestro objeto de investigación.
–¿Por qué habla de corto término intermedio? –Porque hay procesos de más corto término que no sabemos bien cómo operan. Por ejemplo, que estemos procesando palabras pero no podamos recordar la secuencia. Esa es la famosa memoria de trabajo. Pero sí sabemos que cuando van a ser de más largo plazo de almacenamiento, las procesa el hipocampo y luego pasan a corteza. Nosotros llamamos “memoria de largo término” cuando dura (por ejemplo, en un ratón, que tiene una vida relativamente corta) varios días. Y ese tipo de memoria requiere de síntesis proteica.
–O sea, requiere que el cerebro sintetice proteínas nuevas. –Así es. Y en ciertos lugares específicos. Nuestro trabajo inicial fue ver qué proteínas específicas, reguladas por los factores de transcripción, era necesario que se expresaran y probar que eran efectivamente necesarias para la memoria de largo término, con el típico experimento de inhibirlos y ver que el animal que rendía correctamente era el que no las tenía inhibidas.
–Un aprendizaje, para que se almacene, tiene que transformarse en algo químico o eléctrico. –Sí.
–¿Y en qué se transforma? –En algún momento, en mecanismos posiblemente reverberantes o modificaciones rápidas, como fosforilaciones de algún sustrato. Y en tiempos más largos se transforma en nuevas conexiones, conexiones sinápticas más grandes, o directamente estructuras nuevas, sinapsis nuevas, proteínas nuevas, que lo que permiten es fortalecer la sinapsis entre neuronas. Muchas de las cosas que se expresan o aparecen más son, por ejemplo, receptores en algunas neuronas. Más receptores hacen que la comunicación sea más efectiva y la sinapsis funcione mejor. En definitiva, lo que uno hace es mucho más complejo. En el modelado, lo que uno hace es expresar proteínas y “podar” otras, remodelando el circuito que uno tenía, potenciando ciertas partes y disminuyendo otras. La idea, como yo me la imagino, es fortalecer una vía respecto de otras.
–¿Cuál es la unidad de memoria? –En una computadora, el bit, pero en la memoria nuestra no sabría decirle.
–Pero la de un ratón que aprende dónde está la comida... –En realidad, no es eso lo que aprende. Nosotros ponemos al ratón en una pequeña plataforma y lo que hace es ingresar a un cuartito oscuro que está después de la plataforma. Entra porque se siente más seguro y hay menos luz adentro. Una vez que entra a este lugar, recibe un pequeño shock eléctrico. Uno puede medir el tiempo que tarda en entrar a la “casa” la primera vez y, luego del primer shock, volver a medirlo. El tiempo, la segunda vez, es muchísimo más largo. Esto hay que hacerlo con dos grupos: un grupo control, que entra y no recibe nada, y un grupo que sí recibe el shock. El que no recibe nada sigue entrando con la misma velocidad y fuerza, mientras que el otro aprende que no le conviene entrar.
–¿Y ese comportamiento se puede descomponer en unidades? –Se puede descomponer, pero no sé si son unidades. Hay ciertas características de la memoria... Por ejemplo, éste es un entrenamiento que tiene que ver con el miedo. El animal, al recibir el shock, siente miedo, que refuerza el aprendizaje de que no debe entrar a la caja.
–“No debo volver a entrar a la caja.” –Exacto, ése fue el aprendizaje. Y está compuesto de un porqué (porque es dañino) y de la caja propiamente dicha.
–Más una sintaxis. –Claro. Por ejemplo, agreguemos un componente más para lograr que la memoria se convierta en memoria de largo término: la repetición. Ya no sólo la parte emocional, sino la repetición. Si yo lo repito varias veces, la memoria, normalmente, se va a expresar mucho más.
–¿Y cómo es la sintaxis? ¿Cómo se construye el razonamiento “porque entré en la caja, recibí el shock; ergo, no debo volver a entrar”? –Es demasiado complicado de contestar. Es un fenómeno demasiado complejo y se ponen en juego muchas unidades. Sólo en algunos sistemas más simples se ha logrado ver algo de sinapsis, pero ése no es mi trabajo.
–¿Pero se puede, afectando una sinapsis, hacer que el animal vuelva a entrar a la caja? –Sí. Hay trabajos que muestran que uno puede marcar ciertas neuronas que se activaron durante el entrenamiento, luego eliminarlas, y se ve que el animal vuelve a entrar, como si nunca hubiese aprendido nada.

jueves, 31 de octubre de 2013

Sobre el sexo de los peces

 DIALOGO CON VIRGINIA VILLAFAñE, DEL LABORATORIO DE NEUROENDOCRINOLOGIA Y COMPORTAMIENTO, FCEN



La cantidad de luz y de oscuridad del ambiente, lo que se conoce como el “fotoperíodo”, funciona como una señal para regular el metabolismo delos animales y es especialmente importante en los peces. Sensando la luz, el complejo pineal controla las etapas de reproducción.

–Creo que es la primera vez en esta página que entrevistamos a alguien que no está doctorado aún.
–No es la primera, ya lo han hecho. Yo terminé mi tesis de licenciatura en diciembre del año pasado y ahora voy a empezar mi doctorado. Básicamente, la idea allí es que en los animales en general, pero en los peces en particular, el fotoperíodo (es decir, la cantidad de luz y oscuridad) es una señal muy importante para regular ciertos procesos. Un órgano que tiene que ver mucho con esto es el órgano pineal.
–La famosa glándula pineal de Descartes. –Es una glándula en los mamíferos; en los peces se llama “complejo pineal”. A lo largo de la evolución hubo varias modificaciones. La de los peces tiene una diferencia fundamental con los mamíferos, que es que sensa directamente la luz. En los mamíferos es a través de los ojos y todo un circuito especial.
–¿Estamos hablando de algún pez en particular? –Eso es en general. Lo que yo me propuse ver es qué pasaba en la especie que se estudia en el laboratorio en el que trabajo, el Cichlasoma dimerus.
–Las chanchitas. –Exacto. Se sabe que, en general, en los vertebrados la pineal tiene que ver con la reproducción. Lo que queríamos hacer, entonces, era relacionar el eje fotoperíodo-pineal-reproducción en el pez que nosotros estudiamos. Y básicamente de eso se trataba mi tesis. Como ese órgano no estaba descripto en esta especie, lo que hice fue una descripción básica histológica y anatómica para comprobar que es similar a otros peces teleósteos ...
–¿Teleósteos? –Son peces que tienen hueso propiamente dicho, que no son ni condrictios ni peces más primitivos. Igual es un grupo bastante general. Lo que hicimos fue que nuestros peces estuvieran en distintos fotoperíodos (simulando verano e invierno). Nosotros sabemos que el cichlasoma se reproduce en primavera-verano, entonces la idea era ver qué pasaba con este eje. Lo que se sabe es que cuando uno tiene un fotoperíodo corto, que simula el invierno, la pineal sensa esa información, hay mayor liberación de melatonina y eso inhibiría la reproducción. En verano pasaría lo contrario: disminuye la síntesis de melatonina y entonces disminuye la inhibición.
–¿Esto pasa en mamíferos también? –No sé si en humanos está estudiado, pero en otros mamíferos sí. Y en aves también. Entonces lo que vimos es que había una relación. Lo que queríamos ver primero era si las células que están en la pineal eran capaces de sensar la luz directamente. Vimos que sí, por una técnica que se llama inmunohistoquímica, con unos anticuerpos que tienen que ver con pigmentos visuales. Entonces lo que hicimos fue poner peces en distintos fotoperíodos y ver si había algún cambio en la pineal. Y vimos que efectivamente hay un cambio. En los peces que están en fotoperíodo corto, que sería simular el invierno, las células del complejo pineal eran más grandes. Y eso se relaciona con una distinta expresión de la melatonina. En los peces que estuvieron expuestos a fotoperíodos largos vimos que las células –por decirlo de alguna manera– eran más chiquitas, y eso estaría relacionado con menos expresión de melatonina y por ende no hay inhibición de la reproducción. La melatonina inhibe varias partes del eje reproductivo: a mayor cantidad de melatonina, menor reproducción, que es lo que vimos en el caso de un período corto; a menor cantidad de melatonina, mayor reproducción. Otra cosa que vimos, que no se había estudiado, es que aparentemente tendría que ver, además de con la reproducción, con la diferenciación sexual, con el desarrollo de la gónada. Intentamos ver cómo influye el fotoperíodo en el desarrollo cuando es larva.
–¿Y? –Lo que vimos es que hay una relación que también está dada por la pineal. Eso necesita algunos estudios más, pero las larvas que tuvieron un fotoperíodo corto tardaron más en desarrollarse, en diferenciar su gónada. Eso tiene que ver con todo lo que estamos hablando de la reproducción. Nosotros trabajamos con unas larvas que tienen cierta edad, pero habría que estudiar esto en distintas edades.
–¿Por qué dice “larvas”? –En el cichlasoma, la hembra desova; el macho pasa por encima con esperma, fecunda y son como pelotitas que eclosionan. Se le dice “larva” cuando recién eclosiona: todavía tiene una anatomía y una estructura que no es de adultos.
–¿Cómo es el proceso? La hembra desova sobre una piedra... –Sí.
–Viene el macho, fecunda y en unos días eclosiona. –Sí, y a los dos o tres días empiezan a nadar.
–¿Y quién alimenta a las larvas? –Se alimentan de una sustancia que se llama “vitelo”, que es una sustancia de reserva que tienen los ovocitos hembra. La hembra lo que pone es un ovocito que tiene toda la parte genética y un montón de sustancia de reserva que es la que después va a usar la larva para alimentarse. Cuando uno ve larvas, ve que tienen como una bolita amarilla, el vitelo. Eso lo van utilizando hasta que llega un punto en que se alimentan de otros seres vivos. Después, cuando empiezan a desarrollar todos los órganos similares a adultos pero todavía no desarrollan las gónadas, se llaman “juveniles”. Y una vez que desarrollan las gónadas y están listos para reproducirse, se les dice “adultos”.
–¿Y cuándo se van de la piedra? –A la semana, más o menos.
–Y se los deben comer muy fácilmente. –En realidad, hay un cuidado de los padres. Son muy agresivos cuando están nadando las larvas. Una compañera nuestra vio que hay una relación entre la agresividad de las hembras y el crecimiento de las larvas.
–¿Y las larvas nadan cerca de los padres? –Sí, a veces incluso las agarran con la boca y las llevan a otras partes para cuidarlas.
–La evolución es una cosa extraordinaria. –La verdad que sí.

viernes, 25 de octubre de 2013

Supernovas, los elementos y las distancias del Universo

 DIALOGO CON MELINA BERSTEN, ASTRONOMA E INVESTIGADORA DEL INSTITUTO KAVLI DE FISICA Y MATEMATICA DEL UNIVERSO, UNIVERSIDAD DE TOKIO


Objetos privilegiados de la astrofísica, las supernovas son fundamentales en el estudio del Big Bang y de las galaxias. Además, las supernovas termonucleares son los mejores objetos para medir distancias cosmológicas y la aceleración de la expansión del Universo.

–¿Quiere presentarse?
–Soy astrónoma, estudié en la Facultad de Ciencias Astronómicas y Geofísicas de la Universidad Nacional de La Plata. Mi tesis de licenciatura fue focalizada en física teórica, en temas relacionados con la teoría de cuerdas y la física de partículas. Hice el doctorado en Astronomía en la Universidad de Chile. Y hoy soy investigadora posdoctoral en el Instituto Kavli de Física y Matemática del Universo, Universidad de Tokio, en Japón.
–Y está pensando en volver al país... –Así es. En junio me presenté a la carrera de investigación del Conicet desde el extranjero. La respuesta la voy a saber a fin de año. Pienso que en este momento tenemos excelentes condiciones para desarrollar la ciencia en la Argentina, con organismos activos como el Conicet, con un enorme potencial en recursos humanos que no es fácil de conseguir en otras partes del mundo, y que incorpora científicos jóvenes y repatría a los que se han ido del país para realizar investigaciones de alto nivel.
–Usted se dedica a la astrofísica de las supernovas. ¿Por qué nos interesan las supernovas? –Creo que toda persona alguna vez ha levantado la cabeza y ha querido saber por qué está acá y qué hay allá arriba. Después viene el interés por las supernovas. Las condiciones físicas que se producen allí son únicas. Son los únicos objetos astronómicos que producen esas condiciones, porque por ejemplo, los agujeros negros también producen condiciones físicas interesantes, pero no podemos observarlos directamente. Las supernovas están totalmente relacionadas con la evolución química y energética de las galaxias, porque al explotar inyectan una cantidad enorme de energía en la galaxia y se presume, aunque no está totalmente confirmado, que eso puede disparar la formación estelar. Además, produce los elementos químicos más pesados y los esparce en el medio interestelar. Sin las supernovas no se podría entender la composición actual del medio interestelar.
–El hidrógeno, el helio y el litio son los tres elementos que se generaron en el Big Bang... –Y todo el resto de los elementos se generan en el núcleo de las estrellas, y las supernovas son las encargadas de esparcirlos. Si uno quiere saber cómo evolucionaron químicamente una galaxia y el universo, necesita entender cómo funciona una supernova. Las supernovas en sí mismas son objetos muy interesantes.
–¿Por qué? –Porque se pueden aplicar muchísimas leyes de la física fundamental. Las condiciones que tiene una supernova son muy similares, por ejemplo, en lo que tiene que ver con la presión y la temperatura a las que se generaron durante el Big Bang. Las supernovas son fundamentales para entender la nucleosíntesis del universo. Además, están estrechamente relacionadas con otros objetos de gran interés astrofísico: los pulsares, las estrellas de neutrones y los agujeros negros de masa estelar, no los supermasivos que existen en el núcleo de las galaxias, ya que éstos son el remanente de una explosión de supernova.
–Aclaremos que las supernovas son el estallido de una estrella masiva. –En realidad, existen diferentes tipos de supernovas. A grandes rasgos es posible dividirlas en dos: las que provienen de la explosión de estrellas masivas que llamamos “supernovas de colapso gravitatorio”, y las que provienen de estrellas de menor masa, pero que forman parte de un sistema binario donde una de las estrellas es una enana blanca que recibe materia de su estrella compañera y explota por otro mecanismo. A éstas se las denomina “supernovas termonucleares” o de tipo Ia. Las supernovas que yo estudio son las de colapso gravitatorio, es decir, las que representan el final de la evolución de estrellas masivas, que cuentan con una masa mayor que unas ocho veces la del Sol. Estrellas que son de menor masa no van a explotar, se supone que van a morir como enanas blancas. Pero de las estrellas que tienen más masa se espera que exploten, aun si no son parte de un sistema binario. Y en ese momento se las observa en el cielo como un objeto muchísimo más brillante que una estrella, que puede brillar por un mes con un brillo similar al de una galaxia.
–¿Por qué son interesantes para estudiarlas? –Además de que son importantes para entender la nucleosíntesis del universo, son objetos ideales para las mediciones de distancias cosmológicas. La medición de distancias en el universo es uno de los problemas más difíciles de la astronomía y las supernovas de tipo Ia son los mejores patrones lumínicos que existen a grandes distancias. Esto es por así por dos razones: porque son muy brillantes y es posible observarlas a grandes distancias y porque es posible estandarizar el brillo intrínseco del objeto. Es decir, conocemos la energía que emite el objeto por unidad de tiempo. Luego, si lo vemos más débil es porque está más lejos. La característica temporal de estos objetos es también una ventaja, ya que son objetos que pueden verse por un tiempo y establecer un evento temporal. Aparecen y desaparecen después de meses. A partir de las condiciones que se dan, en su interior, se van produciendo los diferentes elementos químicos de los cuales estamos hechos nosotros. Las estrellas, en principio, brillan porque se está produciendo fusión y liberan energía, pero cuánta fusión de diferentes elementos se puede hacer, va a depender de la masa inicial que tenga la estrella.
–¿Por ejemplo? –Una estrella como el sol, a una determinada fase, no puede seguir quemando determinados elementos, pero cuanto más masiva sea más presión y temperatura va a tener y más posibilidades tiene de seguir creando los elementos químicos de la tabla periódica, hasta el hierro. Ahí, cuando el hierro ya no puede seguir produciendo energía por este proceso, el objeto tiende a colapsar, se hace muy denso y llega a condiciones extremas, muy extremas, de física extrema, de física que se estudia en el Big Bang.
–¿Cuántas supernovas por año estallan en una galaxia común? –Eso depende del tipo de galaxia. Se espera más o menos una supernova por siglo en una galaxia dada. Pero como los astrónomos observan muchas galaxias cotidianamente, en un año se descubren cientos de supernovas, en cientos de galaxias distintas.
–Pero, ¿por qué no se observa una supernova por siglo en nuestra galaxia? –La última supernova galáctica que fue observada es la que sucedió en 1604, conocida como la supernova de Kepler, observada por Kepler y Galileo, entre otros. Se suele adjudicar la no observación frecuente de supernovas galácticas a que nos encontramos inmersos en el disco denso de la galaxia misma y, por eso, puede suceder que no veamos las supernovas que explotan “del otro lado”, más allá del núcleo galáctico, que quedarían ocultas. La estrella más cercana que se supone que va a explotar es Betelgeuse, que es la más brillante de la constelación de Orión (donde están también Las Tres Marías) y creo que es el hombro derecho de Orión. Es una estrella bastante roja que puede verse a simple vista. A partir de las propiedades que tiene hoy Betelgeuse, nosotros hicimos unos cálculos de cómo se observaría su explosión desde la Tierra y del posible efecto nocivo sobre el planeta y los seres vivos. Según estos cálculos, la supernova podría verse durante el día por aproximadamente un año y llegaría en su máximo esplendor a tener un brillo comparable al de la Luna llena.
–Hay varios tipos de supernovas. Una es la supernova de una estrella, que colapsa y por alguna razón explota... –Así es. Una es la explosión de una estrella masiva aislada que proviene del colapso de su núcleo cuando ya no puede producir más energía. La segunda posibilidad es la supernova que proviene de una estrella de baja masa que forma parte de un sistema binario. En este último caso, se trata de una estrella enana blanca que, si tiene una compañera que le transfiere materia, entonces se torna inestable y se desata una explosión termonuclear. Ese tipo de supernovas, conocidas como supernovas de tipo Ia, son consideradas las más importantes para la cosmología, porque son sistemas muy homogéneos. Es decir, de una enana blanca sabemos qué masa tiene, qué radio tiene y eso hace que la forma de explotar, su emisión de luz en función del tiempo, sea muy estándar. Es una standard candle o patrón lumínico. Sabemos el brillo intrínseco que tiene que tener este tipo de supernovas, entonces al saber eso, si la vemos más débil es porque debe estar más lejos, lo cual permite calcular distancias. Son, de hecho, los mejores objetos que se conocen para medir distancias a escalas cosmológicas. Y justamente con ellas es que se descubrió la aceleración de la expansión del universo, lo que llevó a la propuesta de una nueva forma desconocida de energía, la “energía oscura”. Todo esto condujo a una revolución en nuestra cosmovisión y posiblemente en la física fundamental.
–El descubrimiento de la aceleración del universo fue Premio Nobel en Física hace unos años... –Así es, en 2011. Se lo dieron a tres científicos, dos norteamericanos y un australiano. La revolución que significó conocer la aceleración del universo se descubrió con supernovas. Al ser éstos patrones lumínicos ideales, se dieron cuenta de que la ley que seguía no era la ley que se esperaba para algo que estuviera expandiéndose de manera constante, y descubrieron que se estaba acelerando.

lunes, 21 de octubre de 2013

Una división liberadora


Atomos estables,
átomos inestables, átomos que se desintegran
sutil transformación de lo invisible
átomos que se alivian con chorros de radiación
en el núcleo atómico hay movimiento y cambio.
Cuando un núcleo no tiene una combinación óptima de protones
y neutrones,
cuando tiene un exceso de energía,
se libra del excedente
y se modifica
tantas veces como sea necesario
hasta alcanzar la estabilidad.
Y cada vez que lo hace
pierde energía
y en consecuencia y en consecuencia se estabiliza.


Pero a veces
se parte.
Y entonces
las cosas son muy distintas.

Aventuras nucleares, de Arturo Gordon Pym


jueves, 17 de octubre de 2013

Las garrapatas y su control

 DIALOGO CON ALBERTO GUGLIELMONE, INVESTIGADOR DEL INTA



 La garrapata urbana que afecta a los perros es sólo una de las 900 especies de este arácnido parasitario que se alimenta de su hospedador. Para la producción de ganado vacuno son un riesgo por las enfermedades que transmiten.

–Cuénteme a qué se dedica.
–Yo soy veterinario y trabajo en la estación experimental de Rafaela.
–¿Y qué hacen allí? –Básicamente, estudiamos ecología de garrapatas con énfasis en las enfermedades transmitidas a las vacas y a las que le transmiten enfermedades al hombre.
–¿Qué es la garrapata? –Es un hectoparásito que se alimenta de la sangre de sus hospedadores.
–No es un insecto. –No, los insectos tienen seis patas; la garrapata es un arácnido que tiene ocho patas. Y parasita a todos los vertebrados salvo a los peces. Es un conjunto que abarca más de 900 especies en todo el mundo.
–¿Y qué produce? –En el caso de la ganadería vacuna, que es el que nosotros trabajamos fuertemente, el problema más serio es en áreas tropicales y subtropicales. Porque parasita masivamente a los bovinos si no se las controla, les extrae sangre, les inocula toxinas y les transmite enfermedades, que en algunos casos pueden ser devastadoras si no se tiene la prevención adecuada.
–¿Y cómo se la controla? –Uno de los problemas que tenemos es que el control más efectivo sigue siendo el uso de garrapaticidas químicos, pero las poblaciones de garrapatas van desarrollando resistencia y resulta cada vez más difícil controlarlas de ese modo. Por lo tanto, ahora estamos empezando a explorar lo que se llama “manejo integrado”, que sería involucrar algunas prácticas que utilicen estos garrapaticidas, pero tratar de disminuir el número lo más posible. Porque la resistencia está en función lineal del número de tratamientos: si producimos un número menor de tratamientos por año, prolongamos la vida útil del producto.
–¿Cómo es la ecología de la garrapata? –Son unas 900 especies. En todo el mundo, unas 40 o 50 les ocasionan problemas a los animales domésticos o al hombre. La etiología no es uniforme. Por ejemplo, la garrapata del vacuno tiene un ciclo continuo todo el año; otras garrapatas que atacan a los animales silvestres tienen ciclos de diferentes procesos en la alimentación por sangre, un ciclo mucho más largo que el de las garrapatas de los vacunos. La de los vacunos puede producir cuatro generaciones por año; una garrapata común, de otro género, no produce más de una generación al año.
–Y en el mundo no rural, ¿qué pasa? –Bueno, como se sabe, hay garrapatas en los animales domésticos. Posiblemente el mayor gasto en el control de un parásito en todo el mundo es el control de las garrapatas en los perros. Y la garrapata de los perros, la especie más común, es del ámbito urbano. O sea que dentro de la ciudad también hay un costo muy grande por el tratamiento de la garrapata que ataca al perro. Y hay otro fenómeno emergente, que es que con el incremento del turismo hacia zonas más preservadas ecológicamente, los turistas se ven afectados por garrapatas que transmiten enfermedades.
–¿Cómo actúa la garrapata? –El ciclo más común es que una larva se sube a un hospedador, consume sangre y se cae. En el suelo se transforma en ninfa. Esa ninfa obtiene otro hospedador, se sube, se llena de sangre y luego cae al suelo y se transforma en un adulto. Ese adulto consigue otro hospedador; una hembra requiere grandes cantidades de sangre, hasta 4 o 5 mililitros. Cuando cae al suelo, pone miles de huevos, donde nacen larvas que reinician el ciclo. Cuando cualquier animal entra en ese ciclo, lo mantiene; eventualmente el hombre, cuando se introduce en focos ecológicos donde existen garrapatas, puede sufrir las consecuencias.
–La garrapata entra al cuerpo... –Sólo una parte, la parte bucal. Todo el resto queda afuera.
–Y además de chupar sangre... –Puede inocular organismos patógenos.
–¿Por ejemplo? –Por ejemplo en el caso del ganado vacuno, inocula un microorganismo, cuyo nombre es babesia, y provoca daños gravísimos en el organismo. En el caso de los humanos, generalmente son infecciones relativamente benignas porque causan malestar y enfermedad pero no muerte.
–¿Qué son? –Microorganismos. En algunos casos, en el norte argentino, si los afectados no son atendidos a tiempo, puede provocar la muerte.
–No es muy tranquilizador... –No, es cierto.
–Ahora bien, tampoco es muy común ver a personas afectadas por garrapatas. –Eso es cierto también, pero de todos modos hay que estar alerta sobre todo en los lugares que antes no eran visitados y ahora sí.
–¿Por ejemplo? –El delta del Paraná.
–Y ante la mordedura, ¿qué hay que hacer? –Consulta médica. Ante cualquier sospecha, hay que dirigirse al Hospital Muñiz.
–¿Quiénes son los más afectados? –Los vacunos, por lejos. Hay garrapatas de aves y garrapatas que atacan a los equinos, pero el daño que causan no es comparable, en términos económicos al menos, con el que provocan en la ganadería vacuna. En Argentina no es tan grave porque empieza en el norte de Santa Fe y termina en la frontera norte. Pero hay países como Brasil y otros del norte de Sudamérica que prácticamente tienen toda su ganadería con riesgo de ser afectada por garrapatas, y eso es un riesgo enorme.
–¿Está controlado el asunto en Argentina? –Argentina ha tenido un gran éxito y logró erradicar la garrapata de varios lugares en el sur. La garrapata, años atrás, estaba mucho más al sur. En este momento se está intentando mantener la zona liberada de la garrapata. El problema más serio que encontramos ahora es el de la resistencia a los acaricidas.
–¿Qué función cumple la garrapata en el equilibrio natural? Porque uno tiende a pensar que cada animal cumple una función... –Yo no sé si llamar a esto desequilibrio o si en verdad es una consecuencia social del progreso tecnológico. La garrapata se transforma en un problema para la ganadería cuando se hace comercial, y en ese caso el uso de pasturas artificiales, el incremento del número de animales por superficie, hace que la garrapata tenga muchas más chances de seguir proliferando, porque va a tener todas las posibilidades de encontrar un hospedador. Por lo general, no ocurre con las garrapatas de los animales silvestres, que se mantienen dentro del ambiente, pero no provocan esos ataques masivos.
–En un ambiente natural, entonces, el ciclo de la garrapata estaría en equilibrio. –Claro. Puede causar ciertos problemas un determinado tiempo, pero no sería un problema constante. En general, los parásitos en la naturaleza actúan como reguladores de las poblaciones de los animales silvestres. En una condición natural hay un equilibrio, pero en el caso de los vacunos hay un desequilibrio por causas tecnológicas.
–¿Se conoce la biología de la garrapata? –Sí, se conoce relativamente bien. Y es un ciclo bastante simple, como le contaba.
–¿Con qué estrategia están intentando controlar esto? –Ahora estamos viendo cuántos tratamientos hacen falta al principio del ciclo para que no se produzca una explosión “demográfica” dos meses después.

miércoles, 9 de octubre de 2013

Planos y curvas del subsuelo

 DIALOGO CON JEREMIAS LIKERMAN, DOCTORANDO EN GEOLOGIA, CONICET




Las fracturas en las placas geológicas son hoy un tema importante porque generan un espacio donde se va a alojar el petróleo del subsuelo. Mediante algoritmos matemáticos, algunos geólogos intentan predecir los sectores con mayores deformaciones y fracturas.


–Cuénteme qué hace.
–Yo me licencié en 2010 de geólogo y empecé en abril de 2010 el doctorado. Soy doctorando del Conicet y empecé a trabajar con modelado numérico, trabajo con las computadoras. Lo que trato de hacer es modelar, en base a algoritmos matemáticos, procesos que se dan en la naturaleza.
–¿Y cómo hace?
–Le cuento lo que empecé a hacer yo acá. Lo que intentamos hacer es tratar de predecir, mediante un algoritmo matemático que estuvimos desarrollando en estos últimos tres años, fracturas que se generan en el subsuelo. Nosotros agarramos información del subsuelo, que se extrae a partir de sísmicas que se hacen en la industria...
–¿Qué es eso?
–Lo que se hace básicamente es enviar ondas en el subsuelo y tratar de captar la forma que tienen las capas geológicas a través del tiempo que tardan en ir y volver. Dependiendo del tiempo que se demore y sabiendo qué materiales atraviesa, uno puede ver más o menos la geometría que tiene la capa geológica a tres mil metros, dos mil, mil, etc. Si uno tiene esa información, uno puede cargarla en la computadora, tener esa superficie en tres dimensiones y aplicar cálculos matemáticos a la superficie.
–¿Y qué tipo de algoritmos usa?
–Lo que desarrollamos es un algoritmo que estudia la curvatura de esa superficie, es decir, lugares en los que la curvatura es más pronunciada y lugares donde lo es menos. A nosotros la curvatura se nos traduce en deformación: si algo no está deformado, para nosotros es un plano, porque las capas se depositan en planos horizontales, y si se deforma se empieza a doblar. Es como una hoja. Si yo agarro una hoja y la deformo, le aplico alguna presión de alguno de los costados, eso empieza a deformarse y ahí se generan algunas de las fracturas.
–¿Y por qué se deforman?
–Porque son frágiles. Si yo aplico a un objeto un esfuerzo, eso se tiene que traducir de alguna manera: o se mueve, o se rompe o hace las dos cosas.
–O se curva.
–Claro, se genera una curvatura. Y eso es lo que estudiamos nosotros.
–¿Y cuáles son las fuerzas que producen eso?
–En líneas generales, se llaman fuerzas tectónicas y son, por ejemplo, las responsables de que se levante la Cordillera de los Andes.
–O sea, las que producen el movimiento de las placas.
–Claro.
–¿Y qué confiabilidad tienen los modelos numéricos? Porque ahí hay toda una apuesta epistemológica, ¿no?
–Sí. Los modelos tratan, salvando ciertas condiciones (porque uno no puede reproducir la totalidad), de llegar a una aproximación que depende de muchas cosas. El problema es que no tenemos acceso a la totalidad de la información, sino que podemos acceder a datos puntuales solamente. Por ejemplo, si quiero relevar un área de un kilómetro por un kilómetro, yo puedo llegar a tener un solo pozo de petróleo, de modo que el único dato que tengo es el que me viene de ese pozo; todo lo demás no puedo saberlo.
–¿Y qué se hace?
–Justamente, se hacen modelos y se intenta predecir. Esos modelos focalizan lugares en los cuales la densidad de fracturamiento es mayor. A partir de eso, se estudia si tiene sentido ir y perforar ese lugar.
–¿Cómo se establecen las condiciones iniciales en los lugares donde hay muchas fracturas y solamente un pozo de petróleo?
–Tenemos una superficie curvada. En los lugares donde está más curvada, sabemos que es donde se ha producido una mayor deformación.
–¿Y cómo sabe dónde está más curvada?
–Lo que estuvimos diseñando es un programa que recorre toda la superficie y detecta en qué lugar se diferencia más de un plano no deformado. Yo tengo una superficie que no está deformada; la comparo con la superficie real que extraje de la profundidad y si veo que se diferencia mucho de un plano es porque tiene mucha curvatura.
–¿Y cómo extrae esa superficie de la profundidad?
–Justamente con los mecanismos de sísmica que yo le decía. Le explico cómo funcionan. El dato es real, es confiable: se viene usando hace 50 años y se ha demostrado que los lugares donde se hizo sísmica responden, en su estructura, a las condiciones previstas. Ese dato es real; lo que nosotros no podemos saber es si es exactamente así para los lugares donde se predice que hay mayor curvatura (porque habría que hacer pozos por todos lados). De lo que se trata es de poder buscar mecanismos matemáticos para focalizarse en esos lugares.
–¿Y después?
–Una vez localizados esos lugares de mayor curvatura, lo que se intenta es ver la dirección de la curvatura, que también es importante.
–¿Por qué?
–Recuerde que, si algo se curva, el material es frágil, por lo cual a la larga va a convertirse en una fractura. En el asfalto se puede ver, por ejemplo, cuándo cae un árbol. Lo mismo pasa en un ambiente geológico. Las fracturas generan espacio y ese espacio es el lugar donde el petróleo se va a alojar. El fluido va a aprovechar y se va a alojar allí. Por eso es tan importante el tema de las fracturas. Ahora está muy en boga el tema de los yacimientos convencionales y no convencionales. En el yacimiento convencional, el líquido se aloja en los poros de las arenas. Ahora se descubrió que las fracturas son lugares de porosidad no primaria (como sí lo son las arenas) sino secundaria, es decir, lugares donde se fracturó, se generó una porosidad secundaria y el fluido fue a parar ahí. Ahora se está viendo que se encuentran muchos yacimientos en los cuales el fluido está localizado en fracturas. Por ejemplo, en la formación Vaca Muerta. Lo que se piensa allí es cómo fracturar.
–Se fractura a propósito.
–Claro, para que el petróleo vaya...
–¿Y a qué profundidad?
–La formación Vaca Muerta es muy amplia: es una capa de arcillas y arena que se extiende mucho, desde el sur de Mendoza, todo Neuquén y parte de Río Negro. Dependiendo de dónde sea, puede estar a mil metros, a dos mil metros.
–¿Y cómo se produce la fractura?
–Eso es ya mucho más ingenieril. Ahora lo que se está haciendo es inyectar arena a mucha presión. Pero esto se lo digo de oído, porque no sé demasiado del aspecto ingenieril. Si no, con explosivos: se rompe y se fractura la roca. Lo importante de estudiar este tipo de cosas es que es una gran apuesta a futuro. Recién ahora se están empezando a estudiar los lugares potenciales para el petróleo; a medida que vayamos avanzando con estos estudios vamos a poder conocer con mayor precisión los lugares que tienen más potencial económico.
–¿Y las compañías los consultan a ustedes?
–Sí, pero no tanto sobre petróleo no convencional. Es una rama que está empezando a estudiarse a fondo recién ahora.

viernes, 4 de octubre de 2013

La edad de la razón


A partir de Newton, la mecánica (y la física) se convierten en un corpus de conocimiento de éxito sin precedentes y formulan un modelo de ciencia que todo el resto de las ciencias tratará de imitar. Describen y predicen el movimiento de los astros, explican y sugieren el funcionamiento de nuevas máquinas, inducen la sensación general de que el universo ha sido, al fin, comprendido.
Ciencia sin duda experimental, pero de ninguna manera empírica, la mecánica clásica razona sobre los moldes de la matemática, axiomatiza, deduce, enuncia teoremas que demuestran que las cosas deben ocurrir así o asá, establece principios generales y leyes universales, propone experimentos puramente mentales para confirmar o graficar sus aserciones.
Es una disciplina totalmente racional, que cree firmemente que la verdad se corrobora con datos observacionales, por cierto, pero se encuentra y se explica en el terreno fértil del análisis matemático que el mismo Newton (junto con Leibniz) ha inventado, en el álgebra, en la geometría. El universo es racional, y el razonamiento la herramienta para descubrirlo (y dominarlo). Es la edad del Iluminismo.

¿Y el movimiento? Relativo, por supuesto: es sólo un asunto geométrico entre los sistemas de referencia, es algo que no le atañe al móvil, sino a los que quieren verlo moverse y miden su posición según el sistema de coordenadas que se les dé la gana. Es un problema privado entre el objeto que se mueve y el observador.
Y bien. El principio de inercia transformó al reposo absoluto (y por lo tanto al movimiento absoluto) en una mera ilusión que depende de los sistemas de coordenadas que se usen como referencia.
Sin embargo, la idea de algo absoluto, subrepticiamente -o explícitamente, si se quiere- persistía. El marco de las estrellas más lejanas se consideró en un principio como un "sistema de referencia absoluto". Y luego, cuando la astronomía amplió sus horizontes, el espacio mismo, geométrico y extendiéndose hacia el infinito en todas direcciones, era el marco absoluto donde ocurría todo lo que ocurría. A su manera, la fuerza de gravitación, que atraía a los cuerpos hacia los cuerpos con movimiento uniformemente acelerado, esa fuerza que llenaba el universo, que actuaba a distancia, y que perturbaba y regía el movimiento de todos los cuerpos, gozaba de cierto stattis especial, merecido sin duda, pero especial- con ciertos aires de absolutismo. No era como para preocuparse mucho, en realidad, ya que si bien la física estudia el comportamiento de los cuerpos, los principios, las leyes y los enunciados con que los describe son caracteres matemáticos, abstracciones que sólo ocurren limpiamente en el espacio mental. Sin embargo, cierto absoluto mezclado con la teoría del movimiento, quedaba. Sin molestar, esta vez, pero allí estaba. Sólo en el siglo pasado se convirtió en una piedra en el camino.

Incidentalmente, vale la pena contar que en 1676, antes aun de que Newton publicara sus Principios el astrónomo danés Olaus Roemer notó que los eclipses de los satélites de Júpiter se producían unos minutos más tarde de lo que indicaban las tablas astronómicas. Dedujo que el retraso se debía al tiempo que la luz tardaba en atravesar la órbita de la Tierra cuando ésta se hallaba más alejada de Júpiter, y a partir de esta suposición (totalmente correcta) calculó por primera vez en la historia la velocidad de la luz, proponiendo que era de 227 000 kilómetros por segundo. El hallazgo no tuvo resonancia, ni produjo demasiado impacto en su momento. La cifra, aunque inexacta, representaba una buena estimación. Roemer no sabía -y no podía saber- que había incursionado en el camino de una de las constantes fundamentales del universo, la cual, llegado el momento, intervendría decididamente en los problemas que la teoría del movimiento (y en especial las del absoluto residual clásico) plantearía trescientos años más tarde.