miércoles, 31 de octubre de 2012

¿De qué hablamos cuando hablamos de ciencia?

COPUCI 2012, UN CONGRESO SOBRE COMUNICACION DE LA CIENCIA


Durante los días 24, 25 y 26 de octubre se desarrolló en San Luis el Segundo Congreso de Comunicación Pública de la Ciencia, el Copuci 2012. Aquí, un diálogo con Antonio Mangione, doctor en Biología y principal organizador del congreso.


–¿Qué es el Copuci? Tengo entendido que la organización de este evento corrió prácticamente por su cuenta (y la de mucha otra gente).
–El Copuci 2012 es un Congreso Internacional de Comunicación Pública de la Ciencia; es el segundo congreso, el primero se realizó en Córdoba por iniciativa del Ministerio de Ciencia y Tecnología y dos facultades (la de Ciencias de la Información y la de Matemática, Astronomía y Física de la Universidad de Córdoba). Le dimos continuidad, dado que había una manifiesta voluntad de continuar lo que se vio en Córdoba.
–Y entonces... –Hicimos una convocatoria pensando en abrir distintos espacios que permitieran vivenciar y participar de las distintas aristas, dimensiones y miradas que se pueden dar acerca de la comunicación pública de la ciencia, desde el trabajo de investigación bibliográfica y el trabajo científico hasta el relato de experiencias, pasando por los vínculos entre arte y ciencia. O sea que en esta edición del Copuci hubo desde ensayos teóricos sobre la comunicación pública de la ciencia, relatos de experiencias en museos hasta una obra de teatro, o títeres, o una muestra de fotografía vinculada a ciencia.
–Cuénteme un poco qué cosas se dijeron. –Se han puesto de manifiesto algunas aristas muy interesantes. Tal vez hay, por lo menos como lo veo yo, un punto central: todo el tiempo estamos metidos en una supuesta tensión entre los beneficios indudables que genera la ciencia y las problemáticas que genera por sus usos y abusos.
–Eso es inevitable. –Sí, es indiscutible. Algunas de esas tensiones las naturalizamos, por ejemplo, cuando consumimos productos manufacturados sin siquiera pensar qué hubo detrás. Pero hay una tensión ahí, naturalizada, que se manifiesta luego en otras cosas más evidentes: la discusión sobre la contaminación ambiental, sobre el glifosato, la minería, el uranio. Estamos metidos en esa tensión, no podemos escaparnos. Entonces surge la pregunta de por qué hay que comunicar la ciencia. Yo no sé si es necesariamente porque hay alguien que tiene que ser alfabetizado; no sé si necesariamente o solamente es porque hay un conjunto de científicos que tiene que decir en qué trabaja, y tampoco creo que sea solamente porque hay un derecho inalienable a la información y al conocimiento sobre todo si hay fondos públicos involucrados.
–¿Y entonces? –Creo, más bien, que tenemos que comunicar porque estamos metidos en esa tensión entre los problemas que nos genera la ciencia y los beneficios que nos reporta. Y entonces como ciudadanos no podemos permanecer ajenos a esas tensiones: necesitamos reconocerlas y vivirlas de la mejor manera posible. Y una manera de lograr eso es estar atentos.
–¿Cuál piensa que es el rol de los comunicadores de la ciencia? –Primero deberíamos decir que comunicadores de la ciencia son todos los que comunican ciencia, no importa que tengan o no el título. Hoy por hoy, creo que los comunicadores se dedican a vehiculizar una historia, una imagen de la ciencia, a partir de algo que les interesa a los comunicadores en especial o al medio en el que trabajan. O sucumben a “lo que la gente quiere”, que suele estar muy alejado de lo que la gente verdaderamente quiere.
–A ver, cómo es eso... ¿Qué es “lo que la gente quiere”? –Así, entre comillas, es lo que los medios interpretan que la gente quiere. En la comunicación científica, en la comunicación pública de la ciencia, hay poco riesgo.
–¿Por qué? –Porque salirse del molde es ser problemático; salirse del molde significa que podrían caer las ventas, que lo cambien de dial. La salud vende más que cualquier otro tema: ¿por qué hay más columnas de salud? Hay un tema histórico ahí. Es algo que nos toca de manera más directa y es difícil salirse de ahí porque es un lugar que resulta cómodo y es una suerte de garantía. Ahora, yo me pregunto: ¿hay otra forma de comunicar ciencia? Mi respuesta es que sí.
–¿Cómo? –Bueno, el acceso a nuevas tecnologías permite que cualquier hijo de vecino comunique ciencia. Entonces yo no estoy preocupado por el contenido, estoy preocupado por si se saben leer los contenidos.
–¿Y cómo se sabe si se leen o no los contenidos? –La alfabetización no es meramente aprender una serie de símbolos, tiene que ver con aprender la capacidad de discernir.
–A ver... –Saber multiplicar y dividir no tiene nada que ver con usar la multiplicación y la división, con encontrarles la vuelta a distintas formas de entender operaciones. Entonces yo quisiera que mi mamá, o un pariente mío, cuando lea un texto tenga una duda razonable acerca de quién lo dice, en qué contexto se dice. Y esta duda reflexiva es esencial. Y también sabemos que hay distintos públicos: hay públicos que no quieren saber, hay públicos que quieren saber mucho, hay públicos que se ocupan de saber por sí mismos, hay públicos que esperan que un pariente les diga qué vale la pena. Yo no le tengo miedo ni a la ausencia de comunicadores (porque tal vez en algún momento haya que replantear estas carreras de comunicación), tal vez alguna vez haya que replantear todo el periodismo tal como lo conocemos ahora. La comunicación pública de la ciencia va a tener que cambiar.
–¿Hacia dónde? –No sé hacer futurología. Pero probablemente tenga que contemplar una mirada más heterogénea y menos hegemónica; más centrada en quien consume, que además produce. Todos estamos produciendo contenidos, todo el tiempo. Estamos produciendo enunciados permanentemente: en Facebook, en Twitter, todos estamos tomando información y compartiéndola. Yo digo algo por radio y lo escucha Juan. Juan escucha que su tío le dice algo parecido a lo que yo le dije y le cree más al tío.
–¿Y si es un tío segundo? –Hay que desprenderse, entonces, del poder que da tener ese saber como comunicador o como científico. Y eso ya está fluyendo de otra manera.
–¿Vinieron científicos al congreso? –Sí, vinieron. Pocos pero vinieron.
–¿Por qué? –Porque les resulta ajeno, creo.
–¿Y cuál es la causa de eso? –Es complicado. En general, los investigadores tienen una formación por la cual las cosas que resultan importantes son las que tienen que ver con su campo específico, las que refuerzan sus capitales reales y simbólicos, y hay otras cosas que no refuerzan ese capital y entonces no revisten ningún interés. Después hay una serie de prejuicios, que no voy a evaluar si los que no vinieron los tienen o no. Pero hay muchos prejuicios sobre la comunicación pública y el periodismo, porque se trata de disciplinas presuntamente muy laxas, que tienen defectos que las naturales y las exactas no tienen... En fin, cuando vemos que los científicos no participan casi nada en un congreso de comunicación pública de la ciencia, podemos decir que es porque no hay identificación.
–Eso está variando últimamente. Los científicos buscan el reparto del saber. –Yo me pregunto qué pasaría si les pidiéramos a los 1200 investigadores de esta universidad que grabaran un video de un minuto. ¿Quién lo leería? ¿Quién lo miraría? ¿Quién se interesaría?
–Hay que hacer la prueba. –Efectivamente.

jueves, 25 de octubre de 2012

Más petróleo de lo que se suponía

DIALOGO CON GUILLERMO OTTONE, DOCTOR EN GEOLOGIA E INVESTIGADOR DEL CONICET, FCEN

 

Las nuevas tecnologías permiten extraer hidrocarburo directamente de las rocas madre que tienen la materia orgánica original. La abundancia de roca madre en Neuquén y el sur de Mendoza abre perspectivas interesantes para la Argentina.

–Cuénteme qué hace. 
–Yo hago paleobotánica y palinología.
–Empecemos por el principio.
–Paleobotánica es el estudio de las plantas fósiles, que se pueden conservar tanto petrificadas (en general troncos o partes de plantas que se reemplazan por sílice) en las que se preserva la estructura de la planta, de modo tal que podemos estudiarlo desde el punto de vista anatómico, o también las plantas se pueden preservar como impresiones sobre las rocas sedimentarias, o también se pueden preservar como moldes. Eso es un poco lo que hace la paleobotánica.
–¿Y la palinología?
–Es, literalmente, el estudio del polen. Lo que nosotros hacemos es, en realidad, estudiar el polen fósil. Lo que hacemos es extraer la materia orgánica que está preservada como fósil en las rocas sedimentarias, la extraemos por métodos físico-químicos y estudiamos esa materia orgánica, que incluye partes amorfas, restos de tejidos vegetales y después incluye restos generalmente microscópicos que son los palinomorfos. Estos incluyen granos de polen, esporas (esas células reproductoras de las plantas). También incluyen restos de procariotas o protistas, o sea, pequeños elementos del fitoplancton que se preservan en los fondos de los lagos o de los océanos.
–¿Y con eso qué hacen?
–Todo eso nosotros lo podemos estudiar y caracterizar, y la información que sacamos es de muchos tipos. Por un lado nos da información bioestratigráfica, que es la información que da la mayoría de los fósiles. Nos ayuda a determinar la edad de los estratos. Por otro lado, nos da información paleoambiental, porque estos microorganismos se pueden relacionar con ambientes determinados o con paleoambientes determinados. Por otro lado, nos da información acerca de la génesis de hidrocarburos. Estudiando el tipo de materia orgánica que está incluida en las rocas sedimentarias, uno puede saber si esa roca puede ser o no eventual roca madre de petróleo o de gas.
–Estamos hablando de fósiles de rocas sedimentarias enterradas...
–Sí, son rocas sedimentarias antiguas.
–¿Y en qué rango de tiempo están trabajando?
–Bueno, yo específicamente trabajo alrededor de entre 250 y 60 millones de años, en lo que sería el mesozoico. Pero hay restos palinológicos desde mucho antes.
–¿Desde cuándo?
–Desde el precámbrico, o sea, 1800 millones de años. En ese momento hay restos de materia orgánica fósil: de las rocas ésas se puede extraer materia orgánica fósil, aunque no de la misma calidad o cantidad que se puede extraer de las que yo trabajo.
–¿Y qué nos dice esa materia fósil?
–Nos dice muchas cosas. Con respecto a la génesis de los carburos, por ejemplo... A ver: para que se generen hidrocarburos, la materia orgánica lo que tiene que tener es hidrógeno y carbono. Entonces uno observando el tipo de materia orgánica puede saber si esa materia orgánica es rica o no en hidrógeno y carbono. Y otra cosa que vemos en la materia orgánica es su alteración térmica. Justamente a causa del soterramiento de la pila sedimentaria a lo largo de los años, se van formando grandes espesores sedimentarios, y eso lo que hace es justamente lograr que esa materia orgánica madure térmicamente, de modo tal que los compuestos (originalmente vegetales o derivados de procariotas y protistas) se van transformando en hidrocarburos.
–¿Cómo es esa transformación? ¿Es la presión la que la genera?
–La presión y la temperatura básicamente. Para que haya hidrocarburos obviamente tiene que haber compuestos químicos originales que puedan derivar por presión y temperatura en hidrocarburos. No se pueden hacer hidrocarburos de rocas que no son ricas en carbono, hidrógeno y oxígeno.
–¿Cómo funciona esa presión?
–Imagínese que la materia orgánica es una estructura tridimensional, en la cual hay partes de carbono, partes de oxígeno y partes de hidrógeno. Cuando uno presiona esa estructura tridimensional, lo que va pasando es que se van rompiendo y reacomodando esas cadenas, y en principio lo que se va perdiendo son los puentes de hidrógeno, o sea, las partes más livianas de esa estructura. Eso va de algún modo formando o derivando en los hidrocarburos. Es una explicación muy esquemática, pero es más o menos así: una estructura tridimensional que va perdiendo su tridimensionalidad por presión y va derivando en la formación de elementos más livianos como pueden ser hidrocarburos líquidos o gaseosos.
–Es interesante, porque en realidad lo que se está transformando es energía gravitatoria en energía química.
–Sí.
–O sea que cuando uno pone la nafta en el coche y prende el motor, está usando la energía gravitatoria.
–Sí. Especialmente el peso. Porque todo esto se produce naturalmente en la corteza terrestre. Hoy en día hay técnicas para lograr extraer esa materia orgánica, esos hidrocarburos, por técnicas físico-químicas. Las nuevas tecnologías pueden exprimir las rocas sedimentarias y sacar hidrocarburos, que es lo que se está haciendo ahora.
–¿Se están fabricando hidrocarburos?
–Sí. Se está extrayendo la materia orgánica entrampada en las rocas sedimentarias. Ese es el gran potencial que tiene Argentina.
–Pero lo que se extrae no es el hidrocarburo sino la materia orgánica.
–Cuando el proceso se da naturalmente, el hidrocarburo se forma, migra, y una vez que migra queda entrampado en una roca porosa, una roca-trampa, que es de donde se extrae. Las nuevas tecnologías lo que permiten es agarrar la roca que tiene la materia orgánica original, que todavía no migró, y extraerla directamente de ahí. Hay distintas técnicas que permiten hacer esto. Eso es lo que se está haciendo ahora y es el potencial que tiene Argentina. Hay mucha de esa roca madre: nosotros tenemos por ejemplo en Neuquén y el sur de Mendoza una unidad, la formación Vaca Muerta, una unidad litoestratigráfica.
–¿Litoestratigráfica?
–Son paquetes de rocas con características físicas determinadas. Un techo, una base y determinadas características. Estas son rocas de tamaño de grano fino, oscuras, con mucha materia orgánica. Mucha de esa materia orgánica ha dado origen a la formación de petróleo y gases a lo largo del tiempo, pero mucha sigue ahí. Y hay mucho hidrocarburo entrampado en esa roca.
–¿De qué profundidades estamos hablando?
–Son rocas que están aflorando. Hay técnicas para explorar en profundidad, pero también hay técnicas para hacerlo a cielo abierto.
–¿Y de qué tiempos estamos hablando?
–Estas rocas tienen alrededor de 100 millones de años.
–Recientes.
–Sí. Los hidrocarburos son de 300 millones de años en adelante. Si los comparamos con el tiempo geológico en su conjunto, son más bien recientes, porque cuanto más antiguas son las rocas, más posibilidad tuvieron de ser sometidas a procesos de presión, de temperatura, procesos tectónicos, etcétera.
–¿No se pueden fabricar hidrocarburos artificialmente con grandes presiones a la materia orgánica?
–No son técnicas que yo conozca, pero es relativamente lo que se hace. Ante la falta de hidrocarburos, se está tomando esa materia orgánica directamente y se la procesa, extrayendo hidrocarburos mediante calentamiento y presión. Lo que pasa es que antes era más barato ir directamente y pinchar el pozo. Ahora, que hay menos, se están desarrollando estas tecnologías alternativas que en algún momento serán de uso corriente.
–O sea que las reservas de petróleo son mucho más grandes de lo que se suponía.
–Con este nuevo paradigma de producción, sí. Y Argentina es un país que tiene, en este sentido, una perspectiva muy interesante.

martes, 23 de octubre de 2012

LAS MANCHAS SOLARES


"El Sol es una esfera perfecta y regular: ninguna impureza mancha ni manchará jamás su superficie", sostenía la Encyclopedia of Spurious Science (Vol X, 1856).

La temeraria afirmación de la Encyclopedia ignoraba, como siempre, la evidencia acumulada. Las manchas solares, que hubieran horrorizado a Copérnico y a las que el temor profano confirió propiedades brujeriles y maléficas, aparecieron en el telescopio de Galileo hacia el año 1610. El asunto era grave, pues la mera existencia en el disco solar de esos oscuros enclaves de sombra, contradecía la dos veces milenaria doctrina de la perfección de los cielos. La sorpresa fue tan grande, que el joven archiduque de Hormtland se autoinmoló en un bosque de abetos, y el gentil Calímaco, poeta entre los poetas, se arrancó los ojos para no verlas y seguir celebrando en verso "la impudicia perfecta de la Creación".

Pero estos actos trágicos, y hasta cierto punto frenéticos, de nada sirvieron: movedizas, efímeras, las manchas solares allí quedaron. . . Zonas oscuras, de tamaños diversos, que aparecen en grupos sobre la superficie de nuestra modesta estrella local. Durante una vida relativamente breve (días o meses), evolucionan y modifican su forma: las más felices suelen aproximarse al círculo. Aunque en comparación con la superficie del sol parecen accidentes mínimos, en verdad, son enormes, y los mejores ejemplares del género tienen diámetros muy superiores al de la Tierra.

Manchas solares. . . el mismo nombre sugiere la falla, el mal funcionamiento, la equivocación, la oscuridad y el frío, tan frecuentemente -y tan injustamente- asociadas al error. Pero las manchas solares no son, en realidad, ni oscuras ni frías: sólo lo parecen en comparación con la brillante realidad que las circunda (la superficie solar). Si la temperatura de esta última es de alrededor de seis mil grados, las manchas se ubican muy poco atrás, con cuatro mil grados de temperatura, una diferencia si se quiere mínimna frente a los veinte millones de grados que imperan en el centro del astro. Y aunque parezcan islas negras en una superficie amarilla y deslumbrante, brillan cien veces más que una luna llena. Brillo que no agota sus extrañas virtudes. Las manchas muestran, además, una elevadisima conductividad eléctrica y un campo magnético verdaderamente fantástico (alrededor de doce mil veces el campo magnético terrestre).

Importante, porque según se acepta hoy, las manchas solares son un fenómeno básicamente magnético, un fenómeno magnético que se origina en las zonas profundas del Sol y que irrumpe en la superficie por razones todavía desconocidas. Cambiantes y movedizas, intrigantes, desafían aún la imaginación de los astrónomos solares, que tienen varios modelos alternativos que las explican, siempre de manera imperfecta.

No debe extrañarnos: aún reinados tan grandes como el de Enrique II Plantagenet en Inglaterra o el de Felipe Augusto en Francia, fueron manchados por sucesos repudiables como el asesinato de Thomas Becket o el proceso a los Templarios. El sol, astro rey a su manera, no tiene por qué escapar a la regla. Todavia falta para que revele esos puntos oscuros de su monarquía.

viernes, 19 de octubre de 2012

La tabla periódica (haiku)



Desde mediados del siglo pasado, los químicos traban de ordenar los elementos, querían encontrar el orden debajo del aparente caos de las sustancias. ¿Podía ser que el mundo se edificara a partir de cincuenta o setenta "elementos químicos" arbitrarios? ¿No tenía que haber un orden subyacente, como lo había en los reinos animal y vegetal? ¿Podía el sustrato de la materia ser un mero desorden? Era evidente que había grupos de elementos parecidos, como el cloro, el bromo, el iodo o algunos metales (oro, plata, cobre). En 1869, Dimitri Ivanóvich Mendeleiev pudo elaborar una tabla, que, con más o menos cambios, hoy se conoce como la Tabla Periódica de Mendeleiev. En mayo de 1869 anunció su descubrimiento ante la Sociedad Rusa de Química, que había contribuido a fundar. La Tabla Periódica es una de las grandes hazañas de la ciencia, y nada puede disminuir su hazaña, la de haber establecido un orden definitivo en los elementos químicos y haber encontrado ese orden profundo que los químicos esperaban.








Debajo del aparente caos

todo es orden y estabilidad.




En la base misma del mundo

fluye la Tabla Periódica.


miércoles, 17 de octubre de 2012

La microelectrónica del sur

 DIALOGO CON JUAN COUSSEAU, DIRECTOR DE LA AGENCIA DE CIENCIA Y TECNOLOGIA DE BAHIA BLANCA


 A la búsqueda de introducir diseño nacional en los productos microelectrónicos, la Agencia de Ciencia de Bahía Blanca trabaja en el desarrollo de una plataforma tanto para las ensambladoras como para las pymes y sus prototipos.

–¿Por qué no me cuenta qué hace la Agencia de Ciencia de Bahía Blanca?
–El principal objetivo hoy por hoy está relacionado con las actividades de creación de un parque científico-tecnológico, y en particular yo formo parte de grupos de investigación de la Universidad Nacional del Sur, y hay un proyecto que tiene que ver con microelectrónica, que dirige el doctor Pedro Julián, del cual soy parte. Como tecnología de propósito general, la microelectrónica es transversal a otras tecnologías. Fundamentalmente, lo que hacemos es aprovechar este gran apoyo a nivel nacional, a través del Ministerio de Ciencia y Tecnología (y también del Ministerio de Industria y del de Planificación)...
–¿De quién depende la Agencia? –Es municipal. Pero la idea es proyectar este apoyo que tenemos en términos de financiamiento hacia las problemáticas locales y el desarrollo local usando la microelectrónica.
–¿Y qué se puede hacer desde la ciencia y tecnología a nivel municipal y local? –Hay varios tipos de aplicaciones. En particular, estamos conectando de alguna manera las iniciativas locales con iniciativas y necesidades de otros municipios y otras provincias, en particular de Tierra del Fuego. Una de las posibles iniciativas a desarrollar tiene que ver con la idea de ciudad inteligente.
–¿Qué es una ciudad inteligente? –Una ciudad donde se puedan generar servicios para el ciudadano, ya sea en términos de información o de acceso (sobre todo para personas discapacitadas), en términos de facilitar el tránsito y el tráfico, e introducir tecnología, en particular electrónica, para ver soluciones en este tipo de cosas. Y para eso es fundamental el gran apoyo que tenemos a nivel nacional y a nivel municipal.
–¿Qué cosas concretas están desarrollando? –Ahora se está implementando la plataforma donde se va a hacer el diseño de prototipos para diferentes tipos de actores. Un escenario de actores muy importante que tenemos es el de las empresas armadoras de Tierra del Fuego, que están muy interesadas en participar solucionando problemas de diseño en Tecnópolis del Sur.
–No entiendo muy bien... –La idea es que aquí, por intermedio de la gestión de la agencia, se haga diseño, por ejemplo, de una interfaz particular para poder acceder a un teléfono celular que ellos no estén fabricando y que hoy por hoy estén importando.
–¿Pero no son ensambladoras en general las fábricas de Tierra del Fuego? –Claro, pero la idea es cambiar esa perspectiva: introducir diseño nacional en los productos que ellos ensamblan, para que cada vez haya más capacidad de desarrollar los propios productos (asociados al mercado argentino y potencialmente para exportación).
–¿Y se está avanzando algo en ese sentido? –No exactamente con Tierra del Fuego, con la que estamos concretando el vínculo, pero en lo que se está avanzando más concretamente es en un proyecto para desarrollar un codificador de video para televisión digital abierta.
–¿Y eso? –Una de las entidades que está dentro de esta plataforma es el INTI, que va a desarrollar un centro de microelectrónica asociado a Tecnópolis del Sur, con un grupo de unos 40 diseñadores. Esos diseñadores van a diseñar a nivel de circuito microelectrónico este codificador de video y eso se va a mandar a fabricar afuera del país. Ahora estamos en la etapa de ejecución del diseño.
–¿Y no lo podemos fabricar nosotros? –Esa es la idea. Fabricar los circuitos integrados requeriría tener procesos de semiconductores que son costosísimos. Pero lo que sí se puede hacer, aunque de cualquier manera requiere personal con alta capacitación, es el diseño. Y esto es lo que estamos desarrollando en este proceso específico.
–¿Y qué otros proyectos tienen? –Ese que le cuento es muy importante porque tiene varias ramificaciones: el codificador de video (que está pensado hoy para utilizarse en televisión abierta) se va a poder utilizar en varios tipos de productos, sustituyendo alguna interfaz de las notebooks que el Estado está introduciendo en el sistema educativo..., con eso quiero decir que se trata del diseño de un sistema entero, no de una parte de un sistema, y eso requiere un trabajo intensivo, con muy alto nivel de formación, por un período de dos o tres años.
–Eso se está haciendo en Bahía Blanca... –Sí, y es un proyecto insignia por la relevancia que tiene. La plataforma ésta incluye no sólo las capacidades de diseño de este tipo de prototipos, sino que sirve para ayudar a diseñar placas de circuitos con un grado de complejidad que una pyme o una empresa unipersonal nunca podría desarrollar, por su costo.
–¿Y fuera del campo de la microelectrónica? –Este proyecto particular, financiado por la agencia nacional, se llama “Tecnología electrónica de alta complejidad”. Por eso hago mención específica a la microelectrónica. La agencia municipal puso la prioridad y el apoyo en ese tipo de tecnologías justamente porque ya está el financiamiento de Tecnópolis del Sur.
–¿Qué es Tecnópolis del Sur? –Es un consorcio público-privado donde está la Universidad Nacional del Sur, el INTI, tres o cuatro empresas (casi todas del área de electrónica). Eso tiene como objetivo llevar a cabo el proyecto de tecnología electrónica de alta complejidad de la Agencia Nacional.
–¿Y ése sería un polo de desarrollo para el país? –Claro. Hay otros en Gran Buenos Aires, Rosario, Mendoza, Córdoba, sobre todo en el desarrollo de software. Pero nosotros queremos hacer hardware.
–La fabricación concreta de todas las cosas que se diseñan... –Las placas son parte de la plataforma; los circuitos integrados se mandan a hacer afuera.
–¿Y no hay posibilidad de que se haga acá? –Todo depende del producto, del prototipo, de la problemática particular. Porque los costos específicos pueden ser grandísimos si uno no produce en volumen suficiente. En general, lo que se plantea es que es eficiente hacer el diseño acá y no la fabricación del microcircuito (aunque sí de las placas, del producto, de todo lo que sea envases y encapsulado).
–¿Y qué otras aplicaciones tendría esto además de codificar video? –Bueno, siempre que uno tenga necesidad de una interfaz de video, ahí está este chip-set que va a estar jugando en el medio. Hay un estándar que este microcircuito implementa, y siempre que sea necesario ese estándar va a tener utilidad este circuito integrado.
–¿Cómo es el mecanismo de funcionamiento de la Agencia? ¿Se presentan proyectos? ¿Cómo se evalúa? –Tenemos un consultorio de emprendedorismo y un consultorio de pymes, donde atendemos consultas generales, locales, regionales. La idea es que podamos dar soluciones a todo tipo de inquietudes para empresas de base tecnológica, aunque no necesariamente necesiten de microelectrónica.
–¿Y qué tipo de consultas reciben? –De todo tipo. Tal vez el problema mayor de las pymes es que tienen una idea pero no tienen la forma del producto, el negocio asociado a la idea de prototipo que tienen entre manos.
–¿Qué tipo de prototipos o productos? –Ha habido, por ejemplo, una máquina de fabricación de perfumes, o una depiladora permanente, o cepillos de dientes eléctricos, o detectores de metales para productos alimenticios y farmacéuticos. Es muy diverso el espectro.
–Y las empresas que hacen la consulta, ¿después implementan? –No lo sabemos bien. Sabemos bien qué han venido a consultarnos, pero no sabemos bien cómo ha seguido el camino.

miércoles, 10 de octubre de 2012

Un premio por mirar donde no se debe

EL NOBEL DE FISICA FUE OTORGADO A DOS INVESTIGADORES DEL EXTRAÑO MUNDO CUANTICO


El francés Serge Haroche y el estadounidense David Jeffrey Wineland fueron galardonados por sus logros en las mediciones de partículas cuánticas. Sus desarrollos abren la posibilidad futura de la ansiada supercomputadora, mucho más potente que las actuales.

Por Leonardo Moledo y Ezequiel Acuña
 
Una cualidad asombrosa de las partículas cuánticas es su especial reacción cuando se las intenta medir. Digamos que las partículas, como por ejemplo los fotones, son un poco vergonzosas frente al ojo medidor. Una partícula cuántica es una “mezcla de estados”... mientras no se la observa, pero apenas uno mira, chau, colapsa a un estado determinado. Lo que hicieron los físicos que recibieron esta vez el Premio Nobel –el francés Serge Haroche y el estadounidense David Jeffrey Wineland– es abrir una puerta hacia la observación de dos estados simultáneos. El solo hecho de medir implica, en la física cuántica, un cambio en lo que sucede en ese mundo de lo terriblemente diminuto. Ese cambio abre la perspectiva futura de la supercomputadora, una computadora cuántica, mucho más veloz que las actuales.
Una manera de entender esto (llevándolo al mundo macroscópico), de cajas y gatos, que, para el avisado lector serán más familiares que los fotones y los átomos, es recurriendo a la famosa paradoja del gato de Schroedinger.
La mecánica cuántica (MC), iniciada por Planck, Einstein y completada hacia el final de los años ’20 por obra y gracia de Heisenberg, Schroedinger, Bohr y Born, entre otros, se convirtió en una formidable herramienta para el estudio del universo atómico y nuclear, y desde entonces funcionó a la perfección. Desde entonces, también, tuvo sus costados inquietantes, por lo menos filosóficamente, tanto o más que la teoría de la relatividad.
El principio de incertidumbre, por ejemplo, afirma que es imposible conocer determinadas magnitudes con precisión en forma simultánea (por ejemplo, la posición y velocidad de un partícula). Un electrón está representado por una onda que indica la probabilidad de que el electrón esté en tal o cual lugar. Al principio, por lo menos, muchos físicos tomaron estas descripciones como tales, es decir, como meras descripciones, pero alrededor de los años ’30 cristalizó una teoría, “la interpretación de Copenhague”, piloteada principalmente por Niels Bohr, que adoptó una visión radicalizada del asunto, que ponía (y sigue poniendo) en tela de juicio todos los conceptos sobre la realidad, por lo menos, tal como se la conoce en la vida cotidiana.
Para los físicos de Copenhague, las imprecisiones, probabilidades e incertidumbres de la MC no son una limitación de la física o la señal de que la MC es una teoría incompleta. No. Para ellos, la naturaleza es así: un electrón es una superposición de probabilidades de estar aquí o allá, tal y como la MC lo describe. Pensar en un electrón en tal lugar no tiene sentido.
A menos que lo observemos. En ese caso, la función de onda “colapsa” hacia una posición fija; todos los estados se condensan y el electrón aparece campante ocupando una determinada posición. Esta postura despertó, como es natural, no pocas resistencias. Los teóricos de Copenhague sostienen que lo observado y el observador interactúan entre sí: de alguna manera el electrón “sabe” que está siendo observado y por eso su función de onda colapsa. Y si el electrón no está siendo observado, no tiene sentido preguntarse dónde está: es una superposición de estados diferentes.
No se trata, por cierto, de un interpretación tranquilizadora –desde el punto de vista clásico el observador y lo observado son dos entidades totalmente diferentes– y, como es natural, despertó serias resistencias.
Erwin Schroedinger (notablemente, uno de los héroes de la MC) publicó también una crítica de la concepción de Copenhague, proponiendo un experimento mental, que quedó en el folklore como “la paradoja del gato de Schroedinger” que, sin entrar a discutirlo, nos puede servir para ver qué es lo que hicieron estos dos señores.
Y es así. Imaginemos –decía Schroedinger– una caja completamente cerrada que contiene un gato vivo y una pequeña cantidad de material radiactivo. Imaginemos también que dentro de la caja hay un dispositivo diabólico (pero perfectamente posible), por el cual cuando una partícula es emitida por alguno de los átomos radiactivos, pone en funcionamiento un detector que a su vez suelta un martillo que rompe una ampolla de vidrio llena de un gas venenoso, efectivo e instantáneo. O sea, apenas un átomo se desintegra, el gato muere. Para la MC, no hay manera de saber en qué momento un átomo se va a desintegrar: todo se reduce a probabilidades. Solamente mirando, podemos saber si el átomo se ha desintegrado o no, y mientras la caja esté cerrada, el átomo (o los átomos en cuestión) son una mezcla de dos estados (se desintegró-no se desintegró). Entonces, razonaba Schroedinger, puesto que no tiene sentido preguntarse si el material radiactivo se desintegró o no hasta que abramos la caja y miremos, tampoco tiene sentido preguntarse si el gato está vivo o no hasta ese mismo momento. Simplemente –siguiendo la interpretación de Copenhague– el gato está en una mezcla de dos estados: “vivo” y “no vivo”, y pensar que está vivo o que está muerto no tiene sentido.
Pues bien, Serge Haroche y David J. Wineland recibieron en el día de ayer el Premio Nobel de Física por su trabajo en un método de medición y manipulación que les permitió mirar adentro de la caja y contemplar al gato en los dos estados simultáneos: vivo-muerto, o dicho un poco más técnicamente, atisbar partículas individuales (gatos) sin destruir el sistema cuántico que se intenta observar de manera directa. Los dos laureados vienen trabajando en el área de óptica cuántica, un campo que obsesiona a los físicos desde mediados de los ’80, y que trabaja precisamente estudiando la interacción entre luz y materia para desarrollar sistemas de medición específicamente cuánticos. Los métodos de Haroche y Wineland, que trabajan por separado y cada uno con su grupo, tienen sin embargo varias cosas en común.
Para Wineland y su equipo, el gato (o los gatos) fueron iones: armaron una trampa rodeándolos con campos eléctricos y manteniéndolos aislados del calor y la radiación del ambiente con experimentos en vacío a muy bajas temperaturas. Mediante láseres, el equipo de Wineland se encargó de suprimir el movimiento térmico en la trampa para llevar al ion a su estado más bajo de energía. Esa utilización de los rayos y pulsos láseres es la que habilita un estudio del sistema cuántico alrededor del ion. El pulso láser es usado para llevar al ion a una superposición de estados. Eso que vuelve tan incomprensible a veces la mecánica cuántica es la posibilidad de plantear varios estados al mismo tiempo para una partícula, situación imposible desde la física clásica a la que estamos acostumbrados por experiencia. Como en el experimento de la doble ranura, en el diminuto mundo de la mecánica cuántica, invisible para nuestro ojo, las partículas pueden estar en diferentes estados simultáneamente. Con un pulso láser, Wineland y su equipo del laboratorio de Boulder, Colorado, prepararon el ion para ocupar dos niveles diferentes de energía, llevándolo desde el menor nivel de energía hasta mitad de camino hacia el mayor, y abandonándolo a la mitad entre los dos niveles, con igualdad de probabilidades de terminar en cualquiera de ellos. Todo esto para estudiar el fenómeno cuántico de la superposición de estados de la manera más controlada y estable.
En el laboratorio de París, Serge Haroche y su equipo de investigación emplearon otro método para poder mirar dentro del mundo de lo cuántico: sus gatos fueron fotones que hicieron rebotar ida y vuelta entre dos espejos con tres centímetros de diferencia. Aquellos espejos, hechos de un material superconductor y enfriados por debajo del cero absoluto, son tan brillantes y reflejan de tal forma que pueden mantener a un fotón, solito, rebotando de ida y de vuelta en esos tres centímetros por casi una décima de segundo, antes de que el fotón sea absorbido o se pierda. Parece poco, pero una décima de segundo es mucho tiempo, ya que se mueve a 300 mil kilómetros por segundo, con lo cual en ese lapso recorre un tiempo record de vida para un fotón. Y mantenerlo rebotando durante ese tiempo implica que el fotón recorre 30 mil kilómetros, es decir, poco menos que un viaje alrededor de la Tierra. Con el fotón rebotando, Haroche introdujo grandes átomos (átomos Rydberg), preparados especialmente, que son enviados de a uno, cruzando el recorrido del fotón a una determinada velocidad que permita una interacción controlada con el fotón. Esta interacción altera las propiedades cuánticas del átomo y los cambios en la onda cuántica del átomo pueden ser medidos para comprobar la presencia o ausencia del fotón entre los dos espejos, comprobando que está ahí sin destruirlo. La interacción de los átomos Rydberg permite ir haciendo un mapa de la vida y muerte del fotón, paso a paso, con cada átomo que cruza su recorrido e interacciona con el fotón. Una derivación de este método le permitió a Haroche contar fotones en el interior de la cavidad.
Los laureados ayer con el Premio Nobel se enfrentaron con éxito al colapso y pérdida de la superposición de estados que genera el acto de medición de un estado cuántico, atrapando partículas elementales y sosteniendo la superposición de estados.
A partir del manejo de iones, el equipo de David Wineland construyó en base a su trampa de iones un reloj cien veces más preciso que el reloj atómico basado en caesium, estándar actual de la medición del tiempo. Como siempre, la ciencia promete y es importante que siga prometiendo avances deslumbrantes que pueden acontecer o volverse literatura de las próximas décadas. Un desarrollo de la trampa de iones permitiría la fabricación de una supercomputadora, una computadora cuántica, mucho más veloz que las actuales que no tenga que depender de la elección entre 0 y 1 por cada bit sino que pueda ser 0 y 1 al mismo tiempo. Por ahora, los bits cuánticos son sólo una promesa de alta tecnología.

martes, 9 de octubre de 2012

Nobel a la ingeniería genética

EL PREMIO DE MEDICINA FUE PARA LA INVESTIGACION DE CELULAS MADRE


El Premio Nobel de Medicina correspondió a dos investigadores que consiguieron modificar el paradigma según el cual las células diferenciadas estaban en un estado estable e irreversible. Son un científico británico y otro japonés.

Por Leonardo Moledo y Ezequiel Acuña 
 
Antes de que John B. Gurdon, recientemente laureado, pusiera manos a la obra con sus hipótesis sobre la funcionalidad de las células, la medicina suponía que las células maduras, especializadas en su trabajo por pertenecer a un determinado tejido del cuerpo e incapaces de cumplir otra función que la que ocupaban, estaban entregadas de manera irreversible a su destino. Así se diferenciaban de las jóvenes células madre de los embriones, esas células de las que todos venimos y a las que, de una forma u otra, todos vamos (darwinianamente, a través de nuestros hijos); células capaces de especializarse en cualquier función y convertirse en cualquier tipo de célula de un organismo adulto: células musculares, nerviosas, del pulmón, el hígado o cualquier órgano del cuerpo: células pluripotentes o totipotenciales.
En 1962, Gurdon, que se había formado en la Universidad de Oxford, llegó con su investigación a resultados que contradecían esta regla básica de la fisiología celular. Durante el desarrollo embrionario, las células se van volviendo progresivamente más restringidas en sus posibilidades, se diferencian unas de otras y pierden su capacidad pluripotente, reservada sólo para algunas células del cuerpo en la médula, el intestino o la piel. La diferenciación de las células es bastante estable y su destino, una vez escrito, no cambia... según parecía.
Sin embargo, la hipótesis de Gurdon era que las células adultas todavía debían guardar la información genética que tenían al inicio de su vida como células embrionarias, información que les había permitido evolucionar hacia cualquier tipo de células. El año, entonces, es 1962, y John B. Gurdon se dedicó a reemplazar el núcleo de una célula de un cigoto de rana por el núcleo de una célula madura y especializada, del intestino de un renacuajo. El cigoto se desarrolló y se volvió un renacuajo, sano, salvo y completamente funcional. El siguiente paso fueron, obviamente, las ranas adultas. Los resultados de sus experimentos probaban, entonces, que los núcleos de las células maduras trasplantados a cigotos no habían perdido en absoluto su capacidad de desarrollarse, especializarse y volverse un organismo plenamente funcional.
Como cualquier lector atento puede imaginarse, éste fue uno de los pasos iniciales que llevaría años más tarde a la clonación de mamíferos.
Hace bastante poco, en 2006, pero unos 44 años después de las investigaciones de Gurdon, Shinya Yamanaka, japonés de la Universidad de Kobe y doctorado por la Osaka City University, dio a aquel descubrimiento una vuelta de tuerca más, que resultaría en un avance prometedor.
El experimento de Gurdon, tomado con gran escepticismo por el ambiente científico de la época pero confirmado a lo largo de esas cuatro décadas por otros investigadores, implicaba quitar el núcleo de la célula e introducirlo en otro, pero no modificaba en sí misma la célula madura. El trabajo de Shinya Yamanaka estuvo destinado, precisamente, a volver a una célula madura de ratón una célula joven, inmadura, plenipotente. Para eso, disponía de células embrionarias aisladas del embrión y cultivadas en el laboratorio, inicialmente aisladas de un ratón por el Premio Nobel de 2007, Martin Evans. Yamanaka se propuso, entonces, encontrar los genes que mantenían inmadura a la célula; los genes, digamos, de una especie de juventud eterna y totipotencial de las células. Una vez que identificó gran parte de esos genes, comprobó que una combinación de ellos podía reprogramar la célula madura para que se volviera una célula madre pluripotencial.
Nuestro lector atento supondrá, y bien, lo que vino después. Yamanaka y su equipo de trabajo introdujeron estos genes en diferentes combinaciones en células maduras intactas de tejido conectivo y fueron probando resultados hasta dar con una combinación de solamente cuatro genes que introdujeron en células maduras. Estas células resultantes se pudieron desarrollar como fibroblastos, células nerviosas e intestinales.
Como era esperable, y de allí que se hagan acreedores del premio, los descubrimientos de Gurdon y Yamanaka tuvieron como conclusión que algunas células especializadas, bajo ciertas circunstancias, pueden invertir el reloj y volverse jóvenes y (pluri)potentes. Las investigaciones de los últimos años que se basaron en estos dos grandes quiebres de la fisiología clásica abrieron camino a la posibilidad de generar cualquier tipo de células del cuerpo a partir de las células madre inducidas. Las promesas médicas todavía están en desarrollo, pero la comprobación de que, a pesar de que el genoma de las células se modifica durante su desarrollo y especificación, esa modificación no es irreversible, implicó un cambio en la mirada sobre el desarrollo de los organismos. También, cuando estos procedimientos se desarrollen lo suficiente, podrán resolver los absurdos problemas religiosos que les crean a algunos la utilización de células madre. Todavía falta, aunque se están haciendo nuevos avances, que se puedan controlar los “daños colaterales” que la introducción de esos cuatro genes pueden producir en el genoma celular.
De paso, nada escapa a las recetas del FMI: este año, la Fundación Nobel ajustó sus premios; la crisis parece haberlos obligado a pasar de diez a ocho millones de coronas suecas, es decir, 1,2 millón de dólares.

lunes, 8 de octubre de 2012

“La historia de la ciencia es una aventura inigualable”


LEONARDO MOLEDO, AUTOR DE HISTORIA DE LAS IDEAS CIENTIFICAS


A partir del miércoles próximo, Página/12 comenzará a publicar la serie de 40 fascículos que van de Tales de Mileto a la Máquina de Dios, con ilustraciones de Milo Lockett. En esta entrevista, el autor reflexiona sobre los enrevesados caminos del pensamiento.
 
Por Nicolás Olszevicki
–Una de las cosas que llaman la atención de los fascículos que va a publicar Página/12 a partir del miércoles próximo es que se trata de una historia de las ideas científicas y no de una historia de la ciencia a secas... ¿Por qué?
–Bueno, me pareció interesante hacer hincapié no tanto en los hechos concretos o descubrimientos concretos –lo que también es interesante, obviamente–, sino en las líneas de pensamiento que llevaron a esos descubrimientos, teorías, hallazgos. En última instancia, la ciencia nace de una sociedad que está pensando cosas, y esas cosas que se piensan, así como los estilos en pintura, en literatura o en música, son los titiriteros que manejan en forma explícita o implícita la actividad de los científicos. Y hay corrientes de pensamiento, linajes intelectuales, posiciones que duran muchísimo tiempo y que recorren toda la historia de la ciencia, a veces desde Tales de Mileto hasta hoy.

–¿Por ejemplo?
–Durante siglos se discutió la existencia o no del vacío, la existencia o no de los átomos, y esa discusión tuvo diferentes respuestas de acuerdo con quiénes fueran los personajes que intervinieran y cuál fuera el momento histórico. La discusión sobre la existencia de los átomos va desde los atomistas griegos y Aristóteles, que los negaba, hasta el siglo XIX, en el que todavía muchos químicos negaban la existencia de los átomos y los consideraban simples maneras de hablar.

–Y una historia de las ideas científicas obviamente no puede desvincularse de una historia social y política...
–En general, no, porque la ciencia más o menos acompaña los objetivos o las formas de funcionar de una sociedad determinada. Para poner un ejemplo muy ingenuo: una sociedad cazadora-recolectora es probable que se interese más por la botánica que una sociedad basada en la pesca. Ahora bien: las sociedades burguesas, que surgieron a partir del siglo XVI o XVII en Europa...
–Y un poquito antes también...
–Se podría decir que antes eran sociedades con burgueses, no burguesas. Las sociedades burguesas se interesan más por cuestiones abstractas y de medición que la sociedad medieval. El descubrimiento de América y la invención de la imprenta multiplicaron los intereses y las posibilidades de acceder al conocimiento, y por lo tanto, la cantidad de gente interesada. No es lo mismo un mundo sin libros que un mundo con libros. Y la relación entre la ciencia y la sociedad no pasa sólo por los intereses sino por las posibilidades. De cualquier manera, no hay que caer en un reduccionismo absoluto. Esta cuestión de la teoría atómica de la que hablábamos, por ejemplo: no sé si hay una correspondencia tan punto a punto. Se puede decir que la teoría atómica responde más a una filosofía mecánica, y que una filosofía mecánica responde más a un mundo donde se valoran las máquinas y la producción. Pero obviamente no hay una relación punto a punto.
–Porque si se pensara así, habría que pensar que el atomismo surge recién con la Revolución Industrial.
–Y surge en realidad en la polis griega, aunque triunfa de manera definitiva en el siglo XIX. Entre Demócrito (siglo V a.C.) y Dalton (1810) no hay ningún avance sobre la naturaleza de los átomos y su naturaleza química o real. De hecho, la primera edición de la Enciclopedia Británica, en el siglo XVIII, define al átomo como lo definía Demócrito.
–Y eso va muy en contra del sentido común sobre la historia de la ciencia. El sentido común tiende a pensar que hay una progresión lineal de la ciencia, que el pensamiento se plantea problemas que va solucionando linealmente en un progreso indefinido.
–Sí, ésa es la visión actual.
–Actual, ¿desde cuándo?
–La idea de progreso es relativamente nueva, una idea que podríamos remontar a la Revolución Científica. La aparición de la burguesía es la que instala la idea de progreso. A pesar de que hay ciertas épocas previas (en Alejandría, por ejemplo, o en la época romana, alrededor del siglo I, cuando se hacían exposiciones con aparatos a las que los romanos iban para ver los avances de la técnica) en las que estoy seguro de que esa idea estuvo presente. La cuestión es que la ciencia no avanza linealmente sino a los tumbos: avanza, retrocede, tropieza, se equivoca. Y no puede sino ser de otra manera, porque, como decía antes, la ciencia toma gran parte de sus ideas subyacentes de la evolución o el cambio o el estado de las ideas de la sociedad. Y todas esas progresiones no son sincrónicas. Alguien puede desfasarse o adelantarse, como en la sociedad. Lo que pasa es que nosotros ahora tenemos una idea clara de lo que es el progreso.
–¿Sí?
–En lo científico, sí. El progreso en lo científico es descubrir más sobre el Big Bang y el momento cero del universo, curar más enfermedades, descifrar capas más profundas del genoma, encontrar partículas elementales. Por ejemplo, el Bosón de Higgs muestra una faceta interesante, porque de alguna manera cierra el modelo estándar de partículas. Pero eso no quiere decir que se haya terminado. Ahora, nosotros, que vivimos imbuidos de la ideología del progreso científico, en general pensamos en extrapolaciones de lo que se está haciendo en este momento: sabemos que nos faltan tales aparatos para hacer tales cosas que no podemos hacer ahora y eso es lo que concebimos como progreso científico. Pero seguro que nos faltan aparatos que no sabemos que nos faltan, como Copérnico no sabía que le faltaba el telescopio, a pesar de que parece que los árabes ya tenían algo de eso. Y eso es lo más interesante: lo que no sabemos y no sabemos que no sabemos.
–Esta concepción de la ciencia puede traerle varios enemigos. ¿No es algo ingenuo pensar en la ciencia como algo que progresa, teniendo en cuenta todos los desastres a los que ha llevado?
–La idea de progreso es ambigua. La visión del progreso del siglo XIX, incluso la visión racionalista del progreso, produjo bastantes desastres, como es obvio. Acá mismo, el progreso era el ferrocarril y con el ferrocarril venía el rifle. Y ahí viene la vieja discusión sobre el problema de la teoría y la aplicación: una mala aplicación no desautoriza una buena teoría. Pero incluso hubo teorías científicas que fueron utilizadas ellas mismas como elemento de opresión, como las teorías raciales que se (mal) derivaron de la teoría de la evolución. De cualquier manera, creo que es necesario hacer una distinción entre el aspecto puramente teorético de la ciencia y su aspecto institucional. Me parece sensato pensar que la ciencia efectivamente avanza en su conocimiento por más que institucionalmente se utilicen mal sus resultados. Y hay un buen ejemplo para eso: el VIH. En sólo treinta años se consiguió cronificar la enfermedad y por lo tanto, en principio, controlar la epidemia. Pero la epidemia sigue en algunos países por razones puramente económicas y sociales, como en ciertas zonas de Africa. Eso no quiere decir que la ciencia en sí misma defienda los intereses de ninguna clase social ni nada por el estilo.
–Cuando uno habla de historia de la ciencia, o de historia de las ideas científicas, tiende a pensar que ciencia propiamente dicha no hay hasta bien entrado el siglo XVI o XVII con la Revolución Científica. Sin embargo, su historia comienza con Tales de Mileto.
–Es falso que no haya habido ciencia antes de la Revolución Científica. Completamente falso. Los griegos hicieron buena ciencia, construyeron un sistema astronómico bastante preciso, se ocuparon de biología, matemáticas, medicina, lógica. Tuvieron muy claramente el concepto de lo que es una ciencia racional, de lo que es la observación y la teoría... Incluso, en algún momento la cuestión se transformó de los grandes sistemas a las ciencias particulares. La Biblioteca de Alejandría, por ejemplo, funcionaba como una universidad moderna, más o menos. No es verdad, tampoco, que no hubo ciencia en la Edad Media. En la segunda parte de la Edad Media, después del siglo XI, se pensaba (y mucho) sobre la estructura del mundo, sobre la naturaleza del movimiento. Se discutía, había distintas escuelas y había, sobre todo, un brillo intelectual impresionante. Roger Bacon pensaba en máquinas voladoras y submarinos antes que Leonardo... ¡Eso sí que era una idea de progreso! Y en el siglo XII o XIII, Bernardo de Chartres decía: “Si vemos más lejos, es porque estamos subidos en hombros de gigantes” y Nicolás de Oresme en algún momento dice que deja las cuestiones de las que tratan sus estudios para los estudiantes que vengan después de él. O sea que sí hubo ciencia antes de la Edad Moderna. Uno podría ver todo el pensamiento científico como una aventura: la aventura de expandirse y ser cada vez más preciso en los conocimientos que se adquieren. Es razonable pensar que sabemos más de astronomía que Ptolomeo.
–¿Es razonable? ¿Nada más?
–Bueno, no: sabemos más de astronomía que Ptolomeo, de medicina que Hipócrates, de química que Lavoisier. Tenemos en nuestras manos piedras lunares, hay aparatos explorando Saturno, Júpiter; nuestra medida del universo es más exacta que la de Copérnico. Me parece que a pesar de lo que no sabemos y de lo que no nos imaginamos que no sabemos –que es lo más importante–, podemos decir que el acervo de conocimientos que tenemos es mayor que el que tenían los griegos, o el que se tenía hace dos siglos. Y si lo pensamos así, nos podemos preguntar cómo llegamos desde Tales de Mileto a la Máquina de Dios. Todo esto tiene evidentemente ribetes de aventura, de una aventura inigualable: la historia de las ideas científicas es una historia de una serie de pensamientos, de ideas, de equivocaciones y rectificaciones, de intuiciones geniales, de soluciones extraordinarias a problemas a simple vista insolubles, todos los cuales implicaron esfuerzos intelectuales tremendos. Incluso aquellos que luego fracasaron. Entonces una historia de esos esfuerzos intelectuales metidos en una realidad que (como toda realidad contemporánea) uno conoce poco, tiene un interés muy especial. Es la historia del esfuerzo intelectual del hombre. Nada más y nada menos.

domingo, 7 de octubre de 2012

Caminos de la evolución

 DIALOGO CON SUSANA ROSSI, DOCTORA EN BIOLOGIA E INVESTIGADORA DEL CONICET, FCEN


Los procesos evolutivos funcionan, a veces, por selección natural. Otra parte de las variaciones genéticas depende del azar. Las lagunas de los esteros del Iberá son un laboratorio de la evolución.

–Usted trabaja con genética evolutiva.
–Sí, particularmente con dos modelos que plantean problemas teóricos que tienen muchos puntos de contacto pero que tienen implicancias distintas. Uno de los modelos son roedores subterráneos, en particular un subgrupo que habita un ambiente muy particular, los esteros del Iberá. La problemática en este caso es que se trata de un grupo de especies de divergencia relativamente reciente, semejantes entre sí. Es una especie de ensalada de especies: no se sabe cuántas especies hay, qué poblaciones pertenecen a cada especie... Es un problema clásico de saber a qué grado de complejidad nos estamos enfrentando.
–Antes de empezar, quisiera que explicara qué es la genética evolutiva. –Pero ya empezamos.
–Bueno, igual. –Lo que yo hago es utilizar la genética molecular para historiar biología evolutiva. Lo que hace el biólogo evolutivo que utiliza la genética como herramienta es ir al campo, tomar muestras de los individuos que quiere estudiar, extraer el ADN de la muestra y estudiar determinados genes en particular. Se analiza la variabilidad que hay en esos genes en los distintos individuos en los cuales uno tiene interés, y ése es el material crudo. Con ese material uno construye hipótesis, pero no el tipo de afirmaciones sencillas, sino hipótesis muy complejas en su elaboración.
–¿Cómo es eso? –Se utiliza información de la variabilidad genética y las diferencias entre los organismos que se estudian para inferir las relaciones evolutivas, relaciones que pueden representarse gráficamente por un árbol de divergencia dicotómica, es decir, de un tronco común (el ancestro común de todo el grupo que uno estudia) sale una primera divergencia o dicotomía.
–¿A partir de una variación en un gen? –Claro. Lo que diferencia a un grupo del otro es una o más variantes genéticas. Lo que tratamos de identificar, entonces, es cuáles son las variantes genéticas que están diferenciando a las especies. Esa variabilidad en conjunto es la que permite establecer el orden de las dicotomías o de las separaciones o divergencias de linajes. Pero hay que tener cuidado porque ésa no es la verdad histórica del grupo. Esa es simplemente una sofisticada hipótesis en base a una evidencia parcial de datos. Es uno de los lugares donde la evolución deja sus huellas, pero hay que tomar otro conjunto y finalmente, mediante el análisis combinado de árboles e hipótesis resultantes de datos moleculares, morfológicos y comportamentales, podemos establecer con una cierta aproximación una idea acerca de cuál ha sido el orden de evolución de este grupo.
–¿Qué otras cosas, además de los genes, marcan la evolución? –Prácticamente todo es evidencia de evolución. Tanto aquellos caracteres que han cambiado mucho como aquellos que no han cambiado. Porque la evolución es, también, no cambio. El conjunto del proceso evolutivo también contempla procesos de estasis o estancamiento.
–Bueno, pero hablemos de cuando se producen los cambios. La evolución funciona por selección natural... –Funciona por selección y por otros procesos que no son selectivos. La selección es un mecanismo determinista: si un grupo de individuos tiene un determinado carácter que es más ventajoso que otro grupo de individuos, se supone que tiene mayor sobrevida y se reproduce más. Con lo cual uno podría determinar la dirección del cambio evolutivo si conoce el ambiente, por ejemplo. Pero la evolución también ocurre mediante otro tipo de procesos, que son procesos no selectivos.
–A ver... –Son procesos no deterministas. Pueden ocurrir a varios niveles: tanto a un nivel muy general o muy macro (por ejemplo, una catástrofe o un episodio ambiental raro que elimine por azar a prácticamente un linaje completo, como el tsunami de hace unos años, que eliminó a especies con pocos representantes) como a niveles más locales.
–¿Por ejemplo? –Por ejemplo, uno de los grupos con los que yo trabajo, los roedores que habitan los esteros del Iberá, pueden estar sometidos a extinciones locales producidas por alteración del ambiente. Los esteros son un sistema interconectado de lagos y lagunas donde los niveles de agua pueden subir en determinados períodos, de tal manera que pueden extinguir a poblaciones enteras, o bajar y dejar al descubierto terrenos utilizados por los tucos. Durante el período en que las aguas bajan hay una recolonización de zonas, pero los que recolonizan no es que hayan estado mejor adaptados que el que se extinguió antes, sino que simplemente tuvo suerte. Pero también hay procesos de tipo estocástico, o aleatorio, en el que algunas secuencias con capacidad intrínseca de amplificarse con más eficiencia que otras pueden predominar sobre otras secuencias que tienen sistemas replicativos menos eficientes. Si consideramos el número de copias que es evidencia de la selección natural podemos decir que es un proceso selectivo, pero muchas veces simplemente son secuencias silenciosas, que no se expresan en genes, que no se pueden asociar a un rasgo adaptativo puntual. Estamos hablando de evolución en términos generales.
–¿El ADN basura? –El ADN basura se denominó a mediados del siglo pasado, cuando lo que reinaba era el gen (una secuencia con determinadas características que se transcribe a un ARN mensajero y luego a una proteína). Buena parte del genoma, y en algunas especies hasta la mayoría, no tiene la estructura de un gen: no tiene un promotor, no tiene un marco de lectura abierto, etc. Son secuencias en las cuales no son reconocibles marcos de lectura, no pueden producir una proteína y, sin embargo, están en grandes cantidades. A esto se lo llamó ADN basura. Hoy esa terminología está perimida, porque a esos grupos de secuencias se los llama “secuencias no génicas”, dentro de las cuales hay secuencias muy importantes para la regulación de la expresión de genes. Por ejemplo: una variedad evolutiva muy importante en el caso de primates se origina por la traslocación de una secuencia mal llamada de ADN basura (en este caso, un retrovirus endógeno) delante de un gen que estaba silenciado. Los humanos tenemos dos tipos de enzima amilasa (una enzima que rompe los hidratos de carbono complejos en hidratos más simples): una que está en páncreas, que es la más antigua, y otra que está en parótida y se secreta en saliva.
–¿Y entonces? –El hecho de que se secrete en saliva es relativamente reciente en el linaje evolutivo de mamíferos, se da en algunos mamíferos, pero no en todos. Es importante porque la amilasa, al romper hidratos de carbono complejos, hace que algunas fuentes de alimentos sean reconocidas por el sabor dulce como fuentes de alimento, como hidratos de carbono justamente. El gen que sintetiza la amilasa que se secreta en la saliva en realidad estaba silenciado, sin promotor, y se empezó a expresar cuando en el ancestro de primates una secuencia de ADN basura, que tiene promotores muy fuertes, se insertó antes del gen que de otra manera hubiese estado silenciado. Es una novedad evolutiva muy grande que se produce por un hecho aleatorio o no predecible.
–¿Y esa ventaja selectiva se impuso? –Sí. Pero su origen es no selectivo, es completamente aleatorio: ya no es la mutación puntual la que juega un rol, sino el ADN basura.
–¿Por qué se produce eso? ¿Cómo es que un pedazo de ADN basura se reposiciona? –Porque el genoma tiene su propia dinámica, su propio mundo. La visión de que el genoma es algo que de forma estable se hereda de generación a generación es una visión errada. El genoma es bastante dinámico, hay relocalización de secuencias dentro de un cromosoma o relocalización de secuencias que varían su posición inclusive entre cromosomas. Los cromosomas de especies emparentadas, de hecho, son muy variables. ¿Cómo puede producirse a partir de un ancestro en común una variabilidad tan grande? Bueno, uno de los mecanismos es que al haber secuencias de ADN basura en distintos cromosomas, que no son homólogos (es decir, que no podrían reconocerse y juntarse normalmente), se aparean en forma anómala merced a la similitud que tienen entre estas secuencias no codificables. Hay reorganizaciones e intercambio de material, y un brazo entero puede pasar de un cromosoma a otro, dando lugar a una gran variabilidad en un tiempo relativamente corto. Estas secuencias no codificantes son un elemento muy importante en la variación cromosómica y en el origen de las especies. Por no ser codificantes, estas secuencias tienen una tasa de sustitución a nivel de los nucleótidos mucho más alta que la de un gen. Pueden producir, entonces, una renovación de su secuencia a una tasa muy alta sin que se altere su funcionalidad.
–Y los bichos que usted estudia están evolucionando. –El que fue mi director de tesis dijo alguna vez que estos bichos eran un laboratorio de evolución.
–Nosotros, los humanos, ¿estamos evolucionando? –Por supuesto que sí, pero no en el sentido en el que quizás están evolucionando los tucos (donde hay, por ejemplo, formación de nuevas especies y fusiones). No creo que los humanos estemos evolucionando en ese sentido. Cromosómicamente no estamos evolucionando.
–Somos una sola especie. –Sí.
–¿Y hay linajes? –Sí, claro. Hay variantes que predominan en determinadas etnias, pero al ser una especie cosmopolita y con una movilidad muy alta, hay mucho borrado de las marcas étnicas.

lunes, 1 de octubre de 2012

Materia y energía (haiku)


¿Qué es lo que existe verdaderamente? Nadie puede saberlo. La pregunta, que atraviesa la historia humana como un cuchillo, se intentó contestar desde los comienzos: desde los cuatro elementos y el éter, hasta la materia sutil que los formara, desde las ideas cuya sombra se proyectaba en la caverna de Platón, hasta la extensión y el movimiento de Descartes, que se manifestaba en universales torbellinos. ¿Qué es lo que hay? ¿Cuál es el sustrato? No podemos saberlo, y seguramente - tal vez por suerte- no lo sabremos jamás. Pero a esta altura de nuestro conocimiento, podemos pensar que en el universo hay solamente dos cosas: materia y energía.


Verás árboles y estrellas, verás el vidrio
blanquísimo
verás a las hormigas caminando hacia la nada.
Verás el espejismo que de pronto
desaparece
y el lento marchitarse de la tarde
y la aurora feliz, y el viento norte
que reseca la piel.
Todo verás: el trigo, y los planetas,
el átomo sencillo y seguro de sí mismo.
y el vacío que ocupa el universo.
Verás la apariencia y la forma
y el rayo y la voz y la tintura
que cambia los colores.
Y te dirás : ¿qué es lo que hay?
¿qué es lo que existe verdaderamente?