En enero de 2017, científicos argentinos y alemanes dieron a conocer en Science una tecnología de microscopía avanzada con una resolución sin precedente. Llamada Minflux, permitía obtener con un microscopio de fluorescencia (usando solamente luz y lentes) imágenes con resolución de un nanómetro o más; es decir, detalles 10 millones de veces más pequeños que un centímetro. Fue considerado uno de los diez avances más importantes del año. Sin embargo, desde ese momento hasta ahora, fueron pocos los equipos que lograron utilizarla.
MÁS INFO
“De hecho, hasta donde sé, hay solo tres laboratorios en el mundo que la dominan: el de Stefan Hell [Premio Nobel de Química 2014 por haber logrado junto con Eric Betzig y William Moerner eludir las dificultades para ver objetos de menos de 200 o 300 nanómetros (mil millonésimas de metro) usando tinturas fluorescentes], el nuestro y otro de Munich, que armaron un microscopio de ese tipo con nuestra ayuda –comenta Fernando Stefani, director del Centro de Investigaciones en Bionanociencias (Cibion) del Conicet, ubicado en el Polo Científico de las ex Bodegas Giol, coautor de aquel trabajo y líder del grupo argentino–. Eso se debe a que se trata de una técnica bastante compleja y, aunque el trabajo tuvo muchas citas, casi no se la aplicó”.
MÁS INFO
Otro de los obstáculos, nada desdeñable, es que exige un aparato de más de un millón, o un millón y medio de dólares. Pero ahora, haciendo honor a su proverbial ingenio, los científicos argentinos acaban de publicar en Light. Science & Applications, una revista de alto impacto del grupo Nature, un estudio en el que demuestran que se puede lograr la misma resolución aplicando conceptos parecidos y realizando algunas modificaciones en un microscopio confocal, como los que hay en muchísimos laboratorios del país.
“Son microscopios ‘de barrido’, en el sentido de que no se saca una foto con una cámara, sino que se barre con un láser enfocado sobre la muestra, se lo va escaneando punto por punto y se reconstruye la imagen –explica Stefani–. Están entre los más comunes, los que usan todos los biólogos”.
Estos dispositivos se usan sobre todo en biomedicina porque las células, los tejidos, los órganos, se forman a partir del autoensamblado de proteínas. Las proteínas son los ladrillos de los sistemas biológicos; se disponen de distintas maneras, una al lado de la otra. Como tienen un tamaño de unos pocos nanómetros, se necesita justamente este nivel de resolución para estudiar la estructura de los sistemas biológicos.
“Con un microscopio electrónico se pueden obtener esas imágenes, pero hay que preparar la muestra de una forma que no es compatible con la vida –aclara el científico–; entonces uno siempre se queda con la duda de si esa foto muestra de verdad lo que ocurre en un entorno natural. La microscopía de fluorescencia permite obtener imágenes en condiciones que sí son compatibles con la vida. Entonces, la información que uno obtiene es mucho más probable que sea más precisa”.
Los microscopios confocales permiten hacer imágenes en tres dimensiones, siempre con resoluciones de 300 nanómetros o más, porque están limitados por la difracción. “Pero lo que nosotros mostramos es que, con un par de modificaciones, se los puede convertir en un microscopio de la máxima resolución”, destaca.
Hasta los años 90, la mayoría de los microscopistas pensaban que, por limitaciones de las leyes físicas, sería imposible ver objetos de menos de 200 o 300 nanómetros usando luz. Hell, Betzig y Moerner abrieron el camino para superar ese impedimento. Pero aunque en teoría su método debía permitir llegar a un nanómetro de precisión, en la práctica no se lograba. Sólo se llegaba a 20 o 30 nanómetros. Con la tecnología Minflux, se demostró que una microscopía óptica puede alcanzar la máxima resolución posible; es decir, el tamaño mismo de la molécula que emite luz. Los fluoróforos [sustancias fluorescentes] absorben luz de un color y emiten de otro color. Pero como tienen que absorber y emitir energía, tarde o temprano se degradan. Por eso, los fotones de fluorescencia que pueden dar son limitados. Ese método maximiza la información de cada fotón y permite alcanzar una resolución del tamaño de las propias moléculas.
Las modificaciones que ahora proponen en el nuevo trabajo son sencillas. “En general, en los microscopios confocales, lo que barre sobre la muestra para obtener una imagen es un láser enfocado –destaca Stefani–. Se genera un puntito de máxima intensidad que se dirige hacia distintos lugares de la muestra. Lo que hay que hacer es modificar el haz de iluminación, para que en lugar de hacer foco con un máximo de intensidad en el centro, tenga un mínimo de intensidad en el centro y máximos alrededor. Hay muchas maneras de hacerlo. Y lo otro (que en realidad puede ser útil para cualquier microscopio) es tener un sistema de estabilización de la muestra, para que se quede bien quieta en el microscopio. Porque estas mediciones demoran varios minutos y cualquier aparato convencional tiene un descalibrado que ronda los 10, 20 o 30 nanómetros por minuto. Aunque uno ponga la muestra y la deje quieta, se mueve por fluctuaciones mecánicas o térmicas. Tal vez se desplace 30 nanómetros en un minuto, que para cualquier aplicación es despreciable, pero en este caso se vuelve importante porque tiene que estar completamente fija durante todo el tiempo en que se obtiene la imagen. Se tiene que mover menos de un nanómetro para poder sacar la foto que uno busca”.
Para poner a prueba sus ideas, los científicos colaboraron con un grupo suizo liderado por el también argentino Guillermo Acuña, que les proporcionó un “origami de ADN”, que consiste en ADN plegado de forma predeterminada. “Se usa mucho en nanotecnología y para metodologías de ‘súper resolución,’ porque permite poner moléculas en posiciones predeterminadas a distancias muy pequeñas –detalla el especialista–. Es una tecnología que nosotros manejamos en el laboratorio, pero no somos muy expertos. Venimos trabajando desde hace años con ellos y nos prepararon especialmente uno de esos arreglos, dado que para demostrar que la técnica de verdad cumplía con lo que queríamos, se necesitaba una muestra de referencia”.
Stefani subraya que con este sistema se puede ubicar en una muestra dónde está cada molécula con una precisión igual al tamaño de la misma. “Es similar a lo que ocurre con el GPS –ilustra–. Puede indicar dónde te encontrás con 100 metros de error, con 10 o con uno. Pero si el error es de menos de un metro, dice exactamente donde está tu cabeza y tu brazo, porque es tu mismo tamaño. Podemos decir dónde está cada molécula con un nivel de precisión que es comparable o igual al tamaño mismo de la molécula. Más no tiene sentido”.
Aunque aclara que no es su área de especialidad, el físico y nanotecnólogo Carlos Balseiro, que no participó en este desarrollo, considera muy positivo que desde el país se puedan obtener estos logros. "¡Es una noticia que estimula! –se entusiasma–. Como dicen los autores, no se trata de que permita hacer cosas que hasta ahora eran imposibles, sino de poder hacerlas sin tener que depender de unos poquísimos grupos en el mundo, algo así como democratizar las capacidades de detección de moléculas únicas, y cuando las técnicas se difunden es cuando realmente producen un impacto en todo su potencial".
Este avance las vuelve más accesibles, pero habrá que desarrollar protocolos de preparación de muestras y análisis de datos. “El otro trabajo fue un gran éxito, pero después nos quedamos pensando: ¿esta es de verdad la mejor manera de hacerlo? –recapitula Stefani–. En estos años, estuvimos investigando otras opciones. Primero avanzamos en el aspecto teórico-conceptual, desarrollamos un marco de trabajo y matemático para describir cualquier técnica que use mínimos o máximos. Eso nos permitió probar en simulaciones distintas configuraciones. Cuando vimos que esta era muy buena y que además era fácilmente implementable en dispositivos que existen en muchos laboratorios, pasamos a los experimentos aprovechando uno de los microscopios confocales que teníamos acá”.
Y concluye: “Todas las modificaciones que hacen falta, así como también el software de análisis es de código abierto; esperamos que muchos laboratorios empiecen a probarlo para desarrollarlo más”.